L’intelligence artificielle surpasse les experts en virologie : une révolution aux multiples enjeux

10 mai 2025

L’intelligence artificielle (IA) a franchi une nouvelle étape impressionnante : selon une étude récente du Center for AI Safety et de SecureBio, des modèles avancés comme ChatGPT et Claude dépassent désormais les experts en virologie PhD dans la résolution de problèmes de laboratoire. Ce progrès remarquable ouvre la voie à d’immenses bénéfices pour la recherche scientifique, mais il soulève également de sérieuses préoccupations en matière de biosécurité. Décryptage d’une avancée qui pourrait changer profondément notre rapport à la recherche biologique et médicale.

Quand l’IA dépasse les experts : les résultats du Virology Capabilities Test

Le Virology Capabilities Test (VCT) a été conçu pour mesurer la capacité d’outils d’IA à répondre à 322 questions complexes sur les protocoles de laboratoire en virologie. Les résultats sont sans appel : le modèle d’OpenAI, nommé o3, a obtenu 43,8 % de bonnes réponses, contre 22,1 % en moyenne pour les virologistes humains, même dans leurs domaines de spécialité.

Plus impressionnant encore, le modèle o3 a atteint le 95e percentile parmi les experts, tandis que Claude 3.5 Sonnet se situait au 75e percentile. Ce niveau de performance sur des questions dites “Google-proof” (nécessitant une expertise pratique tacite) marque un tournant majeur. Désormais, l’accès à des compétences de très haut niveau en virologie n’est plus réservé à ceux ayant suivi de longues années de formation universitaire et de pratique en laboratoire.

Les bénéfices pour la recherche et la santé publique

Malgré les risques, les avancées de l’IA en virologie offrent de formidables opportunités pour la science et la santé publique :

  • Accélération de la recherche sur les maladies : l’IA pourrait identifier plus rapidement de nouveaux pathogènes et proposer des stratégies de réponse adaptées.
  • Optimisation de la conception expérimentale : en assistant les chercheurs dans le design et la conduite d’expériences, l’IA limite les erreurs humaines et améliore la reproductibilité scientifique.
  • Développement plus rapide des vaccins : les délais entre l’identification d’un virus et la mise au point d’un vaccin pourraient être drastiquement réduits.
  • Accès équitable à l’expertise : dans les régions du monde manquant de spécialistes, l’IA peut fournir un soutien de qualité, renforçant les systèmes de santé locaux.
  • Transfert de connaissances : les modèles d’IA facilitent la circulation d’informations entre différents domaines de la biologie et de la médecine.

Ces avancées sont d’autant plus précieuses face aux défis sanitaires mondiaux, comme la lutte contre les pandémies ou la surveillance des zoonoses émergentes.

Le revers de la médaille : un risque accru de bioterrorisme

Le principal risque de cette démocratisation de l’expertise virologique est l’augmentation potentielle du bioterrorisme. Les experts en sécurité nationale redoutent que des individus malveillants puissent utiliser ces outils pour concevoir ou modifier des pathogènes dangereux, sans nécessiter de formation poussée ni d’accès à des laboratoires sécurisés.

Quelques éléments clés issus de l’étude :

  • Le laboratoire national de Los Alamos et OpenAI collaborent pour évaluer les risques biologiques associés aux IA.
  • Le UK AI Safety Institute a confirmé que certains modèles d’IA atteignent un niveau de compétence en biologie comparable à celui de doctorants.
  • Le cabinet de conseil ECRI classe les produits soutenus par l’IA parmi les plus grandes menaces technologiques pour la santé publique en 2025.

Ces constats poussent à un consensus : il est urgent de mettre en place des garde-fous pour éviter que les capacités de l’IA soient utilisées à mauvais escient.

Les mesures de protection mises en place par l’industrie

Face à ces dangers, plusieurs entreprises du secteur de l’IA ont commencé à renforcer leurs protocoles de sécurité :

  • xAI (dirigé par Elon Musk) a publié un cadre de gestion des risques pour son modèle Grok.
  • OpenAI a introduit de nouvelles protections spécifiques contre les risques biologiques.
  • Les auteurs de l’étude recommandent de restreindre l’accès aux capacités sensibles de virologie et d’instaurer des mécanismes de “connaissance client” pour vérifier l’identité et les intentions des utilisateurs.

Néanmoins, beaucoup d’experts estiment que les mesures volontaires des entreprises ne suffiront pas. Ils appellent les gouvernements à renforcer les cadres de biosécurité et à envisager des licences obligatoires pour l’utilisation d’outils avancés de conception biologique.

L’avenir : un équilibre à trouver entre innovation et sécurité

Nous nous trouvons à un carrefour : d’un côté, l’IA pourrait révolutionner la médecine et sauver des millions de vies ; de l’autre, elle pourrait décupler des menaces biologiques inédites si elle tombe entre de mauvaises mains. Trouver le juste équilibre entre innovation scientifique et préservation de la sécurité mondiale sera l’un des grands défis des années à venir.

Les acteurs publics et privés doivent collaborer pour instaurer une gouvernance responsable de l’IA, combinant réglementation rigoureuse, transparence et innovation sécurisée. Ce n’est qu’en travaillant ensemble que nous pourrons tirer parti des formidables capacités de l’IA tout en protégeant notre monde contre ses dérives potentielles.


Sources :


Envie d’explorer comment Tamento peut vous accompagner dans votre stratégie digitale tout en intégrant les dernières innovations technologiques de manière sécurisée ? Contactez-nous dès aujourd’hui pour un audit personnalisé !

Create your account