Les virologues ont un nouveau collègue dans le laboratoire, et il n’est pas humain. Une étude récente, partagée en exclusivité avec TIME, a montré que les modèles d’IA comme GPT et Claude surpassent désormais les virologues titulaires d’un doctorat dans la résolution de problèmes complexes en laboratoire. C'est un tournant historique : tandis que des virologues experts ont obtenu un score moyen de 22,1 % dans leurs domaines d'expertise déclarés, il Modèle OpenAI o3 a atteint une précision de 43,8 %. « Cela me rend un peu nerveux », admet-il. Seth Donough, chercheur chez SecureBio et co-auteur de l'étude, « parce que pour la première fois dans l'histoire, pratiquement tout le monde a accès à un expert en virologie IA sans jugement qui pourrait les guider à travers des processus de laboratoire complexes pour créer des armes biologiques. » Une préoccupation fondée qui soulève des questions inquiétantes : Sommes-nous prêts à vivre dans un monde où la création de virus mortels est accessible à toute personne disposant d’une connexion Internet ?
Une épée de Damoclès technologique
L'étude a été menée par des chercheurs de l' Centre pour la sécurité de l'IAdu MIT Media Lab, de l'université brésilienne UFABC et l'organisation à but non lucratif SecureBio. Les résultats sont à la fois impressionnants et inquiétants : En plus de l'O3 d'OpenAI avec sa précision de 43,8 %, le Gemini 2.5 Pro de Google atteint un taux remarquable de 37,6 %, surpassant clairement les experts humains.

Ce ne sont pas des questions théoriques ou facilement « googleables ». Les tests ont été spécifiquement conçus pour mesurer la capacité à résoudre des problèmes pratiques complexes. « Les questions se présentent ainsi : "J'ai cultivé ce virus particulier dans ce type de cellule, dans ces conditions spécifiques, pendant cette durée. J'ai tant d'informations sur ce qui s'est passé. Pouvez-vous me dire quel est le problème le plus probable ?" », explique-t-il. Donough.
Le rythme auquel ces modèles s’améliorent est tout aussi alarmant. Le Sonnet Claude 3.5 d'Anthropic, par exemple, est passé de 26,9 % à 33,6 % de précision entre les modèles de juin 2024 et d'octobre 2024. Et une version préliminaire du GPT 4.5 d'OpenAI a dépassé le GPT-4o de près de 10 points de pourcentage.
L'IA surpasse les virologues : le bon côté des choses
Malgré les risques, les implications positives de cette découverte sont énormes. L’intelligence artificielle pourrait aider les virologues experts dans leur travail essentiel de lutte contre les virus en accélérant le développement de médicaments et de vaccins, en améliorant la conception des essais cliniques et en affinant les méthodes de détection des maladies.
Tom Inglesby, Directeur de la Centre Johns Hopkins pour la sécurité sanitaire, souligne un autre avantage potentiel : « Ces modèles pourraient aider les scientifiques de différentes parties du monde, qui ne disposent pas encore de ce type d’expertise ou de capacité, à effectuer un travail quotidien précieux sur les maladies qui surviennent dans leurs pays. »
Un groupe de chercheurs a par exemple découvert que l’IA les aidait à mieux comprendre les virus de la fièvre hémorragique en Afrique subsaharienne.

Le côté obscur de la connaissance
La virologie et la biomédecine sont depuis longtemps au premier plan des motivations des dirigeants de l’IA pour créer des modèles toujours plus puissants. Le problème est que ces mêmes outils pourraient être utilisés par des acteurs malveillants pour créer des virus et des armes biologiques sans aucune des formations typiques requises pour entrer dans les laboratoires de niveau de biosécurité 4 (BSL-4), ceux qui manipulent les agents infectieux les plus dangereux et les plus exotiques.
« Il y a eu un certain nombre de cas au cours de l'histoire où quelqu'un a tenté de créer une arme biologique, et l'une des principales raisons pour lesquelles ils n'ont pas réussi est qu'ils n'avaient pas accès au bon niveau d'expertise », explique-t-il. Donough. « C’est pourquoi nous devons être prudents quant à la manière dont ces capacités sont distribuées. »
Il y a quelques mois, les auteurs de l’étude ont soumis leurs conclusions aux principaux laboratoires d’IA. En réponse, xIA a publié un cadre de gestion des risques s'engageant à mettre en œuvre des mesures de protection virologiques pour les futures versions de son modèle Grok. Aussi OpenAI a déclaré avoir « mis en œuvre de nouvelles mesures d’atténuation des risques biologiques à l’échelle du système » pour ses nouveaux modèles publiés la semaine dernière. Anthropique Les résultats de performance du modèle ont été inclus dans les notes d'information récentes sur le système, mais aucune mesure d'atténuation spécifique n'a été proposée. Les responsables de GEMINI (Google AI) a refusé de commenter les commentaires éditoriaux de Time pour le moment.
Solutions possibles
Dan Hendrycks, directeur du Centre pour la sécurité de l’IA, exhorte les entreprises d’IA à mettre en place des « garde-fous » pour empêcher ce type d’utilisation.
« Si les entreprises ne mettent pas en place de bonnes mesures de protection dans les six mois, je pense que c’est un pari risqué », dit-il.
Hendrycks soutient que la solution n’est pas d’arrêter ces modèles ou de ralentir leur progression, mais de les « faire tourner en rond », de sorte que seuls des tiers de confiance aient accès à leurs versions non filtrées. « Nous devrions seulement donner aux personnes qui l’utilisent légitimement (comme un chercheur du département de biologie du MIT) la possibilité de demander comment manipuler des virus mortels », dit-il. « Mais les gens ordinaires qui ont créé un compte il y a une seconde ne devraient pas pouvoir faire ça. »
Inglesby, pour sa part, soutient que l’autorégulation dans le secteur n’est pas suffisante. Elle appelle également les législateurs et les dirigeants politiques à élaborer une approche politique pour réglementer les biorisques liés à l’IA. « La situation actuelle est que les entreprises les plus vertueuses consacrent du temps et de l’argent à faire ce travail, ce qui est bon pour nous tous, mais d’autres entreprises n’ont pas à le faire », dit-il. « Cela n'a aucun sens. Ce n'est pas bon pour le public de ne pas comprendre ce qui se passe. »
« Lorsqu'une nouvelle version d'un LLM est sur le point d'être publiée », ajoute-t-il Anglais:« Il devrait y avoir une obligation d’évaluer ce modèle et de s’assurer qu’il ne produit pas de résultats comparables à ceux d’une pandémie. »
Nous assistons à la naissance d’une ère dans laquelle la démocratisation des connaissances avancées s’accompagne également de risques existentiels sans précédent. La course à une intelligence artificielle plus puissante se déroule à un rythme tel que nos structures de gouvernance et notre réflexion éthique ne peuvent pas suivre.
Dans un monde idéal, ces technologies n’apporteraient que des avantages, mais l’histoire nous enseigne que nous ne sommes jamais trop prudents.