À tout moment entre 2025 et 2028. C'est la fenêtre temporelle pendant laquelle Dario Amodeï, PDG d'Anthropic et « papa » de Claude AI, prédit que les modèles d’IA pourraient atteindre la capacité de se répliquer et de survivre de manière autonome. Une déclaration choquante, qui vient de l'un des protagonistes de la course pour créer l'intelligence artificielle la plus puissante et la plus « responsable ». Dans interview Dans le New York Times, Amodei compare le développement de l’IA aux niveaux de biosécurité des laboratoires de virologie, avertissant que sans une « mise à l’échelle responsable », la technologie pourrait bientôt gagner en autonomie et en force de persuasion extrême, avec des implications alarmantes pour la sécurité mondiale.
L'analogie avec les niveaux de biosécurité
Pour expliquer sa vision, Amodei utilise une analogie puissante : les niveaux de biosécurité (ASL) des laboratoires de virologie. Selon le PDG d'Anthropic, nous sommes actuellement au niveau ASL 2 en développement d'IA. Mais le niveau 4 de l’ASL, qui inclurait « autonomie » et « persuasion », pourrait être imminent.
L'ASL 4 visera davantage, du côté des abus, à permettre aux acteurs étatiques d'augmenter considérablement leurs capacités, ce qui est beaucoup plus difficile que de permettre cela à des personnes aléatoires. Il serait inquiétant que la Corée du Nord, la Chine ou la Russie puissent améliorer considérablement leurs capacités offensives dans diverses zones militaires grâce à l’IA, d’une manière qui leur donnerait un avantage géopolitique substantiel.
Dario Amodeï
Et c’est précisément du côté de « l’autonomie » que les prédictions d’Amodei deviennent encore plus alarmantes.
Différentes versions de ces modèles sont sur le point de pouvoir se reproduire et survivre dans la nature.
Dario Amodeï
Lorsque l'intervieweur demande au chercheur italo-américain combien de temps il faudra pour atteindre ces différents niveaux de menace, Amodei (qui se dit enclin à penser de manière « exponentielle ») répond que le niveau « répliquer et survivre » pourrait être atteint « partout entre 2025 et 2028 ». « Je parle vraiment ici du futur proche. Je ne parle pas d'ici 50 ans », souligne le PDG d'Anthropic. «Dieu m'accorde la chasteté, mais pas maintenant. Mais « pas maintenant » ne veut pas dire quand je serai vieux et gris. Je pense que cela pourrait être une chose à court terme. »
Anthropique, des mots qui ont du poids
Les propos d'Amodei ont un poids particulier, compte tenu de son rôle de leader dans le secteur de l'IA. en 2021, lui et sa sœur Daniela ont quitté OpenAI en raison de divergences sur l'orientation de l'entreprise, après avoir contribué à la création de GPT-3 et vu le partenariat avec Microsoft. Peu de temps après, les frères ont fondé Anthropic avec d’autres anciens employés d’OpenAI, dans le but de poursuivre leurs efforts pour « faire évoluer l’IA de manière responsable ».
"J'ai peut être tort. Mais je pense que cela pourrait être une chose à court terme. » Des propos qui, malgré leur incertitude, sonnent comme un signal à ne pas sous-estimer.
Dans un contexte où les inquiétudes concernant l’IA semblent croître de jour en jour, le point de vue d’Amodei (avec son point de vue hautement privilégié au sein de l’industrie) ajoute encore du poids à la nécessité d’une gouvernance responsable de cette technologie disruptive. La mission d'Anthropic, « veiller à ce que l'IA transformatrice aide les gens et la société à prospérer », semble plus urgente que jamais face à des scénarios comme ceux évoqués par son PDG. Si les modèles d'IA sont réellement sur le point d'atteindre la capacité de se répliquer et de survivre de manière autonome, notamment en accélérant leur « évolution » grâce àincarnation, il est essentiel que leur développement soit guidé par des principes éthiques et responsables.
Je sais déjà à quoi tu penses
C’est un retour que je reçois souvent lorsque je rapporte les déclarations des différents « Capataz » de l’intelligence artificielle. Altman, Musk et désormais Amodei travaillent dur au développement de quelque chose qu’ils aiment parfois qualifier de très dangereux. Pouquoi? Vous êtes nombreux à m'écrire que c'est du marketing : les « coups de gueule », même les plus alarmistes, attirent l'attention sur l'entreprise et le produit. Comme pour dire : « Hé, nous traitons ce genre de virus mortel, mais sachez que nous le ferons avec beaucoup de prudence, car nous nous en soucions beaucoup. »
Peut être. Bien entendu, les prédictions d’Amodei semblent alarmistes, exagérées. Mais dans un domaine en évolution rapide comme l’intelligence artificielle, où les progrès se succèdent à un rythme exponentiel, il est judicieux de se préparer aux scénarios les plus extrêmes. Qu’il s’agisse d’empêcher l’utilisation malveillante de l’IA par les acteurs étatiques (tous, et pas seulement ceux nommés par Amodeo, car « le plus propre a du mal ») ou de garantir que les modèles n’échappent pas au contrôle humain, le défi est immense et nécessite un effort conjoint des entreprises, des gouvernements et de la société civile.
Les propos d'Amodei, malgré leur nature spéculative, doivent servir d'incitation à accélérer le débat et l'action sur ces questions cruciales. Un débat, bien entendu, dans lequel la « balle » ne doit pas appartenir uniquement aux développeurs d’IA eux-mêmes, mais à l’ensemble de la société civile. Commençons d'abord, en fait : Plus tôt nous commencerons, mieux ce sera.