Les craintes concernant la croissance exponentielle des systèmes d'intelligence artificielle atteignent rapidement leur paroxysme, au point qu'un expert du secteur estime que la seule façon de l'arrêter est de bombarder les centres de données. C'est la proposition choc de Eliezer Yudkowski, chercheur dans le domaine du machine learning, dans un éditorial pour Time Magazine.
Qui est Eliezer Yudkowsky ?

Yudkowsky a passé plus de vingt ans à étudier l'Intelligence Générale Artificielle (IAG) et à mettre en garde contre les possibles conséquences désastreuses. C'est pourquoi cela va bien au-delà de l'alarme déclenchée par des personnages tels que Elon Musk, Steve Wozniak e Andrew Yang dans la lettre ouverte du Future of Life Institute, qui appelle à une pause de six mois dans le développement de l'IA. Yudkowsky soutient que cela ne suffit pas.
L'expert dit que la seule façon d'éviter une catastrophe est de bloquer radicalement l'IA. Son idée ? "Arrêtez tous les gros clusters GPU (les fermes d'ordinateurs où intelligences artificielles plus puissant) et imposent une limite à la puissance de calcul pouvant être utilisée pour la formation à l'IA, en la réduisant au fil du temps. Aucune exception, pas même pour les gouvernements et les entités militaires".
Et si quelqu'un enfreignait ces règles ? Yudkowsky n'a aucun doute : "Soyez prêt à détruire un centre de données rebelle avec une frappe aérienne."

Peurs fondées ou psychose ?
Le ton des préoccupations de Yudkowsky me laisse perplexe : même si je conviens que l'éthique et l'attention sont nécessaires pour aborder ces technologies, je les trouve hystériques.
L'expert Yudkowsky dit qu'il craint que sa fille Nina ne survive pas jusqu'à l'âge adulte si des IA toujours plus intelligentes continuent à se développer.
Elle invite donc tous ceux qui partagent ces inquiétudes à adopter une position ferme, car sinon leurs enfants pourraient également être en danger.
"Nous allons tous mourir"
"Le résultat le plus probable de la construction d'une intelligence artificielle surhumaine, dans n'importe quoi de loin comme les circonstances actuelles, est que littéralement tout le monde sur Terre mourra."
Je n'ai aucune difficulté à le qualifier de catastrophiste. Bien sûr, si quelqu'un qui a vraiment consacré sa vie à étudier les dangers de l'avenir dystopique de l'IA dit que nous nous rapprochons de ce qu'il a mis en garde, son opinion mérite d'être entendue.
Nous ne devons cependant pas nous laisser aller au rejet. Il faut accompagner le progrès : comme dit, éthique et attention. Pas de peur et surtout pas d'obscurantisme.