Les craintes concernant la croissance exponentielle des systèmes d’IA atteignent rapidement leur paroxysme, à tel point qu’un expert du secteur estime que la seule façon de l’arrêter est de bombarder les centres de données. C'est la proposition choc de Eliezer Yudkowski, chercheur dans le domaine du machine learning, dans un éditorial pour Time Magazine.
Qui est Eliezer Yudkowsky ?
Yudkowsky a passé plus de deux décennies à étudier l’intelligence générale artificielle (AGI) et à mettre en garde contre ses possibles conséquences désastreuses. C'est pourquoi cela va bien au-delà de l'alarme lancée par des gens comme Elon Musk, Steve Wozniak e Andrew Yang dans la lettre ouverte du Future of Life Institute, qui appelle à une pause de six mois dans le développement de l’IA. Yudkowsky estime que cela ne suffit pas.
L’expert affirme que la seule façon d’éviter une catastrophe est de bloquer radicalement l’IA. Ton idée? « Arrêtez tous les grands clusters GPU (les fermes informatiques où intelligences artificielles plus puissant) et imposent une limite à la puissance de calcul pouvant être utilisée pour entraîner l’IA, en la réduisant au fil du temps. Aucune exception, pas même pour les gouvernements et les entités militaires. »
Et si quelqu’un enfreignait ces règles ? Yudkowsky n’a aucun doute : « Soyez prêt à détruire un centre de données rebelle par une frappe aérienne. »
Peurs fondées ou psychose ?
Le ton des préoccupations de Yudkowsky me laisse perplexe : même si je reconnais que l'éthique et l'attention sont nécessaires dans la direction de ces technologies, je les trouve hystériques.
L'expert Yudkowsky dit craindre que sa fille Nina ne survive pas jusqu'à l'âge adulte si des IA de plus en plus intelligentes continuent de se développer.
Elle invite donc tous ceux qui partagent ces inquiétudes à adopter une position ferme, car sinon leurs enfants pourraient également être en danger.
« Nous allons tous mourir »
"Le résultat le plus probable de la construction d'une intelligence artificielle surhumaine, dans des conditions vaguement similaires aux circonstances actuelles, est que littéralement tout le monde sur Terre mourra."
Je n’ai aucune difficulté à le définir comme un catastrophiste. Bien sûr, si quelqu’un qui a véritablement consacré sa vie à étudier les dangers de l’avenir dystopique de l’IA dit que nous nous rapprochons de ce dont il avait mis en garde, son opinion pourrait valoir la peine d’être écoutée.
Nous ne devons cependant pas nous laisser aller au rejet. Il faut accompagner le progrès : comme dit, éthique et attention. Pas de peur et surtout pas d'obscurantisme.