Dans un tweet hier Ilya Sutskever, le scientifique principal du groupe de recherche OpenAI, écrit qu'il pense qu'il est possible que "les grands réseaux de neurones d'aujourd'hui soient déjà quelque peu sensibles". Il va sans dire que c'est un point de vue inhabituel.
Les experts en intelligence artificielle s'accordent généralement à dire que la technologie a considérablement progressé au cours de la dernière décennie, mais aussi qu'elle est encore loin derrière l'intellect humain, sans parler de l'approche de la conscience.
Skynet, descends juste
Je veux espérer que Sutskever a plaisanté dans ce tweet : mais il est également possible qu'en tant que chercheur de premier plan du groupe le plus important au monde sur l'intelligence artificielle, il regarde un mètre plus loin.
Depuis un certain temps, il y a eu un débat sur le pouvoir que pourrait prendre l'intelligence artificielle générale. Et le débat fait rage entre ceux qui croient que cela résoudra tous nos problèmes actuels, à ceux qui décèlent les risques de dictatures envahissantes, ou autres. que vous n'imaginez même pas.

Ce tweet marque un tournant dans le scénario de l'IA
Quelle que soit la manière dont vous voyez cette déclaration, en tout cas, c'est la toute première fois que Sutskever (co-fondateur d'OpenAI avec Elon Musk et Sam Altman en 2015) affirme que les intelligences artificielles atteignent un certain degré de prise de conscience.
Pourtant, même sur OpenAI, nous devrions dire. L'organisation à but non lucratif est née dans le but de contrer les risques existentiels d'une intelligence artificielle sensible, mais elle a été la première à donner naissance à une IA puissante. Peut-être pour essayer de comprendre comment en arrêter un ? Et ce n'est pas le seul point discutable.
Intelligences artificielles, controverses naturelles
OpenAI a vu de l'eau passer sous les ponts. En 2019, Musk a quitté l'association après l'annonce que le groupe avait créé un générateur de faux textes d'actualités que certains estimaient trop dangereux.
Le musc a po idem avoir quitté OpenAI car en désaccord avec ses objectifs. Peu de temps après, l'association a annoncé qu'elle n'était plus une association à but non lucratif. Il fonctionne désormais sur un modèle de "profit limité".
D'ailleurs, même Musk semble ébloui sur la route de Damas par des intelligences artificielles. Il veut les contrôler, mais aussi en tirer de l'argent. Il a déjà annoncé avoir un robot humanoïde en développement qui devrait jouer un rôle dans l'intelligence artificielle générale, même s'il s'attend à pouvoir garder son pouvoir sous contrôle. Une idée que d'autres considèrent tout simplement impossible, si elle n'est pas mise en œuvre à temps prima che sia troppo tardi.

Et OpenAI ?
L'association, quant à elle, continue de travailler dur. C'est une nouvelle récente que son modèle GPT-3 a été utilisé par un programmeur pour imiter sa petite amie décédée, et d'autres commodités "jouer à Dieu", à utiliser les paroles de Mo Gawdat. Le mois dernier pourtant, OpenAi faisait savoir qu'il avait "corrigé" le comportement de son intelligence artificielle.
Il se peut que la prise de conscience des intelligences artificielles soit inévitable (un groupe dit avoir développé une doté de moral). Cependant, il se peut aussi que cela n'arrive jamais. Encore trop tôt pour le savoir.
En tout cas, voir l'un des plus grands experts mondiaux dans le domaine déclarer que nous assistons à l'essor des machines sensibles est une nouvelle tout à fait pertinente.
Dg