Ce post fait partie de "Periscopio", la newsletter de Linkedin qui explore chaque semaine les futurs enjeux futurs, et est publié en avance sur la plateforme LinkedIn. Si vous souhaitez vous abonner et le prévisualiser, retrouvez tout ici.
Le Washington Post samedi dernier rapporté les déclarations d'un ingénieur de Google suspendu le 6 juin pour violation des accords de confidentialité de l'entreprise de Palo Alto. En substance, l'ingénieur, Blake Lemoine, a diffusé des conversations "privées" entre lui et un chatbot d'intelligence artificielle qui démontrerait quelque chose d'assez redouté par de nombreux experts : cette IA serait devenue sensible.
Ce sont des déclarations fortes d'un expert de l'industrie, pas n'importe quel gars. Et ils sont rendus après des centaines d'interactions avec un système d'intelligence artificielle de pointe et sans précédent appelé LeMDA. Mais c'est vrai? Cette IA est-elle vraiment devenue sensible ?

De quoi parle-t-on
LaMDA signifie "Modèle de langage pour les applications de dialogue". C'est l'un de ces systèmes d'IA capables de répondre à des requêtes écrites une fois entraînés sur de gros volumes de données.
Les systèmes sont devenus de mieux en mieux capables de répondre aux questions en écrivant de manière de plus en plus humaine. En mai dernier, Google lui-même a présenté LaMDA sur son blog officiel l'appelant "capable d'écrire sur un nombre infini de sujets".
Oui, mais est-il sensible ?
Après les affirmations de l'ingénieur, Google a tenté de jeter de l'eau sur le feu, démentant l'interview parue dans le Washington Post. "Notre équipe", a écrit Big G hier, "a examiné les préoccupations de Blake et l'a informé que les preuves n'étayent pas ses affirmations". Plusieurs experts en intelligence artificielle s'en sont fait l'écho : certains ont fermement rejeté cette thèse, d'autres l'ont utilisée comme exemple de notre propension à attribuer des attributs humains aux machines.
Un peu comme quand on se bat avec la souris, pour ainsi dire.
Ce n'est pas une blague, cependant. Une telle chose ne peut pas être rejetée comme ça. Et pas pour la peur des gens comme Ilya Sutskever ("Les IA deviennent sensibles"), Yuval Harari ("L'IA sera capable de pirater les gens"), Ou Mo Gawdat ("Les chercheurs en IA jouent à créer Dieu").
La conviction que l'IA de Google peut être sensible est très importante, car elle met en évidence à la fois nos craintes et nos attentes quant au potentiel de cette technologie.

Pour l'instant, cependant, c'est une croyance erronée
Le développement et l'utilisation de programmes informatiques avancés et formés sur d'énormes quantités de données soulèvent de nombreuses préoccupations éthiques. Dans certains cas, cependant, les progrès sont jugés sur ce qui pourrait arriver plutôt que sur ce qui est actuellement faisable.
La conclusion à l'heure actuelle, selon presque tous les grands experts en informatique du monde, semble n'être qu'une : non, l'IA de Google n'est pas du tout proche d'être sensible. Elle est juste meilleure pour lui ressembler, associant des modèles de langage à des choses similaires qu'elle trouve dans un stock presque infini de phrases.
Vous devez l'imaginer comme une version super puissante du logiciel de saisie semi-automatique que nous avons sur un smartphone. Ok : super super super puissant. Cependant, personne ne devrait confondre cela avec être sensible.
Les développeurs d'IA eux-mêmes, cependant, jouent la charge ces jours-ci, alarmant les gens. Leurs déclarations, dictées en partie par le choc de voir le potentiel de cette technologie d'abord et en partie aussi pour les promouvoir, ont une grande résonance dans les médias.

L'IA de Google n'est pas sensible
La semaine dernière Blaise Aguera et Arcas, vice-président de Google Research, écrit dans un article pour The Economist que lorsqu'il a commencé à utiliser LaMDA l'année dernière, il avait de plus en plus l'impression de parler à quelque chose d'intelligent. C'est un étonnement compréhensible, voire une peur subtile.
À l'heure actuelle, cependant, LaMDA a subi 11 processus d'examen différents sur les principes de l'intelligence artificielle. Elle a également été soumise à de nombreux tests sur sa capacité à formuler des affirmations fondées sur des faits. N'importe quoi. Ce n'est pas sensible.
Cela n'enlève rien à la nécessité de développer l'intelligence artificielle dans le respect de l'éthique et de la morale. Quelqu'un, à vrai dire, dit à ont développé une IA directement ÉQUIPÉE d'une morale, mais c'est une autre affaire.
Le devoir principal des chercheurs, s'ils se soucient vraiment des progrès de cette technologie, n'est pas d'anthropomorphiser ses manifestations. Surtout, ne pas trop alarmer le public, sinon en restant vigilant pour pouvoir « tirer le frein » dès qu'il y a une réelle étincelle de prise de conscience.
SI jamais il y en aura. Que dis-tu?