Cet article fait partie de "Periscopio", la newsletter Linkedin qui aborde chaque semaine les thématiques de Futuro Prossimo, et est publiée en avance sur la plateforme LinkedIn. Si vous souhaitez vous abonner et le prévisualiser, retrouvez tout ici.
Le Washington Post samedi dernier rapporté les déclarations d'un ingénieur de Google suspendu le 6 juin pour violation des accords de confidentialité de l'entreprise de Palo Alto. En substance, l'ingénieur Blake Lemoine a diffusé des discussions « privées » entre lui et un chatbot d'intelligence artificielle qui démontreraient quelque chose plutôt redouté par de nombreux experts : cette IA serait devenue sensible.
Ce sont des déclarations fortes d’un expert du secteur, pas de n’importe qui. Et ils sont rendus après des centaines d’interactions avec un système d’intelligence artificielle de pointe et sans précédent appelé LeMDA. Mais c'est vrai? Cette IA est-elle vraiment devenue sensible ?
De quoi parle-t-on
LaMDA signifie « Modèle de langage pour les applications de dialogue ». Il fait partie de ces systèmes d’IA capables de répondre à des requêtes écrites une fois entraînés sur de gros volumes de données.
Les systèmes sont devenus de mieux en mieux capables de répondre aux questions en écrivant de manière de plus en plus humaine. En mai dernier, Google lui-même a présenté LaMDA sur son blog officiel la qualifiant de « capable d’écrire sur une infinité de sujets ».
Oui, mais est-il sensible ?
Après les déclarations de l'ingénieur, Google a tenté de jeter de l'eau sur le feu en niant l'interview parue dans le Washington Post. "Notre équipe", a écrit Big G hier, "a examiné les préoccupations de Blake et l'a informé que les preuves n'étayaient pas ses affirmations." Plusieurs experts en intelligence artificielle se sont fait l’écho de cette thèse : certains ont fermement rejeté cette thèse, d’autres l’ont utilisée comme exemple de notre propension à attribuer des attributs humains aux machines.
Un peu comme quand on discute avec la souris, pour ainsi dire.
Ce n'est pas une blague, cependant. Une telle chose ne peut pas être rejetée comme ça. Et pas pour la peur des gens comme Ilya Sutskever (« Les IA deviennent sensibles »), Yuval Harari ("L'IA sera capable de pirater les gens"), Ou Mo Gawdat (« Les chercheurs en IA jouent à créer Dieu »).
La conviction que l’IA de Google pourrait être sensible est très importante, car elle met en lumière à la fois nos craintes et nos attentes quant au potentiel de cette technologie.
Pour l'instant, cependant, c'est une croyance erronée
Le développement et l’utilisation de programmes informatiques avancés basés sur des quantités massives de données soulèvent de nombreuses préoccupations éthiques. Dans certains cas, cependant, les progrès sont jugés en fonction de ce qui pourrait se produire plutôt que de ce qui est actuellement réalisable.
Pour le moment, selon presque tous les plus grands experts informatiques du monde, il n'y a qu'une seule conclusion : non, l'IA de Google est loin d'être sensible. Il est tout simplement meilleur pour paraître tel, en faisant correspondre des modèles de langage à des éléments similaires qu'il trouve dans un entrepôt presque infini de phrases.
Il faut le considérer comme une version super puissante du logiciel de saisie semi-automatique que nous avons sur un smartphone. Ok : super super super puissant. Cependant, personne ne devrait confondre cela avec la sensation.
Les développeurs d'IA eux-mêmes, cependant, jouent la charge ces jours-ci, alarmant les gens. Leurs déclarations, dictées en partie par le choc de voir le potentiel de cette technologie d'abord et en partie aussi pour les promouvoir, ont une grande résonance dans les médias.
L'IA de Google n'est pas sensible
La semaine dernière Blaise Aguera et Arcas, vice-président de Google Research, il a écrit dans un article pour The Economist que lorsqu'il a commencé à utiliser LaMDA l'année dernière, il avait de plus en plus l'impression de parler à quelque chose d'intelligent. C’est un étonnement compréhensible, voire une peur subtile.
À l'heure actuelle, cependant, LaMDA a subi 11 processus d'examen différents sur les principes de l'intelligence artificielle. Elle a également été soumise à de nombreux tests sur sa capacité à formuler des affirmations fondées sur des faits. N'importe quoi. Ce n'est pas sensible.
Cela n’enlève rien à la nécessité de développer l’intelligence artificielle dans le respect de l’éthique et de la morale. Certains, pour être honnête, le disent avoir développé une IA directement ÉQUIPÉE d'une morale, mais c'est une autre affaire.
Le devoir principal des chercheurs, s’ils se soucient réellement des progrès de cette technologie, n’est pas d’anthropomorphiser ses manifestations. Surtout, ne pas trop alarmer l'opinion publique, mais plutôt rester vigilant afin de pouvoir « freiner » dès qu'une étincelle de prise de conscience apparaît.
SI jamais il y en aura. Que dis-tu?