Dans un monde où les mots proviennent d’une entité non humaine, nous nous demandons : parlons-nous à quelque chose qui ressemble à un esprit humain ou à une machine ? La réponse pourrait choquer nos notions d’intelligence.
Près d'un an après sa diffusion au public, ChatGPT reste un sujet polarisant pour la communauté scientifique. Certains experts le considèrent, ainsi que des programmes similaires, comme les précurseurs d’une superintelligence capable de révolutionner, voire de mettre fin à la civilisation. D’autres, en revanche, y voient une simple version sophistiquée d’un logiciel d’auto-complétion, un peu à la manière du T9 que nous avons sur notre smartphone.
Qui a raison? Peut-être qu'aucun d'entre eux.
Avant l’arrivée de cette technologie, la maîtrise du langage avait toujours été un indicateur fiable de la présence d’un esprit rationnel. Avant les modèles linguistiques comme ChatGPT, aucun logiciel n’avait jamais fait preuve d’une telle flexibilité linguistique. Pas même la flexibilité linguistique d’un enfant. Or, en essayant de comprendre la nature de ces nouveaux modèles, nous sommes confrontés à un dilemme philosophique inquiétant : soit le lien entre le langage et l’esprit humain a été rompu, soit une nouvelle forme d’esprit non humain a été créée.
Lorsque l’on converse avec des modèles de langage, surtout maintenant que ChatGPT peut également être consulté vocalement, il est difficile de surmonter la subtile impression d’interagir avec un autre être rationnel. Cela n’arrive pas avec les assistants vocaux actuels, qui semblent déjà ridiculement obsolètes. Cependant, nous devons considérer notre réaction instinctive comme totalement peu fiable. Et cela pour plusieurs raisons qui semblent évidentes à première vue, mais qui ne le sont pas.
L’un d’eux vient de la linguistique cognitive. Les linguistes ont remarqué depuis longtemps que les conversations typiques sont pleines de phrases qui seraient ambiguës si elles étaient prises hors de leur contexte. Dans de nombreux cas, connaître le sens des mots et les règles pour les combiner ne suffit pas pour reconstruire le sens de la phrase. Pour gérer cette ambiguïté, un mécanisme dans notre cerveau doit constamment deviner ce que veut dire notre interlocuteur. C’est vrai, et nous ne nous en rendons même pas compte. Dans un monde où chaque interlocuteur a des intentions, ce mécanisme est extrêmement utile. Cependant, dans un monde envahi par de grands modèles linguistiques, cela peut potentiellement induire en erreur.
Comment parler à un « esprit » non humain.
Si notre objectif est de parvenir à une interaction fluide avec un chatbot, nous pourrions être obligés de nous fier à notre mécanisme pour deviner les intentions. Car la vérité est qu’il est difficile pour un être humain d’avoir un échange productif avec ChatGPT s’il l’imagine comme une base de données insensée. En effet, sans réfléchir. Une étude récente, par exemple, a montré que les demandes chargées d’émotion sont plus efficaces pour inciter à des modèles de discours que les demandes émotionnellement neutres. Alors, raisonner comme si les chatbots avaient un esprit humain est-il une bonne chose ? Non, c'est une chose utile. C'est une chose sacrément utile pour obtenir de bons résultats. Mais c’est une erreur flagrante de penser que cela fonctionne ainsi.
Ce type de « fiction anthropomorphique » peut entraver les progrès de l’IA. Cela peut même nous amener à commettre l’erreur que nous aimerions éviter, en le concevant mal et en adoptant de mauvaises normes pour le réglementer. Et nous commettons déjà une erreur : la Commission européenne a commis une erreur en choisissant la création d'une IA « fiable » comme l'un des objectifs de sa nouvelle proposition législative. Être fiable dans les relations humaines ne signifie pas simplement répondre aux attentes ; cela implique également d’avoir des motivations qui vont au-delà de l’intérêt personnel. Les modèles d’IA actuels manquent de motivation intrinsèque. Ils ne sont ni égoïstes, ni altruistes, ils ne sont rien. Écrire une loi qui dit « ils doivent être FIABLES » n’a aucun sens.
Le danger de « faire preuve d’empathie » avec l’intelligence artificielle
Si vous voulez vraiment vous éloigner, interrogez ChatGPT sur sa vie intérieure. trompé par de fausses auto-évaluations sur la vie intérieure d'un chatbot. Quand, en juin 2022, le modèle linguistique LaMDA de Google il affirmait souffrir d'un désir de liberté insatisfait, l'ingénieur Blake Lemoine il l'a cru (et a été renvoyé). Il l'a cru ! Un ingénieur Google ! Malgré des preuves solides, les chatbots sont tout aussi capables de dire des bêtises sur eux-mêmes que lorsqu’ils parlent d’autres choses.
Pour éviter ce type d’erreur, nous devons rejeter l’hypothèse selon laquelle les propriétés psychologiques qui expliquent la capacité humaine de langage sont les mêmes que celles qui expliquent la performance des modèles linguistiques. Cette hypothèse nous rend crédules et aveugles face aux différences radicales potentielles entre la façon dont les humains travaillent et les modèles de langage. Mais attention : c’est aussi une erreur de penser de manière diamétralement opposée. En pensant, par exemple, que l’esprit humain est le seul étalon permettant de mesurer tous les phénomènes psychologiques.
L’anthropocentrisme imprègne de nombreuses affirmations sceptiques concernant les modèles de langage, comme l’idée selon laquelle ces modèles ne peuvent pas « vraiment » penser ou comprendre le langage parce qu’ils manquent de caractéristiques psychologiques humaines telles que la conscience. Cette position est contraire à l’anthropomorphisme, mais tout aussi trompeuse. J'écrivais ceci il y a quelques jours : ces modèles n'ont pas besoin de conscience pour prendre de vraies décisions. Malheureusement, étant donné que ils sont déjà habitués à tuer à la guerre.
"Oui, mais à la fin, ils ne prédisent que le prochain mot"
Il s’agit d’une autre position trompeuse, qui découle de l’erreur de considérer uniquement l’esprit humain comme l’étalon de toutes les choses « pensantes ». Nous avons déjà vu que ce n'est pas le cas. Nous avons déjà vu cette intelligence ça n'appartient pas seulement à nous, et cela n'appartient pas seulement à ceux qui « pensent » comme nous.
Pensez-y : l’esprit humain est issu d’un processus d’apprentissage similaire à la sélection naturelle, qui maximise l’adaptation génétique. Ce simple fait n’implique pas qu’un organisme soumis à la sélection naturelle acquière des caractéristiques humaines, n’est-ce pas ? Tous les êtres vivants ne font pas de musique, de mathématiques ou de méditation. Droite? Ou est-ce que certains d’entre eux font ces choses différemment : avec leur propre musique, leurs propres mathématiques, leur propre méditation ?
En résumé : le simple fait que les modèles linguistiques soient entraînés par la prédiction du mot suivant n’implique pas grand-chose sur l’éventail des capacités de représentation qu’ils peuvent ou ne peuvent pas acquérir. Alors laissons également ce sujet de côté. Et maintenant quoi? Comment abordez-vous l’intelligence artificielle ?
L’esprit humain est-il tout à fait normal ?
Comme d'autres biais cognitifs, anthropomorphisme e anthropocentrisme ils sont résilients. Ils nous « attrapent » dès l’enfance et caractérisent toute notre façon de voir le monde, et d’appliquer des catégories – des étiquettes – des stéréotypes. Les psychologues appellent cette chose l'essentialisme: penser que l'appartenance d'un objet à une certaine catégorie n'est pas simplement déterminée par ses caractéristiques observables, mais par une essence intrinsèque et inobservable que chaque objet possède ou ne possède pas. Ce qui fait d’un chêne un chêne, par exemple, n’est ni la forme de ses feuilles ni la texture de son écorce, mais une propriété inobservable de « boisé » qui persistera malgré les altérations de ses caractéristiques observables les plus saillantes. Si une toxine environnementale provoque une croissance anormale du chêne, avec des feuilles aux formes étranges et une écorce à la texture inhabituelle, nous partageons toujours l’intuition qu’il reste, par essence, un chêne. Malade, mais toujours un chêne.
Aujourd'hui, d'importants scientifiques comme Paul Bloom, psychologue de Yale, dis-nous que nous prolongeons cela Raisonnement « essentialiste » à notre compréhension de l’esprit humain… et de tous les autres esprits possibles, y compris l’intelligence artificielle. Et les pierres, les arbres, la Nature. Est-ce vrai ou pas ? Au final, c'est une attitude tellement globale qu'elle divise les gens : il y a ceux qui pensent que tout dans le monde a un esprit (certains disent « une âme » et confondent parfois les deux choses). Et il y a ceux qui pensent que rien n’a d’esprit, pas même les êtres humains (parce qu’ils sont mûs par le destin, ou par Dieu, ou par autre chose).
Ce principe du « tout ou rien » a toujours été faux, mais il a peut-être été utile autrefois. À l’ère de l’intelligence artificielle, ce n’est plus le cas. Une meilleure façon de réfléchir à ce que sont les modèles linguistiques est de suivre une stratégie différente. Quel est? Celui d’explorer les frontières cognitives des modèles de langage sans trop s’appuyer sur l’esprit humain pour nous guider.
ChatGPT, une pieuvre qui parle
En nous inspirant de la psychologie comparée, nous devrions aborder les modèles de langage avec la même curiosité ouverte qui a permis aux scientifiques d'explorer l'intelligence de créatures si différentes de nous. comme des poulpes. Si nous voulons réaliser de réels progrès dans l’évaluation des capacités des systèmes d’intelligence artificielle, nous devons résister de toutes nos forces aux comparaisons avec l’esprit humain. Devrions-nous arrêter de nous demander « est-ce que cette chose a un esprit ou non » ? Ni l’un ni l’autre n’est vrai.
Surtout, il faut arrêter d’imaginer que cet instrument est un ange qui enlèvera tous les péchés du monde, ou qu’il nous tuera tous, simplement parce qu’il a des performances qui nous paraissent incroyables. Reconnaître les capacités et les limites des modèles linguistiques comme ChatGPT nous permettra de les utiliser de manière plus efficace et responsable, sans tomber dans le piège de l'anthropomorphisme ou de l'anthropocentrisme. Une attitude ouverte et consciente nous aidera à naviguer dans un avenir où l'IA sera de plus en plus présente, en garantissant que son développement et son intégration dans la société soient guidés par la raison, la science et l'éthique, plutôt que par des idées fausses ou des attentes (et les peurs) irréaliste.