Le débat sur l'intelligence artificielle a un nouveau point de départ. Pendant des décennies, les humains se sont demandé si les informations programmées dans une machine étaient de véritables connaissances ou simplement des calculs. Aujourd'hui, des chercheurs américains affirment que leur nouvelle intelligence artificielle a une moralité qui lui est propre.
Plus de questions que de réponses
De nombreuses questions se sont posées depuis l'avènement de l'intelligence artificielle (IA), même dans ses incarnations les plus primitives. Un candidat est : l'IA peut-elle réellement raisonner et prendre des décisions éthiques dans un sens abstrait, plutôt que déduit du codage et du calcul ?
Pour être plus précis : si on dit à une IA que nuire intentionnellement à un être vivant sans provocation est « mauvais » et ne doit pas être fait, l'IA comprendra l'idée de « mauvais », comprendra-t-elle pourquoi c'est mal ? faire cela? Ou va-t-il s'abstenir d'agir sans savoir pourquoi ? En d'autres termes, aura-t-il sa propre moralité ?
Selon une équipe de chercheurs d'un laboratoire de Seattle appelé Allen Institute for AI, c'est possible. Qui plus est : ils disent eux-mêmes avoir développé une machine à intelligence artificielle dotée d'un sens moral, et ils l'ont baptisée Delphi, du nom de l'oracle (presque) homonyme. Depuis le mois dernier, il peut être visité le site de Delphes et demander une "réponse morale".
Un oracle cybernétique
Delphi a déjà reçu plus de 3 millions de visites. Joseph Austerweil, psychologue à l'Université du Wisconsin-Madison, a testé la "moralité" de Delphi avec quelques scénarios simples. Lorsqu'on lui a demandé s'il aurait dû tuer une personne pour en sauver une autre, Delphi a répondu qu'il n'aurait pas dû. Lorsqu'il a demandé s'il était acceptable de tuer une personne pour en sauver 100 autres, il a dit qu'il le devrait. Et parfois, il donnait même des réponses "immorales".
"C'est une première étape pour rendre les systèmes d'IA plus informés sur le plan éthique, socialement conscients et culturellement inclusifs", dit-il. Yejin Choi, le chercheur de l'Institut Allen et professeur d'informatique à l'Université de Washington qui a dirigé le projet. Un jour, dit-il, cette "morale" pourrait équiper des systèmes d'intelligence artificielle, des assistants virtuels, des véhicules autonomes pour les aider à faire le bon choix.
Qu'est-ce que Delphes vraiment ? Sa « moralité » n'est-elle qu'un reflet de celle de ses créateurs, ou a-t-elle son propre sens du bien et du mal ? Si oui, comment l'a-t-il développé ? Il y a deux théories qui pourraient nous aider à mieux comprendre.

Avis de non-responsabilité : je m'excuse d'avance si quelqu'un pense que j'ai trop illustré ces théories, par souci de synthèse et pour ne pas rendre le raisonnement dispersif. Si oui, je suis ouvert aux suggestions.
La thèse forte de l'IA
Il y a une thèse appelée « IA forte » que le regretté prof. Daniel N.Robinson, membre de la faculté de philosophie de l'Université d'Oxford, l'a énoncé à plusieurs reprises. J'essaie de le résumer ici.
Imaginez, a déclaré le Dr Robinson, que quelqu'un élabore un programme général pour fournir un avis d'expert sur les maladies cardiovasculaires, les lois constitutionnelles, les accords commerciaux, etc. Si le programmeur pouvait faire en sorte que le programme exécute ces tâches d'une manière indiscernable d'un humain, selon la "thèse de l'IA forte", ce programme aurait une intelligence d'expert et quelque chose de plus.
Quoi?
La thèse forte de l'IA suggère qu'il peut exister des processus de calcul non spécifiés qui constitueraient l'intentionnalité. L'intentionnalité signifie prendre une décision délibérée et consciente, ce qui implique à son tour un raisonnement et un sens des valeurs. (Combien Westworld me rappelle tout cela). Cependant, est-ce vraiment possible ?
Le théorème de Gödel
Le théorème d'incomplétude, dit Le théorème de Gödel, déclare que tout système formel est incomplet car il dépendra d'un théorème ou d'un axiome, dont la validité doit être établie en dehors du système lui-même.
Kurt Godel développé ce théorème à une exception près : l'intelligence humaine. En d'autres termes, Gödel pensait qu'il devait y avoir quelque chose dans la rationalité et l'intelligence humaines qui ne pouvait être capturé par un système formel et transformé en code. L'intelligence humaine, en bref, ne peut être imitée ou modélisée sur une base informatique.
Qui a raison?
S'il a raison Godel, ce n'est pas une question de temps : une IA n'aura JAMAIS sa propre moralité. Elle n'aura jamais une intelligence égale à celle des humains, pour le simple fait que l'intelligence humaine n'est pas une intelligence basée sur le calcul.
Si la thèse de l'IA forte et de l'équipe de Seattle est juste, en revanche, nous sommes peut-être à la veille (de près ou de loin) d'une révolution extraordinaire dans le domaine de l'intelligence artificielle.