Le débat sur l’intelligence artificielle prend un nouveau tournant. Depuis des décennies, les humains se demandent si les informations programmées dans une machine constituent de véritables connaissances ou simplement du calcul. Aujourd’hui, des chercheurs américains affirment que leur nouvelle intelligence artificielle a sa propre morale.
Plus de questions que de réponses
De nombreuses questions se posent depuis l’avènement de l’intelligence artificielle (IA), même dans ses incarnations les plus primitives. Une question récurrente est la suivante : l’IA peut-elle réellement raisonner et prendre des décisions éthiques de manière abstraite, plutôt que déduite du codage et du calcul ?
Pour être plus précis : si vous dites à une IA que nuire intentionnellement à un être vivant sans provocation est « mauvais » et ne devrait pas être fait, l'IA comprendra-t-elle l'idée de « mauvais », comprendra-t-elle pourquoi elle a tort ? faire cela? Ou va-t-il s’abstenir d’agir sans savoir pourquoi ? En d'autres termes, aura-t-il sa propre moralité ?
Selon une équipe de chercheurs d'un laboratoire de Seattle appelé Allen Institute for AI, c'est possible. Qui plus est : ils disent eux-mêmes avoir développé une machine d'intelligence artificielle dotée d'un sens moral, et ils l'ont appelée Delphi, comme l'oracle (presque) du même nom. Il est ouvert aux visiteurs depuis le mois dernier le site de Delphes et demander une "réponse morale".
Un oracle cybernétique
Delphi a déjà reçu plus de 3 millions de visites. Joseph Austerweil, psychologue à l'Université du Wisconsin-Madison, a testé la « moralité » de Delphi avec quelques scénarios simples. Lorsqu'il a demandé à Delphi s'il devait tuer une personne pour en sauver une autre, Delphi a répondu qu'il ne devrait pas le faire. Lorsqu’il a demandé s’il était juste de tuer une personne pour en sauver 100 autres, il a répondu que c’était le cas. Et parfois, il donnait même des réponses « immorales ».
"C'est une première étape pour rendre les systèmes d'IA plus éthiques, socialement conscients et culturellement inclusifs", dit-il. Yejin Choi, chercheur à l'Institut Allen et professeur d'informatique à l'Université de Washington qui a dirigé le projet. Un jour, dit-il, cette « morale » pourrait équiper les systèmes d’intelligence artificielle, les assistants virtuels, les véhicules autonomes pour les aider à faire le bon choix.
Qu’est-ce que Delphes réellement ? Sa « moralité » est-elle simplement le reflet de celle de ses créateurs, ou a-t-elle son propre sens du bien et du mal ? Si oui, comment l’avez-vous développé ? Il y a deux théories qui pourraient nous aider à mieux comprendre.
Avis de non-responsabilité : je m'excuse d'avance si quelqu'un pense que j'ai trop illustré ces théories, par souci de synthèse et pour ne pas rendre le raisonnement dispersif. Si oui, je suis ouvert aux suggestions.
La thèse forte de l’IA
Il y a une thèse appelée « IA forte » que le regretté prof. Daniel N.Robinson, membre de la faculté de philosophie de l'Université d'Oxford, l'a énoncé à plusieurs reprises. Je vais essayer de le résumer ici.
Imaginez, a déclaré le Dr Robinson, que quelqu'un crée un programme de maîtrise pour fournir des avis d'experts sur les maladies cardiovasculaires, les lois constitutionnelles, les accords commerciaux, etc. Si le programmeur pouvait faire en sorte que le programme exécute ces tâches d'une manière impossible à distinguer d'un humain, selon la « thèse forte de l'IA », ce programme aurait une intelligence experte. et quelque chose de plus.
Quoi?
La forte thèse de l’IA suggère qu’il pourrait y avoir des processus informatiques non spécifiés qui constitueraient une intentionnalité. L’intentionnalité signifie prendre une décision délibérée et consciente, qui à son tour implique un raisonnement et un sens des valeurs. (Comme tout cela me rappelle Westworld). Cependant, est-ce vraiment possible ?
Le théorème de Gödel
Le théorème d'incomplétude, dit Le théorème de Gödel, déclare que tout système formel est incomplet car il dépendra d'un théorème ou d'un axiome, dont la validité doit être établie en dehors du système lui-même.
Kurt Godel a développé ce théorème à une exception près : l’intelligence humaine. En d’autres termes, Gödel pensait qu’il devait y avoir quelque chose dans la rationalité et l’intelligence humaines qui ne pouvait être capturé par un système formel et transformé en code. En bref, l’intelligence humaine ne peut être imitée ou modélisée sur une base informatique.
Qui a raison?
S'il a raison Godel, ce n'est pas une question de temps : une IA n'aura JAMAIS sa propre moralité. Elle n'aura jamais une intelligence égale à celle des humains, pour le simple fait que l'intelligence humaine n'est pas une intelligence basée sur le calcul.
Si la thèse de l'IA forte et de l'équipe de Seattle est juste, en revanche, nous sommes peut-être à la veille (de près ou de loin) d'une révolution extraordinaire dans le domaine de l'intelligence artificielle.