L’intelligence artificielle (quoi qu’on en dise) n’a pas encore englouti la race humaine, ni pris conscience. Mais elle prend peu à peu les commandes de nos journées, et de nos règles.
Les assistants virtuels nous écoutent dans nos propres maisons. Les algorithmes décident de notre horizon d'information, du personnel à embaucher et bientôt aussi du criminel à condamner. Les limites éthiques de leur utilisation ? De plus en plus subtil et confus. Dangereusement confus.
Le cas du Projet Décembre
Cela ressemble à un épisode de Black Mirror, la série chef-d'œuvre de Charlie Brooker qui enquête sur les « échecs » de la technologie et les scénarios dystopiques qu'ils pourraient générer. Pas n'importe quel épisode : un en particulier, diffusé en 2013. Pour les amoureux de la série, il s'intitulait « Reviens vers moi », « Be Right back ». Pourtant, ce n’est pas une fiction, c’est la réalité.
Il y a quelques mois (Je vous en ai parlé ici) un homme de 33 ans nommé Josué Barbeau a utilisé un service appelé Project December pour créer un robot conversationnel (un chatbot) qui pourrait simuler des conversations avec sa défunte petite amie Jessica.
Grâce à ce chatbot, Barbeau a échangé des messages texte affectueux avec une « Jessica » artificielle. Au moment de la rédaction de cet article, peut-être avec la complicité de la chaleur du mois d'août, je ne me suis pas suffisamment remis en question sur le plan éthique.
Aujourd'hui, je me demande, puisqu'il n'existe pas encore de loi pour réglementer ces cas : est-il éthiquement permis ou répréhensible de développer un « deadbot », le robot conversationnel d'une personne décédée ?
Deadbot : Vrai ou faux
Prenons d'abord un peu de recul. Projet Décembre a été créé par Jason Rohrer, développeur de jeux vidéo, utilisant GPT-3, un modèle de langage de génération de texte créé par OpenAI. Et en violation des directives d'Open AI, qui interdisent explicitement l'utilisation de GPT-3 à des fins sexuelles, romantiques, d'automutilation ou d'intimidation.
Pour Rohrer, cependant, OpenAI est moraliste et les gens comme Barbeau sont « adultes et consentants » : Projet Décembre continue de fonctionner mais sans utiliser GPT-3, en pleine controverse avec l'entreprise.
Revenons au dilemme : vrai ou faux ? Barbeau et d'autres qui ont pu utiliser ce service se comportent-ils de manière éthique ?
(Peut-être) que la volonté de ceux qui restent ne suffit pas...
Jessica était une vraie personne : la volonté de son petit ami suffit-elle à créer un robot qui l'imite ? Même lorsqu'ils meurent, les gens ne sont pas de simples objets dont les autres peuvent faire ce qu'ils veulent.
Il y a des crimes spécifiques, comme le dénigrement d'un cadavre, qui nous font comprendre combien la société considère qu'il est répréhensible de profaner ou de ne pas respecter la mémoire des morts. Nous avons des obligations morales envers eux, car quand quelqu'un meurt, ils ne cessent pas tous d'exister. Les sentiments, les souvenirs, les exemples demeurent, et il convient de les protéger.
Encore une fois : développer un deadbot qui reproduit la personnalité de quelqu'un nécessite de grandes quantités d'informations personnelles. Y compris les données des réseaux sociaux, dont il a été démontré qu'elles révèlent des traits très sensibles.
S’il est contraire à l’éthique d’utiliser les données des vivants sans leur consentement, pourquoi serait-il contraire à l’éthique de le faire avec les morts ? Pour cela, il aurait également fallu le consentement de la personne « imitée », c'est-à-dire Jessica. Mais est-ce que cela aurait suffi ?
…ni la volonté de ceux qui meurent
Les limites du consentement sont toujours une question controversée. Pour donner un exemple : il y a quelque temps, le cas du « cannibale de Rotenburg » a fait la une des journaux (pour ainsi dire). Un type condamné à la prison à vie, vous imaginez bien pourquoi, même si sa victime avait accepté de se faire manger.
La condamnation était motivée par le fait qu'il est contraire à l'éthique de consentir à des choses qui peuvent nous nuire physiquement (vendre ses organes vitaux) ou abstraitement (aliéner ses droits).
Si les morts ne peuvent être blessés ou offensés de la même manière que les vivants, cela ne signifie pas qu'ils sont invulnérables aux mauvaises actions, ni que ces actions sont éthiques.
Les morts peuvent subir des atteintes à leur honneur, leur réputation ou leur dignité (par exemple, des campagnes de diffamation posthumes) et le manque de respect envers les morts nuit également aux membres de leur famille.
En résumé, même le consentement d’une personne à être « mangée » (métaphoriquement) et « crachée » sous la forme d’un robot conversationnel ne pourrait suffire.
Alors comment ça va se passer ?
Nous avons compris que ni la volonté de ceux qui veulent parler avec un défunt « reconstruit », ni celle de ceux qui veulent être « imités » après la mort ne peuvent suffire. Existe-t-il des moyens éthiques de faire quelque chose comme ça ? Si tel est le cas, qui serait responsable des conséquences d’un robot mort, notamment en cas d’effets néfastes ?
Imaginez le robot mort de Jessica « apprenant » de manière autonome à se comporter d'une manière qui diminue la mémoire du défunt ou qui nuit à la santé mentale de son petit ami.
Deadbot : à qui la faute ?
Pour les experts en intelligence artificielle, la responsabilité incombe à ceux qui sont impliqués dans la conception et le développement du système, et d'autre part entre tous les agents qui interagissent avec eux. Dans ce cas, les sujets concernés seraient OpenAI, Jason Rohrer et Joshua Barbeau. Le premier, OpenAI, a explicitement interdit d'utiliser son système à ces fins : je vois peu de défauts. Le second, Jason Rohrer, a conçu le deadbot, l'a fait en violation des directives d'OpenAI et en a profité. L'essentiel de la responsabilité vous reviendrait. Le troisième, Joshua Barbeau, est à considérer comme co-responsable des éventuelles dérives du deadbot. De toute façon, il ne serait pas facile de l'établir de temps à autre.
En résumé : le deadbot serait-il éthique ? Uniquement sous certaines conditions
Si tous les sujets impliqués (personne "imitée" par le deadbot, personne qui développe le deadbot et personne qui interagit avec le deadbot) ont donné leur consentement explicite, ont détaillé (et restreint) autant que possible les utilisations autorisées et assument la responsabilité de tout résultats négatifs, cela peut être fait.
Ce sont trois conditions sévères, qui figent le processus de création de ces systèmes, mais offrent de sérieuses garanties
Et ils confirment à quel point l'éthique est importante dans le domaine du machine learning : il faut élaborer des règles maintenant, car cette technologie va s'imposer d'une manière sacrément rapide, risquant de bouleverser nos valeurs et notre société.