Ça n'en a pas l'air : c'est exactement l'intrigue d'un épisode de Black Mirror, mais c'est la réalité. Un homme de San Francisco, Josué Barbeau, a utilisé un chatbot piloté par l'IA pour "parler" à sa femme même après sa mort.
Barbeau n'a fourni que les anciens échanges de textes de sa femme, ainsi que quelques informations générales nécessaires. Le chatbot hyperréaliste qui a « ramené sa femme à la vie » s’appelle Project December.
Chatbot : intelligence artificielle, perception naturelle ?
Le modèle d'intelligence artificielle conçu par la société de recherche OpenAI (soutenu par Elon Musk), il s'appelle GPT-3. Nous en avons déjà parlé dans d'autres cas. GPT-3 alimente le chatbot Project December.
Barbeau il a dit à un journal car il a pu parler à nouveau à sa femme, Jessice Pereira, décédée il y a huit ans à l'âge de 23 ans d'une maladie rare du foie. Malgré les années qui ont passé, l'écrivain indépendant a déclaré qu'il ne s'était jamais éloigné d'elle.
Lorsqu'il est tombé sur le Projet Décembre, il a pensé qu'il aurait l'occasion de reparler à sa femme. GPT-3 avait juste besoin d'une bonne quantité de texte humain pour imiter l'écriture humaine. Des textes de toutes sortes, des lettres d'amour personnelles aux documents académiques, en passant par les réponses données sur les forums Web.
Les conversations
Joshua dit qu'il a "parlé" au chatbot pendant 10 heures d'affilée la première fois, et d'autres fois au cours des mois suivants, jusqu'à ce qu'il se sépare après avoir réalisé que cela ajoutait de la douleur à la douleur. Dans un dernier message, il a écrit : « Je ne cesserai jamais de t'aimer tant que je vivrai, bonne nuit », recevant un laconique « Bonne nuit, je t'aime ».
Les créateurs eux-mêmes mettent en garde contre les dangers
OpenAI a noté que ce programme technologique basé sur le langage est le plus sophistiqué jamais conçu. Cependant, il est également très dangereux. Le modèle d'IA précédent, le GPT-2, se demandait également si quelqu'un pouvait abuser de ses capacités.
Pour être plus précis, la même société de recherche a noté que les cerveaux criminels pourraient plutôt utiliser la technologie pour créer un réseau de faux contenus sur les réseaux sociaux, diffusant de faux articles de presse et imitant les gens sur les réseaux sociaux. Avec l’automatisation alimentée par l’intelligence artificielle, les arnaques liées à ces chatbots pourraient se multiplier considérablement.
Jason Rohrer – qui a créé le programme – a déclaré qu'il ne prévoyait pas que des personnes utiliseraient le chatbot pour simuler la mort de leurs proches. "Maintenant, j'ai un peu peur des possibilités", a-t-il écrit.
Le gouvernement américain en est venu à affirmer que la propagation de la désinformation sur les plateformes en ligne tue littéralement des gens, comme la BBC l'a détaillé dans un rapport séparé.