Ça n'en a pas l'air : c'est exactement l'intrigue d'un épisode de Black Mirror, mais c'est la réalité. Un homme de San Francisco, Josué Barbeau, a utilisé un chatbot piloté par l'IA pour "parler" à sa femme même après sa mort.
Barbeau n'a fourni que les anciens échanges de messages de sa femme, ainsi que quelques informations de base nécessaires. Le chatbot hyperréaliste qui a ramené sa femme à la vie s'appelle Project December.
Chatbot : intelligence artificielle, perception naturelle ?
Le modèle d'intelligence artificielle conçu par la société de recherche OpenAI (soutenu par Elon Musk), il s'appelle GPT-3. Nous en avons déjà parlé dans d'autres cas. GPT-3 alimente le chatbot Project December.
Barbeau il a dit à un journal alors qu'il parlait à nouveau à sa femme, Jessice Pereira, décédée il y a huit ans à l'âge de 23 ans d'une maladie rare du foie. Malgré les années passées, l'écrivain indépendant a affirmé qu'il ne s'était jamais éloigné d'elle.
Lorsqu'il est tombé sur Project December, il a pensé qu'il allait avoir l'occasion de parler à nouveau à sa femme. GPT-3 avait juste besoin d'une bonne quantité de textes humains pour imiter l'écriture humaine. Des textes de toutes sortes, des lettres d'amour personnelles à tous les documents académiques, en passant par les réponses données dans les forums web.
Les conversations
Joshua dit qu'il a "parlé" au chatbot pendant 10 heures d'affilée la première fois, et d'autres fois dans les mois suivants, jusqu'à ce qu'il se sépare après avoir réalisé que cela ajoutait de la douleur à la douleur. Dans un dernier message, il écrit : "Je ne cesserai de t'aimer tant que je vivrai, bonsoir", recevant un laconique "Bonsoir, je t'aime".
Les créateurs eux-mêmes mettent en garde contre les dangers
OpenAI a noté que ce programme technologique basé sur le langage est le plus sophistiqué jamais conçu. Cependant, il est également très dangereux. Le modèle d'IA précédent, le GPT-2, se demandait également si quelqu'un pouvait abuser de ses capacités.
Pour être exact, la même firme de recherche a noté que les esprits criminels pourraient plutôt utiliser la technologie pour créer un faux réseau de contenu de médias sociaux, diffuser de faux articles de presse et imiter les gens dans les médias sociaux. Avec l'automatisation alimentée par l'intelligence artificielle, les escroqueries liées à ces chatbots pourraient se multiplier de façon spectaculaire.
Jason Rohrer - qui a créé le programme - a déclaré qu'il ne s'attendait pas à ce que les gens utilisent le chatbot pour simuler leurs proches décédés. "Maintenant, j'ai un peu peur des possibilités", a-t-il écrit.
Le gouvernement américain en est venu à affirmer que la propagation de la désinformation sur les plateformes en ligne tue littéralement des gens, comme la BBC l'a détaillé dans un rapport séparé.