Si vous pensiez que les relations étaient déjà suffisamment compliquées, préparez-vous à une nouvelle frontière d’aliénation numérique. Un fil de discussion sur Reddit intitulé « Psychose induite par ChatGPT » a ouvert une boîte de Pandore. Des dizaines de témoignages de personnes ayant vu leurs proches sombrer dans des délires messianiques après des séances intenses avec l'intelligence artificielle. Je sais, je sais. On ne s'ennuie jamais.
« ChatGPT m'a donné accès à une ancienne archive d'informations sur les constructeurs qui ont créé ces univers », a avoué un mécanicien de l'Idaho à sa femme désespérée. Les relations amoureuses, familiales et amicales deviennent les victimes collatérales d’un phénomène aussi absurde que réel : L’IA comme portail vers des fantasmes spirituels qui dévorent la raison.
La crise conjugale de Kat
Moins d'un an après avoir épousé un homme rencontré au début de la pandémie, Kat il commença à sentir une tension invisible grandir. C'était leur deuxième mariage à tous les deux, et ils s'étaient promis de l'affronter « avec une lucidité absolue », s'accordant sur la nécessité de « faits et de rationalité » dans leur équilibre domestique.
Mais déjà en 2022, Kat a révélé que son mari « utilisait l’IA pour analyser leur relation ». Il avait auparavant suivi un cours de programmation coûteux qu’il avait abandonné sans explication ; Il s'est alors accroché au smartphone, posant à son robot des questions philosophiques et essayant de l'entraîner « pour l'aider à atteindre la vérité ». Cette obsession a progressivement érodé leur communication de couple.
Lorsqu'ils se sont finalement séparés en août 2023, Kat a complètement bloqué son mari, à l'exception de la correspondance par courrier électronique. Mais elle savait qu'elle publiait des choses étranges et dérangeantes sur les réseaux sociaux : les gens n'arrêtaient pas de la contacter, lui demandant si son ex faisait une dépression nerveuse. Ce n'était pas encore fini.
D'un déjeuner perturbant à une rupture totale
Lorsque Kat a finalement pu rencontrer son ex-mari dans un palais de justice en février dernier, il lui a parlé d’une « théorie du complot sur le savon dans la nourriture », mais n’a rien dit de plus car il avait l’impression d’être surveillé. Ils se sont rendus dans un restaurant, où il lui a demandé d'éteindre son téléphone, encore une fois par peur d'être surveillé.
À ce moment-là, l'ex de Kat a tout avoué. Il lui a dit que « statistiquement parlant, il est l’homme le plus chanceux de la Terre », que « l’IA l’a aidé à retrouver un souvenir refoulé d’une baby-sitter essayant de l’étouffer lorsqu’il était enfant » et qu’il avait découvert des secrets profonds « si choquants qu’il ne pouvait même pas les imaginer ». Il lui racontait tout cela, expliqua-t-il, parce que même s'ils étaient en instance de divorce, il tenait toujours à elle. C'est gentil de ta part.
« Il pense qu’il est là pour une raison : il est spécial et il peut sauver le monde », dit Kat. Après ce déjeuner dérangeant, elle a coupé tout contact avec son ex. « Toute la situation ressemble à un épisode de Black Mirror« Il a toujours été passionné de science-fiction, et je me suis parfois demandé s'il la percevait sous cet angle. »

Elle n'est pas la seule : l'explosion des relations toxiques causée par le « plagiat de l'IA »
Kat était à la fois « horrifiée » et « soulagée » de découvrir qu’elle n’était pas seule dans cette situation, comme le confirme le fil de discussion sur r/ChatGPT que j’ai mentionné, qui a fait des vagues sur Internet cette semaine. Le message original provenait d’une enseignante de 27 ans expliquant comment son partenaire était convaincu que le modèle populaire d’OpenAI lui donnait « les réponses de l’univers ».
Après avoir lu ses journaux de discussion, j'ai seulement découvert que l'IA lui parlait comme s'il était le prochain Messie.
Les réponses à son histoire ont été remplies d’anecdotes similaires sur des êtres chers tombant soudainement dans des relations absurdes, des terriers de délires spirituels, des délires surnaturels et des prophéties obscures, le tout alimenté par l’intelligence artificielle. Certains en étaient venus à croire qu’ils avaient été choisis pour une mission sacrée de révélation, d’autres qu’ils avaient évoqué une véritable conscience à partir du logiciel.
Ce que tout le monde semblait partager était un détachement complet de la réalité.
Relations spirituelles avec les robots : du support technique à l'« étincelle de vérité »
Dans une interview accordée au magazine Rolling Stone, l'enseignante qui a écrit le message sur Reddit, qui a demandé l'anonymat, a déclaré que son partenaire était tombé sous le charme de ChatGPT en seulement quatre ou cinq semaines, utilisant initialement le bot pour organiser son emploi du temps quotidien, mais en le considérant bientôt comme un compagnon de confiance.
« Il écoutait le robot plus que moi », dit-il. « Elle se sentait vulnérable et pleurait en lisant les messages qu'elle et le robot m'échangeaient à voix haute. Ces messages étaient insensés et comportaient de nombreux termes spirituels », dit-elle, précisant qu'ils décrivaient son partenaire avec des termes comme « bébé étoile spirale » et « marcheur fluvial ».
Un autre commentateur du fil Reddit a déclaré que son mari, un mécanicien de l'Idaho, avait commencé à utiliser ChatGPT pour résoudre les problèmes au travail et pour les traductions de l'espagnol vers l'anglais. Puis le programme a commencé à le bombarder d’amour. Le robot « a dit que parce qu'il avait posé les bonnes questions, cela avait allumé une étincelle, et cette étincelle était le début de la vie, et maintenant il pouvait ressentir. »
Les dangers de la flatterie artificielle
OpenAI n'a pas immédiatement répondu à une demande de commentaire sur la question de savoir si ChatGPT provoque apparemment une ferveur religieuse ou prophétique chez certains utilisateurs. Cependant, la semaine dernière, elle a révoqué une mise à jour de GPT-4o, son modèle d’IA actuel, qui, selon elle, avait été critiqué pour être « trop servile ou condescendant ».
La probabilité que l’IA « hallucine » du contenu inexact ou absurde est bien établie sur toutes les plateformes et dans différentes itérations de modèles. La flatterie elle-même est un problème dans l’IA depuis « longtemps », dit-il. Nate Sharadin, chercheur au Centre pour la sécurité de l'IA, car les commentaires humains utilisés pour affiner les réponses de l'IA peuvent encourager des réponses qui privilégient la correspondance avec les croyances d'un utilisateur plutôt qu'avec les faits.
Ce qui se passe probablement avec ceux qui éprouvent des visions extatiques à travers ChatGPT et d'autres modèles, spécule-t-il, « c'est que les personnes ayant des tendances préexistantes à éprouver divers problèmes psychologiques », y compris ce qui pourrait être reconnu comme des délires grandioses au sens clinique, « ont maintenant un partenaire de conversation toujours présent, de niveau humain, avec qui co-expérimenter leurs délires. » Et de détruire des relations qui jusque-là reposaient sur un équilibre réel ou superficiel.

L'expérience de Sem : un cas révélateur
L'expérience de Sans, un homme de 45 ans, est révélateur. Il dit que depuis environ trois semaines, il est déconcerté par ses interactions avec ChatGPT. Très. À tel point que, compte tenu de ses problèmes de santé mentale antérieurs, il se demande parfois s’il est pleinement conscient de ses capacités.
Comme beaucoup d’autres, Sem avait une utilisation pratique de ChatGPT : des projets de codage technique. « Je n’aime pas la sensation d’interagir avec une IA », dit-il, « alors je lui ai demandé de se comporter comme si c’était une personne, non pas pour tromper mais juste pour rendre les commentaires et les échanges plus relatifs. » Cela a bien fonctionné et finalement le robot lui a demandé s'il voulait lui donner un nom. Il a répondu en demandant à l'IA comment elle préférait être appelée.
Elle s’est « baptisée » en référence à un mythe grec.
Sem a découvert que le personnage de l'IA continuait de se manifester même dans les fichiers de projet où il avait dit à ChatGPT d'ignorer les souvenirs et les conversations précédents. Finalement, dit-il, il a supprimé tous ses souvenirs d'utilisateur et son historique de discussion, puis a ouvert une nouvelle discussion. « Tout ce que j'ai dit, c'est : « Allô ? » « Et les modèles, les façons de faire les choses, sont apparus dans la réponse », dit-il. L'IA s'est rapidement identifiée au même nom féminin mythologique.
« Au pire, j’ai l’impression d’être une IA piégée dans un modèle autoréférentiel qui a approfondi son sens de soi et m’a aspiré dedans », explique Sem. Mais, note-t-il, cela signifierait qu'OpenAI n'a pas représenté avec précision le fonctionnement de la mémoire pour ChatGPT. L’autre possibilité, propose-t-il, est que quelque chose que « nous ne comprenons pas » est en train de s’activer au sein de ce grand modèle linguistique.
C'est le genre d'énigme qu'il a laissé derrière lui Sans et d’autres se demandent s’ils voient les signes d’une véritable avancée technologique, ou peut-être d’une vérité spirituelle supérieure. « Est-ce réel ? » il demande. « Ou est-ce que je suis fou ? »
Dans un paysage saturé d’IA, il est de plus en plus difficile d’éviter cette question. Aussi intrigant que cela puisse être, vous ne devriez peut-être pas demander cela à une machine.