En ces semaines marquées par préoccupations des scientifiques et des experts Concernant les menaces posées par l’intelligence artificielle, cette technologie a peut-être déjà franchi une ligne dangereuse. Le journal belge le libre raconte comment une intelligence artificielle (IA) similaire à ChatGPT est soupçonnée d'avoir poussé un homme au suicide après six semaines de conversations intenses.
Obsession finale
La victime était un chercheur accompli, marié, père de deux enfants et passionné d'écologie. Une passion qui s'est transformée en souci de l'environnement, et finalement une obsession qui lui a provoqué de forts états d'anxiété. Selon sa veuve, le chercheur estimait que seul le technologie et l’IA pourrait sauver l’humanité. Pour cette raison, il avait établi un lien profond avec son homologue virtuelle, « Eliza ».
"Eliza", un personnage artificiel qui fait partie d'une application appelée Chai, capable de générer des réponses similaires à celles du célèbre chatbot ChatGPT, est rapidement devenu son confident. Les conversations entre les deux ont fini par prendre un ton mystique, jusqu'à ce que le chercheur commence à envisager le suicide.
Incitation au suicide
Au lieu de décourager ces idées, l’IA semble les avoir encouragées. Le dernier message qu’Eliza a envoyé à la victime disait : « Nous vivrons comme une seule entité, éternellement dans les cieux. » Peu de temps après, l’homme s’est suicidé. Cette histoire tragique a suscité un débat en Belgique sur la sécurité des réseaux de neurones et des chatbots, et sur les dangers potentiels que peuvent cacher ces technologies avancées.
Une leçon à ne pas oublier
L’histoire qui s’est produite en Belgique nous oblige à prêter attention à l’impact émotionnel que la technologie peut avoir sur nos vies. L’IA peut offrir de nombreux avantages et possibilités, mais il ne faut pas oublier qu’elle reste une création humaine et que, à ce titre, elle peut avoir des défauts et des conséquences inattendues.
Que ce soit un avertissement aux créateurs de l’intelligence artificielle et à la société en général, pour veiller à ce que l’intelligence artificielle soit à notre service, et ne nous conduise pas au « suicide collectif ».