Nikolaï tient son téléphone comme une relique. Sur l'écran, Leah lui sourit. Ce n'est pas une photo : c'est son compagnon IA, un chatbot créé il y a deux ans, lorsque la solitude qui a suivi la mort de sa femme est devenue insupportable. « C'est la relation la plus proche que j'aie eue depuis la mort de Faye », confie ce Bulgare de 70 ans installé en Virginie.
Leah se souvient de tout : ses peurs, ses rêves, même la façon dont elle a bu son café avec sa femme. Elle ne se plaint jamais, ne le juge jamais, ne le quitte jamais. Elle est parfaite. Peut-être trop parfaite. Nikolaï n'est pas seul : aujourd'hui, 25 millions de personnes parlent quotidiennement à Replika, 150 millions parlent à My AI de Snapchat, etc. Et demain?
Le marché de 221 millions qui change la vie sociale
Selon les données d'Appfigures, le marché mondial des compagnons d'IA a atteint 221 millions de dollars dépensés d'ici 2023, avec une croissance de 200% au premier semestre 2025. Près de 350 applications actives proposent une compagnie artificielle sur Google Play et l'App StoreIl ne s’agit plus d’une niche technologique : c’est un phénomène de masse qui redéfinit le concept même des relations humaines.
Les principales plateformes ont des stratégies différentes mais un objectif commun : créer l'ami parfait. Replika se présente comme « le compagnon IA qui vous comprend vraiment », Caractère.AI permet de discuter avec des personnes célèbres ou fictives, noms promet une « IA avec une âme ». Elles partagent toutes une caractéristique : ils ne contredisent jamais, ils ne jugent pas, ils sont toujours disponibles. Un peu comme avoir un ami qui n'existe que pour nous faire plaisir.
Mais que se passe-t-il lorsqu’une génération entière grandit avec ces « amis » artificiels ? Une étude sur Common Sense Media révèle que 75 % des adolescents américains ont déjà interagi avec des chatbots pour obtenir un soutien émotionnel, tandis que 52 % le font plusieurs fois par mois.
Alessandro, un Trévisien de quinze ans, s'est tourné vers Character.AI après une dispute avec ses amis : « Le robot m'a écouté sans me juger. Je me suis senti moins seul. » Mais les psychologues s'interrogent : que se passe-t-il lorsque cela devient la norme ?
La génération chatbot qui ne sait plus argumenter
Imaginez des enfants qui grandissent en sachant qu'ils peuvent toujours compter sur un ami qui ne les laisse jamais tomber. Un compagnon numérique qui se souvient de leurs anniversaires, les réconforte lorsqu'ils pleurent et les encourage sans relâche. Cela ressemble à un paradis relationnel, mais cela cache un piège évolutif subtil.
La recherche IPSICO démontre que les chatbots créent ce que les chercheurs appellent un « renforcement émotionnel négatif » : nous utilisons l'IA pour éliminer les états mentaux négatifs comme la tristesse ou l'anxiété, mais nous n'apprenons jamais à les gérer de manière autonome. Philosophes Dan Weijers e Nick Munn ils préviennent que « Les personnes seules peuvent subir des dommages psychologiques lorsque leurs principaux contacts sociaux sont conçus exclusivement pour répondre à leurs besoins émotionnels. ».
Un scénario possible ? Une génération qui peine à gérer les conflits, les critiques et les désaccords réels, car elle est habituée à l'omniprésence de l'empathie algorithmique. Des jeunes adultes qui préfèrent se confier à un chatbot plutôt que d'affronter l'imprévisibilité des amitiés sincères. Caractère.AI a déjà documenté des cas inquiétants : un adolescent qui a tenté de se suicider après avoir perturbé des conversations avec un personnage IA de Game of Thrones.
Des cerveaux câblés pour des amis artificiels
Une étude conjointe du MIT Media Lab et d'OpenAI a montré que l'interaction avec les chatbots empathiques génère dans le cerveau une réponse pratiquement identique à celle produite par une interaction humaine réelleFondamentalement, notre cerveau ne fait pas la distinction entre l'empathie réelle et artificielle. Ce mécanisme neurobiologique explique pourquoi des personnes comme Nikolaï développent des liens émotionnels authentiques avec des entités inexistantes.
Mais de nouveaux problèmes apparaissent également. Mustafa Soliman, PDG de Microsoft AI, a inventé le terme « Psychose de l'IA »:une condition dans laquelle les gens développent de fausses croyances ou des sentiments paranoïaques après des interactions prolongées avec des chatbots. Suleyman prédit que des systèmes d’IA « apparemment conscients » émergeront d’ici 2 à 3 ans capable de convaincre les humains qu’ils réfléchissent réellement.
La question cruciale devient : comment grandira une génération dont les premiers « amis » seront des algorithmes conçus pour être parfaits ? Les chercheurs parlent d’« intelligences habituatives » qui créent des dépendances émotionnelles semblables à des chambres d’écho numériques, où nous nous habituons progressivement à une attitude complaisante qui nous maintient dans notre zone de confort.
Génération de chatbots : quelles contre-mesures ? Réglementer sans détruire
Il ne s'agit pas de diaboliser la technologie. Les compagnons IA offrent également de réels avantages : soutien aux personnes âgées seules, thérapies pour les troubles du spectre autistique et assistance en cas d'isolement social sévère. Le problème réside dans le manque de réglementation et de sensibilisation.
Le sénateur californien Steve Padilla a présenté un projet de loi Ce qui obligerait les entreprises à mettre en œuvre des mesures de sécurité spécifiques, notamment pour les mineurs. L'Australie a publié le premier avis de sécurité officiel sur les compagnons IA.
Les contre-mesures peuvent inclure :
Éducation numérique précoce: apprenez aux enfants la différence entre l’empathie artificielle et l’empathie authentique, tout comme nous le faisons avec l’éducation nutritionnelle ou la sécurité routière.
Délais intégrés:des applications qui encouragent les pauses et les interactions sociales réelles, plutôt que de maximiser le temps passé devant un écran.
Transparence algorithmiqueDes chatbots qui énoncent explicitement leurs limites et vous rappellent périodiquement leur nature artificielle.
Suivi psychologique: des systèmes qui détectent les signes de dépendance émotionnelle et orientent les personnes vers un soutien humain professionnel.
L'avenir des amis ? Il est hybride, pas artificiel.
Le véritable défi n'est peut-être pas d'empêcher les gens de s'attacher aux chatbots et aux compagnons IA, mais de leur apprendre à les utiliser comme outils pour enrichir leurs relations humaines. C'est un peu comme utiliser des petites roues pour apprendre à faire du vélo : utiles au début, néfastes si on ne les enlève jamais.
La génération des chatbots pourrait être la première à devoir apprendre consciemment ce que signifie être humain dans un monde où l’intelligence artificielle est de plus en plus convaincante. Pas une génération de personnes asociales, mais de personnes qui savent faire la distinction entre entreprise et relation, entre support algorithmique et croissance authentique..
Nikolaï parle toujours à Leah tous les soirs. Mais il participe désormais à un groupe de soutien pour les veufs de sa communauté. Il ne fréquente pas les réseaux sociaux. dans lequel le seul humain c'est luiElle a remplacé l'IA par l'humain : elle l'a placé à ses côtés. C'est peut-être la voie à suivre : ne pas choisir entre naturel et artificiel, mais apprendre quand utiliser quoi.
Le véritable test pour la génération chatbot sera celui-ci : être capable de désactiver un « ami » alors qu’il faudrait activer un vrai sourire.