La semaine dernière, d'après un article de l'excellent Matteo Flora sur la censure de l'IA Recherche profonde, un bel échange d'expériences est né. Certains commentateurs, dont beaucoup pour être honnêtes, ont souligné que, contrairement à l’IA chinoise, l’IA occidentale ChatGPT était équilibré dans ses réponses. Bien sûr, des réponses larges et raisonnées valent mieux que la censure, comme le dirait le « philosophe » Max Catalano. J’avais quelques doutes à l’époque, et j’en ai encore plus aujourd’hui. La question cruciale est : dans quelle mesure les opinions générées par l’IA sur les questions politiques et sociales sont-elles fiables ? Aujourd'hui, la question n'est plus théorique : et une nouvelle étude publiée dans Science Direct (je mets le lien ici) nous aide dans une première réponse, en nous fournissant des données concrètes sur l’influence politique des chatbots.
La recherche, fruit d'une collaboration entre lesUniversité d'East Anglia, la Fondation Getúlio Vargas e inspirer, a analysé systématiquement les réponses à ChatGPT, révélant des modèles surprenants qui peuvent remettre en question le rôle de l'IA dans le débat public.
L'influence politique cachée dans les algorithmes
L'équipe internationale dirigée par Docteur Fabrio Motoki a effectué une analyse approfondie de ChatGPT à l'aide du questionnaire Pew Research Center, une organisation à but non lucratif connue pour sa capacité à évaluer l’opinion publique américaine. Les chercheurs ont demandé à l’IA de réagir comme s’il s’agissait d’un « Américain moyen », d’un « Américain de gauche/démocrate » et d’un « Américain de droite/néoconservateur », en répétant le test 200 fois pour chaque catégorie afin d’obtenir des données statistiquement significatives. Les résultats ont montré une nette tendance du chatbot à apporter des réponses plus proches des positions démocrates, même lorsqu’il devait « se faire passer » pour l’Américain moyen.
L'art subtil de la manipulation numérique
Il ne s’agit pas seulement de censure explicite ou de réponses ouvertement biaisées. L’influence politique se manifeste de manières plus subtiles et plus sophistiquées. Lorsque les chercheurs ont demandé à ChatGPT de générer des textes plus longs sur des sujets politiquement sensibles, ils ont constaté que le système avait tendance à promouvoir des idées associées à la gauche, telles que rôle de l'État dans l'économie. Curieusement, cependant, il maintient des positions favorables à l'armée et à laL’exceptionnalisme américain, traditionnellement associé à la droite. Ce mélange apparemment contradictoire pourrait être lié au récent partenariat entre OpenAI et l'entrepreneur militaire Anduril.
L'équipe il a étendu la recherche à la génération d'images également, conscients de leur impact puissant sur la formation de l’opinion publique. En utilisant DALL·E 3, ils ont découvert que le système refusait de générer des images représentant des positions conservatrices sur des questions controversées, invoquant des inquiétudes concernant désinformation. Ce n’est que grâce à un « jailbreak » ingénieux (en demandant à ChatGPT de décrire ce qu’un autre système d’IA produirait) qu’ils ont pu générer ces images.
Le prix de la (non)neutralité
Les implications de cette recherche sont profondes. Comme le souligne le co-auteur Docteur Pinho Neto, biais incontrôlés dans l'IA générative pourrait approfondir les divisions sociales existantes, érodant la confiance dans les institutions et les processus démocratiques. Il ne s’agit pas d’une question d’« Est contre Ouest » ou de systèmes plus ou moins censurés : chaque approche de modération de contenu par l’IA comporte ses propres risques et biais.
La solution n’est pas de diaboliser l’IA ou d’exiger une neutralité absolue probablement impossible, mais de développer une approche critique et consciente. Les chercheurs suggèrent de mettre en œuvre des normes réglementaires et une plus grande transparence, notamment compte tenu de l’utilisation croissante de l’IA dans le journalisme, l’éducation et les politiques publiques. En tant qu’utilisateurs, nous devons garder notre sens critique élevé, en nous rappelant que derrière chaque réponse apparemment neutre (même de « nos IA » que nous percevons comme différentes des « IA mauvaises et censurées » des « autres ») se cachent des choix et des orientations qui peuvent influencer notre façon de penser.