En février dernier, OpenAI a annoncé avoir développé un algorithme capable d'écrire des spams et de faux messages d'information totalement plausibles.
A l'époque, la décision de l'équipe avait été de ne pas le lâcher car jugé trop dangereux. Pour cette raison, OpenAI a décidé de lancer un programme d’étude prudent en ne diffusant que certaines parties de l’algorithme pour rédiger de fausses nouvelles et en évaluer les effets.
Aujourd'hui, le groupe affirme avoir revu son estimation de risque, et ne pas avoir détecté de défaillances réalisables excessives. Pour cela, il a décidé de publier au public le code complet de l’algorithme « menteur ».
L’intelligence artificielle, appelée GPT-2, a été conçue à l’origine pour répondre aux questions, traduire des textes et trier des contenus. Les chercheurs ont alors compris (avec beaucoup d’étonnement) que le système pouvait également servir à diffuser une énorme quantité de désinformation en ligne.
Fausse alarme? Peut être.
Heureusement, les utilisations faites pendant la période de surveillance ont été beaucoup plus modérées: l'algorithme a été utilisé pour les structures narratives et les jeux vidéo textuels.
Dans le message officiel annonçant la diffusion publique du mécanisme, OpenAI espère que ce l'intelligence artificielle peut être utilisé pour développer des modèles de reconnaissance de texte permettant de trouver de fausses nouvelles sur le net. « Nous déployons ce modèle pour aider la recherche à trouver du texte concis » lire sur le site.
L’idée qu’il existe une IA capable de produire une masse gigantesque de fausses nouvelles qu’il n’est pas facile de réfuter est irritante, mais l’Histoire nous montre que de telles technologies arrivent, que nous le voulions ou non.
Eh bien, OpenAI aurait fait pour partager son travail immédiatement, pour donner encore plus de temps et de moyens aux chercheurs pour identifier les outils capables de combattre, ou du moins reconnaître les textes créés artificiellement. Mieux vaut tard que jamais, de toute façon.