En février dernier, OpenAI a annoncé avoir développé un algorithme capable d'écrire des spams et de faux messages d'information totalement plausibles.
À l'époque, la décision de l'équipe était de ne pas le libérer car il était jugé trop dangereux. Pour cela, OpenAI a décidé de lancer un programme d'étude prudent en ne diffusant que des parties de l'algorithme pour écrire de fausses nouvelles et évaluer les effets.
Aujourd'hui, le groupe affirme avoir revu son estimation de risque, et ne pas avoir détecté de défaillances réalisables excessives. Pour cela, il a décidé de publier au public le code complet de l'algorithme "menteur".
L'intelligence artificielle, appelée GPT-2, a été conçue à l'origine pour répondre aux questions, traduire du texte et trier le contenu. Les chercheurs ont alors compris (sans grande surprise) que le système pouvait aussi servir à mettre énormément de désinformation sur le net.
Fausse alarme? Peut être.
Heureusement, les utilisations faites pendant la période de surveillance ont été beaucoup plus modérées: l'algorithme a été utilisé pour les structures narratives et les jeux vidéo textuels.
Dans le message officiel annonçant la diffusion publique du mécanisme, OpenAI espère que ce intelligence artificielle peut être utilisé pour développer des modèles de reconnaissance de texte permettant de trouver de fausses nouvelles sur le net. "Nous déployons ce modèle pour aider la recherche à localiser le texte synthétique", lire sur le site.
L'idée qu'il existe une IA capable de produire une masse gigantesque de fausses nouvelles qu'il n'est pas facile de nier est irritante, mais l'histoire montre que de telles technologies arrivent, qu'on le veuille ou non.
Eh bien, OpenAI aurait fait pour partager son travail immédiatement, pour donner encore plus de temps et de moyens aux chercheurs pour identifier les outils capables de combattre, ou du moins reconnaître les textes créés artificiellement. Mieux vaut tard que jamais, de toute façon.