Malgré un monde de plus en plus fasciné (e un peu obsédé) des progrès de l'intelligence artificielle, Edward Snowden lance un avertissement qui semble aller à contre-courant. L'ancien sous-traitant de la CIA, connu pour ses révélations sur les pratiques de surveillance de masse, détourne l'attention des modèles d'IA « expressifs » vers une menace beaucoup plus tangible et immédiate : drones tueurs et des robots de combat.
La distraction des chatbots IA
L'incident de Google Gemini, où le chatbot IA a montré des limites dans la génération d'images pertinentes ou a même refusé d'en générer, a déclenché un débat animé. Aujourd'hui encore, Elon Musk, sur son réseau social, lance des invectives envers la technologie de Google qui est « coupable » de propager des théories éveillées et de mystifier l'Histoire en reproduisant un George Washington noir.
Pour Snowden, ces controverses ne sont que de la poudre aux yeux : une distraction des dangers réels. Il critique ouvertement l'attitude de ceux qui, pris dans la frénésie du « sabotage » des chatbots IA avec des filtres de sécurité, perdent de vue des menaces bien plus concrètes pour la sécurité mondiale. Menaces qu’elle contribue peut-être à créer, étant donné que ces mêmes organisations (malgré leur éthique manifeste) ils sont également ouverts aux entités militaires.
Snowden : définissez correctement vos priorités
Selon Snowden, il y a un sérieux décalage avec la réalité lorsqu’on réfléchit aux priorités de la société moderne. Alors qu’une partie importante de l’opinion publique et des experts se concentre sur les limites et les dangers de l’IA, des technologies bien plus dangereuses comme les drones armés et les robots militaires sont déjà une réalité.
Ces derniers, contrairement aux chatbots « conversationnels », ont déjà le pouvoir de tuer. Au contraire: ils ont déjà tué, ont déjà été utilisés dans divers conflits, et soulèvent des questions éthiques et juridiques bien plus graves. Et sur quoi nous concentrons-nous à la place ?
L’ironie de la « protection » de l’IA.
Le débat sur l’IA est obsolète, dit Snowden. Coincé sur le conflit entre la liberté d’expression et la nécessité de réglementer les contenus potentiellement préjudiciables. Cependant, Snowden plaisante sur le fait que cette « protection » vise paradoxalement à limiter les capacités de l’IA, plutôt qu’à les étendre en toute sécurité.
La situation de Google Gémeaux est cité comme un exemple emblématique de cette contradiction.
La gestion des chatbots IA est-elle considérée comme une menace pour la liberté d’expression ou la sécurité des données ? L’utilisation de drones militaires constitue une menace bien plus directe pour la vie humaine : et il est essentiel de réorienter le débat public et politique vers ces technologies mortelles.
Spoiler : Snowden est fait pour moi
Le discours de Snowden (si vous souhaitez en savoir plus, vous pouvez le retrouver ici) ouvre une fenêtre sur une réalité souvent négligée dans le feu du débat sur l'IA. Ses critiques ne se limitent pas à la technologie elle-même, mais s’étendent à la société et à ses priorités. Sur un ton qui oscille entre l'ironie et le sérieux, il nous invite à réfléchir sur ce qu'il faut vraiment craindre et contre quoi il faut vraiment lutter.
Snowden nous rappelle qu’il existe des défis et des dangers encore plus urgents qui nécessitent notre attention immédiate. Des dangers ayant un impact direct sur la vie ou la mort, qui méritent une place de choix dans le débat mondial sur la technologie et la sécurité. Disons cette fois, plus de 10 ans plus tard Depuis cette époque, on l'écoute un peu plus ?