Il avenir de la guerre cela pourrait impliquer des algorithmes avancés d’intelligence artificielle (IA) dotés de la capacité et de l’autorité d’évaluer les situations et d’attaquer les ennemis. sans le contrôle des êtres humains.
Cela ressemble au genre de scénario de films de science-fiction comme Terminator et The Matrix. Une technologie de pointe au point de prendre les choses en main en lâchant des robots de guerre lors d'un conflit armé.
Dans les films, l’IA finit toujours par attaquer les humains. Dans la vraie vie, l’IA pourrait aider les militaires dans des opérations où le contrôle humain ralentirait la mission. Un inconvénient évident est que l’ennemi pourrait utiliser une technologie tout aussi avancée.
Et au final qui attaquerait l’IA avec ses robots de guerre ? Toujours des humains.
Un avenir de robots de guerre qui décident par eux-mêmes
Le Pentagone étudie des scénarios de combat dans lesquels l’IA serait autorisée à agir de sa propre initiative en fonction de besoins prédéfinis.
Un de ces exercices a eu lieu près de Seattle en août dernier.
Plusieurs dizaines de drones militaires et de robots de guerre similaire aux chars ils ont été déployés avec une mission simple: trouver des terroristes soupçonnés de se cacher entre différents bâtiments.
Le nombre de robots de guerre impliqués était impossible à contrôler pour un opérateur humain. Pour cela, ils ont reçu des instructions préliminaires pour trouver et éliminer les chasseurs ennemis si nécessaire. Et puis ils sont partis.
Tests techniques de la guerre automatique
Géré par la Defense Advanced Research Projects Agency (DARPA), l’exercice de simulation n’impliquait pas d’armes réelles. À leur place, des émetteurs radio que les drones et les robots utilisaient pour simuler les interactions avec des entités hostiles.
Les drones et les robots de guerre avaient à peu près la taille d’un grand sac à dos. Ils étaient coordonnés par des algorithmes d’intelligence artificielle qui élaboraient des plans d’attaque.
Certains des robots de guerre ont encerclé les bâtiments, d'autres ont effectué une surveillance. Certains ont identifié l'ennemi, d'autres ont été détruits par des explosifs simulés.
Il ne s’agissait que de l’un des nombreux exercices d’intelligence artificielle menés pour simuler l’automatisation de systèmes militaires dans des situations trop complexes et trop rapides pour que les humains puissent en décider.
Le Pentagone veut que les robots de guerre décident
Un rapport de Wired explique qu'il existe un intérêt croissant au Pentagone pour donner aux armes autonomes un certain degré de liberté dans l'exécution des ordres.
Un humain prendrait toujours des décisions de haut niveau, mais l’IA pourrait s’adapter à la situation sur le terrain mieux et plus rapidement que les humains.
Un autre rapport de la Commission de sécurité nationale sur l'intelligence artificielle (NSCAI) a recommandé en mai dernier que les États-Unis résistent aux appels à une interdiction internationale du développement d'armes autonomes.
Ce n'est pas une pratique viable. C'est inhumain dans sa forme et sa substance. Comme pour les armes nucléaires, les mêmes algorithmes que les États-Unis pourraient utiliser pour alimenter des essaims de drones et de robots de guerre pourraient être utilisés par d'autres armées.
Une apocalypse robotique
"Les armes mortelles autonomes que tout terroriste peut se procurer ne sont dans l'intérêt d'aucune sécurité nationale", déclare un professeur du MIT. Max Tegmark, co-fondateur du Institut de l'avenir de la vie, une organisation à but non lucratif qui s'oppose aux armes autonomes.
Pour lui, les robots de guerre et les armes équipées d’IA devraient être « stigmatisés et interdits comme les armes biologiques ».