Les guerres du futur seront plus rapides et plus technologiques, mais moins humaines que jamais : bienvenue dans l’ère des robots soldats.
Il existe un endroit idéal pour tester des armes avancées : les îles Wallops, un petit bout de terre au large des côtes de Virginie qui semble sortir tout droit de la plume d'Asimov. Si un bateau de pêche était passé par là il y a un an, il aurait vu une demi-douzaine de canots circulant dans les environs : un examen plus attentif aurait révélé que les canots n'avaient personne à bord.
Les bateaux utilisaient un moteur capable de s'ajuster en fonction du contexte et de transmettre des actions et des positions à tous les autres, organisant instantanément la flotte selon une stratégie. Même des tirs, peut-être pour défendre les troupes stationnées sur le rivage.
L'effort semi-secret, qui fait partie d'un programme de l'US Navy appelé Sea Mob, est un moyen de faire comprendre que les machines équipées d'intelligence artificielle seront bientôt capables de déplacer même des attaques mortelles sans aucune supervision humaine et au mépris de lois de la robotique.
Formulé par Isaac Asimov, l'un des pères de la science-fiction-fiction, les trois lois de la robotique ils ont été publiés pour la première fois dans une nouvelle de 1942. Dans ses romans, l'écrivain russo-américain les mentionne souvent: ce sont des principes rigides, à ne pas transgresser, théorisés pour rassurer l'humanité sur les bonnes «intentions» des robots.
Qui sait si Asimov avait prévu que ses « lois » risqueraient de s’effondrer comme cela est sur le point de se produire.
Mort automatique
L’idée d’envoyer au combat de grosses machines autonomes et mortelles n’est pas nouvelle : Des systèmes similaires sont testés depuis des décennies, même s’ils sont de nature défensive, comme ceux qui permettent de se protéger des missiles hostiles. Le développement de l’intelligence artificielle permettra la création de systèmes offensifs qui ne se contenteront pas de répondre à des stimuli, mais décideront eux-mêmes quoi faire, sans intervention humaine.
Il faut un quart de seconde à un humain pour réagir lorsqu'il voit quelque chose (imaginez le temps qu'il faut à un gardien de but pour décider où se jeter lors d'un penalty). Les machines que nous avons créées nous surpassent déjà, du moins en termes de vitesse. Cette année, par exemple, des chercheurs de l'Université technologique de Nanyang, à Singapour, ont entraîné un réseau neuronal pour absorber les données de 1.2 million d'images. L’ordinateur a essayé d’identifier les sujets sur les photos, et cela a pris 90 secondes. 0.000075 secondes par photo.
Pour l’instant, il reste encore beaucoup à faire : à cette vitesse incroyable, le système n’a identifié la personne sur la photo que dans 58 % des cas. Un taux de réussite qui serait désastreux au combat. Cependant, le fait que les machines soient capables de se déplacer beaucoup plus vite que nous est un fait établi, et cela ne fera qu’augmenter. Au cours de la prochaine décennie, la nouvelle génération de missiles se déplacera au niveau suborbital, trop rapidement pour qu'un seul homme puisse décider comment les contrer ou gérer la situation. Des troupeaux de drones autonomes attaqueront et d’autres ordinateurs répondront à une vitesse supersonique.
« Quand la guerre devient si rapide, à quel moment l’être humain devient-il un obstacle ? il se demande Robert travail, Chef adjoint du Pentagone avec Obama et Trump. "Nous n'avons aucun moyen d'intervenir, nous allons donc déléguer aux machines." À part Asimov, en bref.
Des armes qui se fabriquent
Chaque aspect militaire voit aujourd'hui la recherche engagée pour garantir un type de guerre plus rapide, plus précis et moins humain possible.
La marina American teste un navire de 135 tonnes appelé Sea Hunter, qui patrouille dans les océans sans aucun équipage, à la recherche de sous-marins qu'un jour pourront abattre directement. Lors d'un test, le navire a parcouru 4000 km d'Hawaï à la Californie sans intervention humaine, le faisant tout seul.
L'armée parallèlement, elle développe de nouveaux systèmes "viser et tirer" pour ses chars, ainsi qu'un système de missile appelé JAGM, Joint Air-to-Ground Missile. JAGM a la capacité de choisir les véhicules à cibler sans intervention humaine. En mars, le Pentagone a demandé des fonds au Congrès pour construire 1051 360 JAGM, pour un coût de XNUMX millions d'euros.
Et l'aéronautique ? Les tests sont tous concentrés sur le projet « SkyBorg » (le nom dit tout) : une version sans pilote du F-16 capable de combattre seule.
Jusqu'à hier, les soldats qui voulaient provoquer une explosion sur un site éloigné devaient décider comment et quand frapper : avec un avion ? Un missile ? Un navire? Un réservoir? Il leur fallait alors diriger la bombe, la viser, opérer un commandement.
Les drones et les systèmes comme Sea Mob excluent complètement les humains de ces décisions. La seule décision qui reste à un commandement militaire (mais elle ne doit pas être prise avant ni contre le consensus de tous) est quand les robots sont libres de tuer violant les célèbres lois d'Asimov, peut-être à partir des moments où les communications radio sont interrompues lors d'une opération de guerre.
Ce n'est pas une question limitée aux seuls États-Unis
Depuis les années 90 Israël a commencé à concevoir un système appelé HARPY, que nous appellerions aujourd’hui intelligence artificielle. Le drone était capable de survoler des zones couvertes par des installations radar et de les attaquer de manière indépendante. L’entreprise a ensuite vendu ce système à la Chine et à d’autres pays.
Au début des années 2000, leAngleterre a développé le missile Brimstone, capable de trouver les véhicules ennemis sur le champ de bataille et « d’établir » lesquels frapper.
L'année dernière, en 2018, le président du Russie Vladimir Poutine a parlé d'un drone sous-marin équipé d'armes nucléaires, ouvrant la voie à un scénario dans lequel un appareil automatique pourrait être équipé de l'arme la plus meurtrière jamais créée par l'homme. Et d’un autre côté, Poutine lui-même a admis que la nation est capable de développer la meilleure IA. "elle deviendra maîtresse du monde".
La Chine elle n'a pas fait de grandes déclarations, mais le fait qu'elle soit à la pointe de l'intelligence artificielle donne encore matière à réflexion. On estime qu’il deviendra le pays leader dans ce domaine au cours des dix prochaines années et qu’il pourrait bientôt l’exploiter militairement.
La guerre froide technologique
La crainte d’être dépassés par des pays comme la Chine ou la Russie a poussé les États-Unis à dépenser massivement pour le développement de l’IA : 600 millions de dollars en 2016, 800 en 2017 et plus de 900 cette année. Le Pentagone n'a pas révélé de détails sur ces efforts, mais il est facile de déduire d'entretiens officiels que de nombreuses solutions découleront des développements de la recherche sur l'IA. technologie militaire, même s'il n'est pas immédiatement prêt à prendre complètement le commandement.
Pourtant cela peut arriver
L'intense investissement économique que réalisent les États-Unis pour retrouver la certitude de la suprématie technologique (et donc militaire) multiplie les risques de forcer la main aux machines, ou de les laisser la forcer. Robert Work le dit clairement: « Il y aura un moment où les machines 'faireont une erreur' induite par nous, parce que notre objectif n'est pas d'avoir la machine parfaite, seulement la plus utile dans le plus bref délai possible ».
L'idée que des machines puissent intervenir toutes seules pour décider de tuer des êtres humains en violant les lois de la robotique d'Asimov appartient encore à un imaginaire qui la rejette totalement : quelque chose de proche des films apocalyptiques comme Terminator. Mais ce ne sont pas des possibilités lointaines.
Dans une planète de nations de plus en plus compétitives dans ce domaine, la possibilité que des machines autonomes puissent causer des dommages aux adversaires également en termes de vies humaines est réelle. Ce n'est pas beau à dire, encore moins à entendre, mais il en est ainsi.