Les guerres futures seront plus rapides et plus technologiques, mais moins humaines que jamais : bienvenue dans l'ère des robots soldats.
Il existe un endroit parfait pour tester des armes avancées : les îles Wallops, une petite parcelle de terre au large de la Virginie qui semble être sortie de l'enclos d'Asimov. Si un bateau de pêche était passé par là il y a un an, ils auraient vu une demi-douzaine de radeaux circuler dans la zone - un examen plus approfondi aurait révélé que les radeaux n'avaient personne à bord.
Les bateaux utilisaient un moteur capable de s'ajuster en fonction du contexte et de transmettre des actions et des positions à tous les autres, organisant instantanément la flotte selon une stratégie. Même en tirant, peut-être pour défendre les troupes stationnées sur le rivage.
L'effort semi-secret, qui fait partie d'un programme de l'US Navy appelé Sea Mob, est un moyen de faire comprendre que les machines équipées d'intelligence artificielle seront bientôt capables de déplacer même des attaques mortelles sans aucune supervision humaine et au mépris de lois de la robotique.
Formulé par Isaac Asimov, l'un des pères de la science-fiction-fiction, les trois lois de la robotique ils ont été publiés pour la première fois dans une nouvelle de 1942. Dans ses romans, l'écrivain russo-américain les mentionne souvent: ce sont des principes rigides, à ne pas transgresser, théorisés pour rassurer l'humanité sur les bonnes «intentions» des robots.
Qui sait si Asimov avait prévu que ses "lois" risqueraient de s'effondrer comme cela est sur le point de se produire.
Mort automatique
L'idée d'envoyer de grosses machines mortelles et autonomes au combat n'est pas nouvelle : Des systèmes similaires ont été testés pendant des décennies, quoique de type défensif, comme ceux qui permettent une couverture par des missiles hostiles. Le développement de l'intelligence artificielle permettra la création de systèmes offensifs qui non seulement répondront aux stimuli, mais décideront eux-mêmes quoi faire, sans intervention humaine.
Un humain met un quart de seconde à réagir à la vue de quelque chose (imaginez le temps d'un gardien de but déterminant où se jeter lors d'un penalty). Les machines que nous avons créées nous surclassent déjà, du moins en vitesse. Cette année, par exemple, des chercheurs de l'Université technologique de Nanyang à Singapour ont formé un réseau de neurones pour absorber les données de 1.2 million d'images. L'ordinateur a essayé d'identifier les sujets sur la photo, et cela a pris 90 secondes. 0.000075 secondes par photo.
Pour l'instant, il reste encore beaucoup à faire : à cette vitesse incroyable, le système n'a identifié la personne sur la photo que dans 58 % des cas. Un taux de réussite qui serait désastreux au combat. Cependant, que les machines soient capables de se déplacer beaucoup plus vite que nous est un fait établi, et ne fera qu'augmenter. Au cours de la prochaine décennie, la nouvelle génération de missiles se déplacera au niveau suborbital, trop rapidement pour qu'un homme décide comment les contrer ou gérer la situation. Des volées de drones autonomes attaqueront et d'autres ordinateurs réagiront à une vitesse supersonique.
« Quand la guerre va si vite, à quel moment l'être humain devient-il un obstacle ? il se demande Robert travail, Chef adjoint du Pentagone avec Obama et Trump. "Il n'y a aucun moyen pour nous d'intervenir, donc nous allons déléguer aux machines." À part Asimov, en bref.
Des armes qui se fabriquent
Chaque aspect militaire voit aujourd'hui la recherche engagée pour garantir un type de guerre plus rapide, plus précis et moins humain possible.
La marina American teste un navire de 135 tonnes appelé Sea Hunter, qui patrouille dans les océans sans aucun équipage, à la recherche de sous-marins qu'un jour pourront abattre directement. Lors d'un test, le navire a parcouru 4000 km d'Hawaï à la Californie sans intervention humaine, le faisant tout seul.
L'armée pendant ce temps, il développe de nouveaux systèmes « viser et tirer » pour ses chars, et un système de missile appelé JAGM, Joint Air-to-Ground Missile. JAGM a la capacité de choisir des véhicules à frapper sans intervention humaine. En mars, le Pentagone a demandé des fonds au Congrès pour coûter 1051 JAGM pour un coût de 360 millions d'euros.
Qu'en est-il de l'aviation ? Les tests sont tous axés sur le projet "SkyBorg" (le nom dit tout) : une version sans pilote du F-16 capable de se battre tout seul.
Jusqu'à hier, les militaires qui voulaient provoquer une explosion sur un site isolé devaient décider comment et quand frapper : avec un avion ? Un missile ? Un navire? Un réservoir? Ils devaient alors diriger la bombe, viser, actionner une commande.
Les drones et les systèmes comme Sea Mob écartent complètement les humains de ces décisions. La seule décision qui reste à un commandement militaire (mais qui ne doit pas être prise avant et non contre l'assentiment de tous) est quand les robots sont libres de tuer violant les fameuses lois d'Asimov, peut-être à commencer par les moments où les communications radio sont interrompues lors d'une opération de guerre.
Ce n'est pas une question limitée aux seuls États-Unis
Depuis les années 90 Israël a commencé la conception d'un système appelé HARPY, que l'on dirait aujourd'hui d'intelligence artificielle. Le drone a pu survoler des zones couvertes par des systèmes radar et les attaquer de manière indépendante. La société a ensuite vendu ce système à la Chine et à d'autres pays.

Au début des années 2000, laAngleterre a développé le missile Brimstone, capable de trouver des véhicules ennemis sur le champ de bataille et de "déterminer" lesquels frapper.
L'année dernière, 2018, le président de la Russie Vladimir Poutine a évoqué un drone sous-marin équipé d'armes nucléaires, ouvrant sur un scénario dans lequel un engin automatique pourrait avoir dans son équipement l'arme la plus meurtrière jamais fabriquée par l'homme. Et d'autre part, Poutine lui-même a admis que la nation capable de développer la meilleure IA "deviendra maîtresse du monde".
La Chine il ne s'est pas livré à de grandes déclarations, mais le fait qu'il soit à l'avant-garde de l'intelligence artificielle nous fait encore réfléchir. On estime qu'il deviendra le pays leader dans ce domaine au cours des 10 prochaines années, et pourrait bientôt l'exploiter militairement.
La guerre froide technologique
La peur d'être dépassés par des pays comme la Chine ou la Russie a poussé les États-Unis à dépenser beaucoup pour le développement de l'IA : 600 millions de dollars en 2016, 800 millions de dollars en 2017 et plus de 900 dollars cette année. Le Pentagone n'a pas divulgué de détails sur ces efforts, mais il est facile de voir d'après les entretiens officiels que les développements de la recherche sur l'IA se traduiront par de nombreuses solutions de technologie militaire, même s'il n'est pas immédiatement prêt à prendre complètement le commandement.
Pourtant cela peut arriver
L'investissement économique intense que font les États-Unis pour retrouver la certitude de la suprématie technologique (et donc militaire) multiplie les risques de forcer la main aux machines, ou de les laisser la forcer. Robert Work le dit clairement: "Il y aura un moment où les machines 'feront une erreur' induites par nous, car nous ne visons pas à avoir la machine parfaite, seulement la plus utile dans les plus brefs délais".
L'idée que des machines puissent complètement intervenir d'elles-mêmes pour décider de tuer des êtres humains en violant les lois de la robotique d'Asimov appartient encore à un imaginaire qui la rejette totalement : quelque chose proche des films apocalyptiques comme Terminator. Mais ce ne sont pas des possibilités lointaines.
Dans une planète de nations de plus en plus compétitives dans ce domaine, la possibilité que des machines autonomes puissent causer des dommages aux adversaires également en termes de vies humaines est réelle. Ce n'est pas beau à dire, encore moins à entendre, mais il en est ainsi.