Comme si 2020 n'était pas déjà assez catastrophique, une équipe d'universitaires, de décideurs et d'initiés de l'IA nous avertit des problèmes à l'horizon. 18, pour être précis. Ce sont les principales menaces de l'IA dont nous devrions nous préoccuper au cours des 15 prochaines années.
La science-fiction et la culture populaire veulent nous faire croire que notre perte proviendrait d'émeutes de robots intelligents. En fait un étude récente dans Crime Science révèle que la pire menace aura plus à voir avec nous qu'avec l'intelligence artificielle elle-même.
En évaluant les menaces en fonction du préjudice potentiel, de la rentabilité, de la viabilité et de l'échec, le groupe a identifié deepfake, une technologie qui existe déjà et qui se répand, représente le niveau de menace le plus élevé.
Deepfake, l'ennemi numéro un
Il existe une différence fondamentale entre une émeute robotique et une technologie deepfake. Le premier pourrait causer des dégâts matériels. Le second est systémique : il pourrait provoquer l'érosion de la confiance dans les personnes et dans la société elle-même.
La pire menace de l'intelligence artificielle peut toujours sembler lointaine dans le futur. Après tout, comment l'IA peut-elle nous nuire alors qu'Alexa ne peut même pas régler correctement un minuteur de pâtes aujourd'hui ? Shane Johnson, directeur du Dawes Center for Future Crimes à l'UCL qui a financé l'étude, explique que ces menaces deviendront de plus en plus sophistiquées et étroitement liées à notre vie quotidienne.
"Nous vivons dans un monde en constante évolution qui crée de nouvelles opportunités, bonnes et mauvaises", Johnson met en garde. "C'est pourquoi il est prioritaire d'anticiper les futures menaces de criminalité afin que les décideurs politiques et les autres personnes habilitées à agir puissent le faire avant que de graves problèmes ne surviennent."
Les auteurs admettent que les jugements exprimés dans cette étude sont par nature spéculatifs et influencés par notre paysage politique et technique actuel, mais l'avenir de ces technologies ne peut être ignoré.
Comment est née la "playlist" des pires menaces
Pour formuler leurs prévisions pour l'avenir, les chercheurs ont réuni une équipe de 14 universitaires dans des domaines connexes, sept experts du secteur privé et 10 experts du secteur public.
Ces experts ont ensuite été divisés en groupes de quatre à six et ont reçu une liste de problèmes potentiels que l'IA pourrait créer. Des scénarios allant des menaces physiques (attaques de drones autonomes) aux formes numériques de menaces telles que le phishing.
Pour se prononcer, l'équipe a considéré quatre caractéristiques principales des attaques:
Dommages potentiels
rentabilité
faisabilité
vulnérabilité
Pour les experts, les dégâts du deepfake seraient matériels, mentaux et même sociaux. Ils pourraient également nuire à d'autres intelligences artificielles (par exemple en évitant la reconnaissance faciale) ou être des fruits indirects (par exemple faire chanter des personnes à l'aide d'une vidéo deepfake).
Bien que ces facteurs ne puissent pas vraiment être séparés les uns des autres (par exemple, les dommages d'une attaque peuvent en fait dépendre de sa faisabilité), les experts ont été invités à considérer l'impact de ces critères séparément.
Les scores des différents groupes d'experts ont ensuite été ordonnés pour déterminer les attaques globales les plus dommageables que nous pourrons voir via l'IA (ou par une IA) dans les 15 prochaines années.

L'embarras du choix
En comparant 18 types différents de menaces d'IA, comme mentionné, le groupe a déterminé que les manipulations vidéo et audio sous la forme de deepfakes sont les pires menaces qui soient.
"Les humains ont une forte tendance à en croire leurs yeux et leurs oreilles. C'est pourquoi les preuves audio et vidéo ont traditionnellement reçu beaucoup de crédit (et souvent une valeur légale), malgré une longue histoire de tromperies photographiques", expliquent les auteurs. . "Mais les développements récents de l'apprentissage en profondeur (et des deepfakes) ont considérablement augmenté les chances de générer de faux contenus."
L'impact potentiel de ces manipulations?
Des individus qui escroquent les personnes âgées en se faisant passer pour un membre de la famille aux vidéos conçues pour semer la méfiance à l'égard des personnalités publiques et gouvernementales. Des attaques difficiles à détecter pour les individus (et même les experts dans certains cas) et difficiles à arrêter.
Les autres menaces majeures incluent les véhicules autonomes utilisés comme armes à distance. Fait intéressant, le groupe a jugé les robots robotiques (petits robots qui peuvent grimper dans les gouttières pour voler des clés ou ouvrir des portes aux voleurs humains) comme l'une des menaces les moins dangereuses.
Les pires menaces de l'IA. Alors sommes-nous foutus ?
Non, mais nous devons y travailler. Dans nos images optimistes, il y a une sorte de bouton pour arrêter tous les robots et tous les ordinateurs maléfiques.
En réalité, la menace ne réside pas tant dans les robots eux-mêmes. C'est dans la façon dont nous les utilisons pour se manipuler et se faire du mal.