Comme si 2020 n’était pas assez catastrophique, une équipe d’universitaires, d’experts politiques et de spécialistes de l’IA nous mettent en garde contre des problèmes à l’horizon. 18, pour être précis. Ce sont les principales menaces de l’IA dont nous devrions nous inquiéter au cours des 15 prochaines années.
La science-fiction et la culture populaire veulent nous faire croire que notre perte proviendrait d'émeutes de robots intelligents. En fait un étude récente dans Crime Science révèle que la pire menace aura plus à voir avec nous qu'avec l'intelligence artificielle elle-même.
En évaluant les menaces en fonction du préjudice potentiel, de la rentabilité, de la viabilité et de l'échec, le groupe a identifié deepfake, une technologie qui existe déjà et qui se répand, représente le niveau de menace le plus élevé.
Deepfake, l'ennemi numéro un
Il existe une différence fondamentale entre un soulèvement de robots et une technologie de deepfake. Le premier pourrait provoquer des dégâts matériels. La seconde est systémique : elle pourrait entraîner une érosion de la confiance dans les personnes et dans la société elle-même.
La pire menace liée à l’IA peut toujours sembler lointaine. Après tout, comment l’IA peut-elle nous nuire alors qu’Alexa ne peut même pas régler correctement un minuteur pour pâtes aujourd’hui ? Shane Johnson, directeur du Dawes Center for Future Crimes à l'UCL qui a financé l'étude, explique que ces menaces deviendront de plus en plus sophistiquées et liées à notre vie quotidienne.
« Nous vivons dans un monde en constante évolution qui crée de nouvelles opportunités, bonnes et mauvaises. » prévient Johnson. « Il est donc prioritaire d’anticiper les futures menaces criminelles afin que les décideurs politiques et tous ceux qui possèdent l’expertise nécessaire pour agir puissent le faire avant que de graves problèmes ne surviennent. »
Les auteurs admettent que les jugements exprimés dans cette étude sont par nature spéculatifs et influencés par notre paysage politique et technique actuel, mais l'avenir de ces technologies ne peut être ignoré.
Comment est née la « playlist » des pires menaces
Pour formuler leurs prévisions pour l'avenir, les chercheurs ont réuni une équipe de 14 universitaires dans des domaines connexes, sept experts du secteur privé et 10 experts du secteur public.
Ces experts ont ensuite été répartis en groupes de quatre à six personnes et se sont vu remettre une liste de problèmes potentiels que l’IA pourrait créer. Des scénarios allant des menaces physiques (attaques de drones autonomes) aux formes numériques de menaces telles que le phishing.
Pour se prononcer, l'équipe a considéré quatre caractéristiques principales des attaques:
Dommages potentiels
rentabilité
faisabilité
vulnérabilité
Pour les experts, les dégâts du deepfake seraient matériels, mentaux et même sociaux. Ils pourraient également nuire à d'autres intelligences artificielles (par exemple en évitant la reconnaissance faciale) ou être des fruits indirects (par exemple faire chanter des personnes à l'aide d'une vidéo deepfake).
Bien que ces facteurs ne puissent pas véritablement être séparés les uns des autres (par exemple, les dommages causés par une attaque pourraient en réalité dépendre de sa faisabilité), il a été demandé aux experts d’examiner l’impact de ces critères séparément.
Les scores des différents groupes d’experts ont ensuite été classés pour déterminer les attaques globales les plus dommageables auxquelles nous pourrions être confrontés via l’IA (ou par une IA) au cours des 15 prochaines années.
L'embarras du choix
En comparant 18 types différents de menaces d'IA, comme mentionné, le groupe a déterminé que les manipulations vidéo et audio sous la forme de deepfakes sont les pires menaces qui soient.
« Les êtres humains ont une forte tendance à croire leurs propres yeux et oreilles. C’est pourquoi les preuves audio et vidéo ont traditionnellement reçu beaucoup de crédit (et souvent une valeur juridique), malgré une longue histoire de tromperie photographique », expliquent les auteurs. "Mais les développements récents en matière d'apprentissage profond (et de deepfakes) ont considérablement augmenté les chances de générer du contenu faux."
L'impact potentiel de ces manipulations?
Des individus qui escroquent les personnes âgées en se faisant passer pour un membre de la famille aux vidéos conçues pour semer la méfiance à l'égard des personnalités publiques et gouvernementales. Des attaques difficiles à détecter pour les individus (et même les experts dans certains cas) et difficiles à arrêter.
Les autres menaces majeures incluent les véhicules autonomes utilisés comme armes à distance. Fait intéressant, le groupe a jugé les robots robotiques (petits robots qui peuvent grimper dans les gouttières pour voler des clés ou ouvrir des portes aux voleurs humains) comme l'une des menaces les moins dangereuses.
Les pires menaces de l'IA. Alors, on est finis ?
Non, mais nous devons y travailler. Dans nos images optimistes, il y a une sorte de bouton pour arrêter tous les robots et tous les ordinateurs maléfiques.
En réalité, la menace ne réside pas tant dans les robots eux-mêmes. C'est dans la façon dont nous les utilisons pour se manipuler et se faire du mal.