La technologie de reconnaissance faciale peut être un outil puissant pour assurer la sécurité, mais aussi une arme dangereuse si elle est utilisée de manière opaque et discriminatoire. Ceci est démontré par ce qui s’est passé dans la bande de Gaza, où Israël a discrètement mis en œuvre un vaste programme de surveillance biométrique des Palestiniens à la suite des attaques atroces et barbares du 7 octobre. Tirer parti des algorithmes de Google Photos et la startup Corsaire, l’armée israélienne a dressé le profil de milliers de personnes sans leur consentement, dans ce qui semble être un cas inquiétant de profilage ethnique high-tech.
Grand frère à Gaza
L'histoire, rapporté par le New York Times, a les contours d’un thriller dystopique. Après les attentats du 7 octobre, l'unité 8200 de l'armée israélienne (la principale unité de renseignement) a commencé à identifier des suspects potentiels en analysant les images des caméras de surveillance et les vidéos publiées par le Hamas sur les réseaux sociaux. Au même moment, des soldats interrogeaient des prisonniers palestiniens pour identifier les membres de leurs communautés affiliés au Hamas.
Avec ce matériel, la startup Corsaire (qui dispose de systèmes capables de reconnaître les visages même lorsque moins de 50 % d'entre eux sont visibles) a construit un outil de reconnaissance faciale ad hoc pour les officiers israéliens travaillant à Gaza. Pour enrichir davantage la base de données et trouver d'autres cibles, l'armée a installé des points de contrôle équipés de caméras biométriques le long des principales routes empruntées par les Palestiniens pour fuir vers le sud. L’objectif, a révélé un responsable au Times, était de créer une « liste noire » des participants aux attentats du 7 octobre. En pratique, un fichier des « suspects habituels » basé sur des algorithmes et un profilage ethnique. Une chasse à l'homme de haute technologie, menée à l'insu et sans le consentement des personnes impliquées. Un cauchemar orwellien devenu réalité.
Israël, erreurs et abus
La technologie, on le sait, n’est pas infaillible. Surtout lorsqu'il s'agit d'images granuleuses ou de visages partiellement masqués. C’est également la raison pour laquelle l’Europe adopte une approche à juste titre prudente en matière de reconnaissance faciale. Les soldats israéliens eux-mêmes ont admis au Times que le système de Corsight n'était pas toujours précis. Il identifiait parfois à tort des personnes comme étant affiliées au Hamas. C'est le cas du poète palestinien Mosab Abou Toha, récupéré à un checkpoint israélien alors qu'il tentait de quitter Gaza pour l'Égypte avec sa famille à la mi-novembre. Il avait été signalé par l'IA comme recherché. Résultat : deux jours de détention, de passages à tabac et d'interrogatoires, avant d'être renvoyé à Gaza. Sans même d'explications.
Un sort qui aurait pu s’abattre sur on ne sait combien d’autres innocents, qualifiés de terroristes potentiels uniquement en raison de leur appartenance ethnique ou du lieu où ils vivent. Un risque inhérent aux systèmes de reconnaissance faciale, qui peuvent amplifier les préjugés humains s’ils ne sont pas utilisés avec prudence et transparence.
Google, la grande oreille
Mais Corsight n’est pas le seul à être derrière ce programme de surveillance. Les soldats ont révélé au Times que l'armée israélienne a intégré la technologie de l'entreprise avec un autre outil, plus accessible et peut-être encore plus puissant : Google Photos Les agents du renseignement ont téléchargé des bases de données de « personnes connues » sur les serveurs de Big G et ont utilisé la fonction de recherche d'images pour identifier d'autres suspects. Google Photos, a observé un soldat, est capable de reconnaître les visages même à partir de détails minimes, surpassant d'autres applications, dont Corsight.
Bref, le géant de Mountain View, peut-être sans le savoir, est devenu un rouage clé de la machine de contrôle israélienne sur Gaza. Une grande oreille capable de cartographier et d’espionner toute une population, violant sa vie privée et ses droits au nom de la sécurité nationale. Une utilisation controversée et opaque de l’IA, qui à Gaza se combine avec l’utilisation de d'autres technologies avancées telles que les robots et les drones, et soulève des questions sur les responsabilités éthiques des grandes technologies.
Pas seulement Israël : le visage sombre de la surveillance
Malheureusement, le cas de Gaza n’est pas isolé. Corsight, fondée en 2019 avec un investissement de 5 millions de dollars du fonds canadien Awz Ventures, elle se spécialise dans la fourniture de solutions de reconnaissance faciale. Pour de nombreuses réalités : les gouvernements, les forces de l’ordre et les armées. en 2020, un an seulement après sa création, l'entreprise se vantait de pouvoir identifier les visages masqués. Deux ans plus tard, en 2023, a annoncé développer un outil capable de reconstruire les caractéristiques d'une personne à partir de son ADN (nous en avons parlé ici). en 2023, a collaboré avec la police de Bogota pour traquer les suspects de meurtre et de vol dans les transports publics.
Une activité en pleine croissance, alimentée par le discours de la peur et la soif de sécurité, mais non sans zones d’ombre. Il suffit de penser aux déclarations de Aaron Ashkenazi, associé directeur d'Awz Ventures, qui dans un éditorial du Jerusalem Post en octobre dernier il a écrit que son fonds fournissait à Israël « les outils technologiques pour arrêter ces terroristes maléfiques dans leur élan ». Il est facile d'imaginer ce que sont ces outils.
Du côté de Big Brother
Plus généralement, celle de Corsight et d’autres sociétés similaires semble être une mission au service du Big Brother mondial. Un effort pour rendre chaque visage traçable, cataloguable et surveillable, dans un monde où l'anonymat est un luxe que nous ne pouvons plus nous permettre et où la vie privée est une option à sacrifier sur l'autel de la défense.
Il n'est donc pas surprenant qu'au cours des derniers mois, certains hôpitaux israéliens aient également ont commencé à utiliser les algorithmes de Corsight pour identifier les patients défigurés, comme le rapporte Forbes. Une application apparemment humanitaire, mais qui ouvre la voie à des usages plus discutables de cette technologie invasive. Le risque, comme le démontrent les événements de Gaza, est que les systèmes de reconnaissance faciale deviennent des instruments d’oppression et de discrimination entre de mauvaises mains. Qu’ils transforment le droit à la sécurité en prétexte pour violer d’autres droits fondamentaux, à commencer par le droit à l’anonymat, ou à un procès équitable. Soyons clairs : il ne s’agit pas de diaboliser la reconnaissance faciale elle-même, qui peut avoir des applications positives dans divers domaines, de la santé à la sécurité. Mais il faut réglementer son utilisation de manière claire et démocratique, en limitant ses potentielles distorsions et abus.
Cela réduit les gens à des pixels et à des pourcentages, en les étiquetant en fonction de la couleur de la peau, des caractéristiques du visage ou de l'origine sociale. Un cauchemar qui remet certainement en question la responsabilité de ceux qui développent et vendent ces technologies, mais certainement aussi de ceux qui les achètent et les utilisent.