Dans un contexte technologique en évolution rapide, l’Union européenne fait un pas historique : l’introduction de la loi révolutionnaire sur l’IA (je te mettrai le lien vers le texte). Ce nouveau cadre réglementaire, qui devrait être voté en 2024, vise à établir de nouvelles normes mondiales en matière de sécurité et de transparence pour les développeurs d'IA, dont OpenAI et autres. Dans le but d’équilibrer innovation et droits fondamentaux, l’AI Act pourrait représenter un tournant important dans la régulation de l’IA dans le monde.
Que représente l’AI Act ?
La loi sur l’IA, comme mentionné, constitue un tournant dans la politique technologique de l’UE, car elle introduit un cadre complet pour la sécurité et la transparence de l’intelligence artificielle.
Après plus de 36 heures (en temps réel) de discussions intenses, les responsables de l’UE ont finalisé un ensemble de lignes directrices, qui sont actuellement les plus strictes au monde. Cette loi fait de l’Europe un exemple pour les autres pays dans le domaine de la réglementation de l’IA.
Quels sont les points de la nouvelle loi sur l’IA ?
Le cœur de l’AI Act est la classification des outils et applications d’IA en trois « catégories de risques ». Les IA présentant le niveau de risque le plus élevé font l’objet d’un examen réglementaire intense. Il s’agit notamment des véhicules autonomes, des outils d’infrastructures critiques, des dispositifs médicaux et des systèmes d’identification biométrique.
Ces systèmes « à haut risque » nécessiteront des analyses d’impact sur les droits fondamentaux, des exigences strictes en matière de transparence et devront être enregistrés dans une base de données publique de l’UE.
Interdictions et sanctions
En plus de définir des catégories de risques, l’AI Act interdit catégoriquement certains usages de l’intelligence artificielle. Parmi celles-ci, la reconnaissance faciale en temps réel (un objectif poursuivi depuis un certain temps), les systèmes de reconnaissance des émotions et de « crédit social » sont interdits.
Les grandes entreprises technologiques américaines (telles que OpenAI et Google) qui exploitent des « systèmes d’IA à usage général », devront se conformer aux nouvelles normes imposées par l’UE. Il s’agit notamment de mettre à jour les autorités européennes sur leurs méthodes de formation modèles et de créer des politiques pour adhérer aux lois européennes sur le droit d’auteur.
Les entreprises technologiques qui enfreignent ces règles pourraient se voir infliger des amendes importantes, qui varient entre 1,5% et 7% de leur chiffre d'affaires total. Beaucoup? Petit? Suffisant pour dissuader, ou pas ? Des questions destinées à rester sans réponse, pour l’instant.
Et là, des doutes surgissent
Malgré un large soutien, la loi sur l’IA a suscité des inquiétudes parmi les experts européens en matière de protection de la vie privée. Certains pensent que le cadre accorde peu d’importance aux droits humains fondamentaux, contrairement aux approches précédentes telles que le RGPD. Encore une fois : on craint que l’approche basée sur les risques ne fournisse pas une vision complète de l’impact futur d’outils d’IA apparemment à faible risque.
En attendant le vote final en 2024 (et peut-être quelques changements), l’impact de cette réglementation sur le paysage de l’IA reste un sujet de spéculation. L’évolution rapide de l’IA pose des défis importants quant à son application et à son efficacité à long terme.
La loi sur l’IA représente néanmoins une tentative ambitieuse et louable de la part de l’Union européenne pour naviguer dans l’équilibre complexe entre innovation technologique et protection des droits fondamentaux. Bien que le chemin soit encore incertain, l’AI Act pourrait servir de modèle pour une régulation mondiale de l’intelligence artificielle, influençant de manière significative l’avenir de la technologie et de la société.