Hier, OpenAI a rencontré le garant italien pour la protection des données personnelles, pour répondre aux problèmes de confidentialité qui ont conduit au blocage temporaire de ChatGPT en Italie. Le chatbot d'intelligence artificielle a été bloqué par la même société américaine, par mesure de précaution, après que les messages et les informations de paiement de certains utilisateurs ont été exposés à d'autres lors d'une violation de données (désastreuse) le 20 mars.
C'est la première fois qu'une démocratie impose un blocus à une plateforme d'IA de cette ampleur. Une opération elle-même non sans controverse et ombres. Quoi qu'il en soit, OpenAI a promis de proposer des mesures pour répondre aux préoccupations, bien qu'elles n'aient pas encore été entièrement détaillées. La nouvelle tombe tout droit dans une note sur le même site officiel de l'autorité italienne.
Parlons
Lors de l'appel vidéo d'hier entre les commissaires du Garant et les responsables d'OpenAI, dont le PDG Sam Altman, on a assisté au premier vrai éclaircissement de toute cette histoire qui tient (je ne plaisante pas) les entreprises et les particuliers en haleine (et la souris sur les VPN, dont les abonnements explosent). Pour sa part, la société d'Altman a promis de proposer des mesures pour répondre aux préoccupations. Le garant, d'autre part, a souligné l'importance du respect des réglementations strictes en matière de confidentialité des 27 pays de l'UE. En particulier, il a remis en question la base juridique de la collecte de quantités massives de données utilisées pour former des algorithmes ChatGPT et a soulevé des inquiétudes quant au fait que le système pourrait générer de fausses informations sur des individus.

La compensation du Garant
Le véritable point de toute l'histoire, cependant, enfant probable de la forte fibrillation de divers secteurs (et de nombreux utilisateurs) était la main tendue par le Garant. Les commissaires ont très clairement exprimé leur volonté de ne pas entraver le développement de l'IA en Italie. Et cela ne peut qu'empêcher une issue "heureuse" de toute l'histoire.
Que se passe-t-il maintenant?
OpenAI a déclaré qu'il s'efforçait de supprimer les informations personnelles des données de formation dans la mesure du possible, de définir ses modèles pour rejeter les demandes d'informations personnelles des individus et d'agir sur les demandes de suppression d'informations personnelles de ses systèmes. Affaire classée, alors ? Non. En Italie, comme mentionné, l'impression est qu'il y aura une réouverture du système. Plus généralement, cependant, les autorités "chauffent les moteurs" pour combler l'écart et tenter de réguler le secteur.

D'autres régulateurs en Europe et ailleurs ont commencé à accorder plus d'attention après l'action de l'Italie. La Commission irlandaise de protection des données a déclaré qu'elle était "en contact avec le contrôleur italien de la protection des données pour comprendre la base de leurs actions et se coordonner avec toutes les autorités de protection des données de l'UE en ce qui concerne cette question". Le régulateur français de la protection des données, la CNIL, dit d'avoir lancé une enquête après avoir reçu deux plaintes concernant ChatGPT. Également commissaire à la protection de la vie privée du Canada a ouvert une enquête sur OpenAI. Et il l'a fait après avoir reçu une plainte concernant la prétendue "collecte, utilisation et divulgation de renseignements personnels sans consentement".
D'un autre côté, le voyage vers l'IA ne fait que commencer, n'est-ce pas ?