Ces dernières années, l’intelligence artificielle est entrée dans le firmament technologique. L’IA révolutionne le droit, les soins de santé, l’éducation et divers modèles économiques.
Les progrès du Big Data et de l’apprentissage automatique changent la façon dont nous abordons l’intelligence artificielle. Rishi Bommasani, Percy Liang et leurs collègues de l'Université de Stanford affirment que ce changement de paradigme a permis à l'IA de devenir idéale pour un large éventail d'applications au-delà de celles pour lesquelles elle a été conçue à l'origine, comme le traitement du langage naturel (NLP) utilisé dans les chatbots comme Siri ou Alexa, ou la classification d'images. Cependant, cela nous mènera rapidement à une crise.
Les modèles d’IA ont un potentiel énorme et peuvent être formidables dans certains cas, mais ils comportent également des risques importants. "Malgré le déploiement imminent de ces modèles", déclarent Bommasani et ses collègues, "nous ne comprenons actuellement pas clairement comment ils fonctionnent, quand ils échouent et quelles sont leurs capacités".
C'est pourquoi l'équipe a décidé d'explorer la nature des modèles sous-jacents pour prévenir leur future crise, et leurs conclusions ils sont vraiment intéressants.
Comportements émergents, crises (non) prévisibles ?
L’un des problèmes de ces modèles est que leur comportement est émergent plutôt que conçu. Il n’est donc pas toujours possible de savoir ce que feront ces systèmes, ni quand ils tomberont en panne. "C'est à la fois une source d'enthousiasme scientifique et d'anxiété quant aux conséquences imprévues", affirment les chercheurs.
Un autre problème est que ces modèles sont désormais la base de beaucoup d'autres. Cela signifie qu’ils peuvent être appliqués à un large éventail de circonstances, mais aussi que tout problème reste présent : ils sont hérités par tous les descendants. Et les environnements à but lucratif des startups et des grandes entreprises ne sont pas nécessairement les meilleurs endroits pour explorer les problèmes potentiels de l’IA.
L’incitation commerciale peut conduire les entreprises à ignorer les conséquences sociales de la crise future. Je pense au déplacement technologique du travail, à la santé d’un écosystème d’information nécessaire à la démocratie, au coût environnemental des ressources informatiques et à la vente de technologies à des régimes non démocratiques.
Rishi BommasaniUniversité de Stanford
Une ruée vers l'or
Lors du développement d’un nouveau produit, la volonté d’être le premier l’emporte souvent sur toutes les autres considérations et conduit les équipes sur des chemins difficiles à justifier. L'équipe donne un exemple de ce comportement en contestant son utilisation IA Clearview de photos d'Internet pour le développement de logiciels de reconnaissance faciale. Cela se fait sans le consentement des propriétaires ou des sociétés d'hébergement d'images. Clearview a ensuite vendu le logiciel à des organisations telles que les services de police.
Crise et conséquences insidieuses
Les conséquences de la crise de la généralisation des modèles l'intelligence artificielle ils pourraient être encore plus insidieux. "En tant que technologie naissante, les normes pour un développement et une mise en œuvre responsables du modèle de base ne sont pas encore bien établies", affirment les chercheurs.
Tout cela doit changer, et rapidement. Bommasani et ses collègues soutiennent que la communauté universitaire est bien préparée à relever le défi de la future crise d'identité de l'IA. Il est prêt car il rassemble des chercheurs issus d’un large éventail de disciplines qui ne sont pas motivées par le profit. « Le monde universitaire joue un rôle crucial dans le développement de modèles d’IA qui favorisent les avantages sociaux et atténuent les inconvénients possibles de leur introduction. Les universités peuvent également contribuer à la définition de normes en créant des comités d’évaluation éthique et en développant leurs propres modèles vertueux ».
Ce sera un travail important
Garantir l’utilisation juste et équitable de l’IA doit être une priorité pour les démocraties modernes, notamment parce que L’IA peut potentiellement menacer les moyens de subsistance d’une partie importante de la population mondiale. À l’approche de la quatrième révolution industrielle, il est difficile de savoir quels emplois seront à l’abri de l’automatisation. Peu de fonctions professionnelles sont susceptibles de ne pas être affectées par la prise de décision automatisée à l'avenir - une crise, comme mentionné, qui doit être évitée.