Ces dernières années, l'intelligence artificielle est entrée au firmament de la technologie. L'IA révolutionne le droit, la santé, l'éducation et divers modèles commerciaux.
L'avancée des mégadonnées et de l'apprentissage automatique modifie notre approche de l'intelligence artificielle. Rishi Bommasani, Percy Liang et des collègues de l'Université de Stanford affirment que ce changement de paradigme a permis à l'intelligence artificielle de devenir idéale pour un large éventail d'applications au-delà de ce pour quoi elle a été conçue à l'origine, telles que le traitement du langage naturel (NLP) utilisé dans les chatbots tels que Siri ou Alexa, ou la classification d'images. . Cependant, cela va rapidement nous conduire à une crise.
Les modèles d'IA ont un potentiel énorme et peuvent être formidables dans certains cas, mais ils comportent également des risques importants. "Malgré la diffusion imminente de ces modèles", déclarent Bommasani et ses collègues, "nous ne comprenons actuellement pas clairement comment ils fonctionnent, quand ils échouent et quelles sont leurs capacités."
C'est pourquoi l'équipe a décidé d'explorer la nature des modèles sous-jacents pour prévenir leur future crise, et leurs conclusions ils sont vraiment intéressants.

Comportements émergents, crises (non) prévisibles ?
Un problème avec ces modèles est que leur comportement est émergent plutôt que conçu. Il n'est donc pas toujours possible de savoir ce que feront ces systèmes, ou quand ils entreront en crise. "C'est à la fois une source d'excitation scientifique et d'anxiété face aux conséquences imprévues", déclarent les chercheurs.
Un autre problème est que ces modèles sont désormais la base de beaucoup d'autres. Cela signifie qu'ils peuvent être appliqués à un large éventail de circonstances, mais aussi que des problèmes restent présents : ils sont hérités par tous les descendants. Et les environnements axés sur le profit des startups et des grandes entreprises ne sont pas nécessairement les meilleurs endroits pour explorer les problèmes potentiels de l'IA.
L'incitation commerciale peut conduire les entreprises à ignorer les conséquences sociales de la future crise. Je pense au virage technologique du travail, à la santé d'un écosystème informationnel nécessaire à la démocratie, au coût environnemental des ressources informationnelles et à la vente de technologies à des régimes non démocratiques.
Rishi BommasaniUniversité de Stanford
Une ruée vers l'or
Lors du développement d'un nouveau produit, la volonté d'être le premier l'emporte souvent sur toutes les autres considérations et entraîne les équipes sur des chemins difficiles à justifier. L'équipe donne un exemple de ce comportement en contestant l'utilisation par IA Clearview de photos d'Internet pour le développement de logiciels de reconnaissance faciale. Cela se fait sans le consentement des propriétaires ou des sociétés d'hébergement d'images. Clearview a ensuite vendu le logiciel à des organisations telles que les services de police.
Crise et conséquences insidieuses
Les conséquences de la crise de la généralisation des modèles intelligence artificielle ils pourraient être encore plus insidieux. "En tant que technologie naissante, les règles d'un développement et d'une mise en œuvre responsables du modèle sous-jacent ne sont pas encore bien établies", déclarent les chercheurs.
Tout cela doit changer, et rapidement. Bommasani et ses collègues affirment que la communauté universitaire est bien préparée à relever le défi de la future crise d'identité de l'IA. Il est prêt car il rassemble des universitaires d'un large éventail de disciplines qui ne sont pas motivées par le profit. « Le milieu universitaire joue un rôle crucial dans le développement de modèles d'IA qui favorisent les avantages sociaux et atténuent les dommages possibles de leur introduction. Les universités peuvent également contribuer à la définition de normes en mettant en place des comités d'éthique et en développant leurs propres modèles vertueux ».
Ce sera un travail important
Assurer l'utilisation juste et équitable de l'IA doit être une priorité pour les démocraties modernes, notamment parce que L'intelligence artificielle a le potentiel de menacer les moyens de subsistance d'une partie importante de la population mondiale. À l'approche de la quatrième révolution industrielle, il est difficile de savoir quels emplois seront à l'abri de l'automatisation. Peu de fonctions professionnelles sont susceptibles de ne pas être affectées par la prise de décision automatisée à l'avenir - une crise, comme mentionné, qui doit être évitée.