Depuis quelques années, l'intelligence artificielle est entrée au firmament de la technologie. L'IA révolutionne le droit, la santé, l'éducation et divers modèles commerciaux.
L'avancée des mégadonnées et de l'apprentissage automatique modifie notre approche de l'intelligence artificielle. Rishi Bommasani, Percy Liang et des collègues de l'Université de Stanford affirment que ce changement de paradigme a permis à l'intelligence artificielle de devenir idéale pour un large éventail d'applications au-delà de ce pour quoi elle a été conçue à l'origine, telles que le traitement du langage naturel (NLP) utilisé dans les chatbots tels que Siri ou Alexa, ou la classification d'images. . Cependant, cela nous conduira rapidement à une crise.
Les modèles d'IA ont un potentiel énorme et peuvent être formidables dans certains cas, mais ils comportent également des risques importants. "Malgré la diffusion imminente de ces modèles", déclarent Bommasani et ses collègues, "nous n'avons actuellement pas une compréhension claire de leur fonctionnement, de leur échec et de leurs capacités".
C'est pourquoi l'équipe a décidé d'explorer la nature des modèles sous-jacents pour prévenir leur future crise, et leurs conclusions ils sont vraiment intéressants.

Comportements émergents, crises (non) prévisibles ?
Un problème avec ces modèles est que leur comportement est émergent plutôt que conçu. Il n'est donc pas toujours possible de savoir ce que feront ces systèmes ou quand ils entreront en crise. "C'est à la fois une source d'excitation scientifique et d'anxiété face à des conséquences imprévues", expliquent les chercheurs.
Un autre problème est que ces modèles sont désormais la base de beaucoup d'autres. Cela signifie qu'ils peuvent être appliqués à un large éventail de circonstances, mais aussi que tous les problèmes restent présents : ils sont hérités par tous les descendants. Et les environnements axés sur le profit des startups et des grandes entreprises ne sont pas nécessairement les meilleurs endroits pour explorer les problèmes potentiels de l'IA.
L'incitation commerciale peut conduire les entreprises à ignorer les conséquences sociales de la crise future. Je pense au virage technologique du travail, à la santé d'un écosystème informationnel nécessaire à la démocratie, au coût environnemental des ressources informationnelles et à la vente de technologies à des régimes non démocratiques.
Rishi BommasaniUniversité de Stanford
Une ruée vers l'or
Lors du développement d'un nouveau produit, la volonté d'être le premier l'emporte souvent sur toutes les autres considérations et entraîne les équipes sur des chemins difficiles à justifier. L'équipe donne un exemple de ce comportement en contestant l'utilisation par IA Clearview de photos d'Internet pour le développement de logiciels de reconnaissance faciale. Cela se fait sans le consentement des propriétaires ou des sociétés d'hébergement d'images. Clearview a ensuite vendu le logiciel à des organisations telles que les services de police.
Crise et conséquences insidieuses
Les conséquences de la crise de la généralisation des modèles l'intelligence artificielle ils pourraient être encore plus insidieux. «En tant que technologie naissante, les règles de développement et de mise en œuvre responsables du modèle sous-jacent ne sont pas encore bien établies», déclarent les chercheurs.
Tout cela doit changer, et rapidement. Bommasani et co affirment que la communauté universitaire est bien préparée pour relever le défi de la future crise d'identité de l'IA. Il est prêt parce qu'il rassemble des chercheurs d'un large éventail de disciplines qui ne sont pas axées sur le profit. « Le milieu universitaire joue un rôle crucial dans le développement de modèles d'IA qui favorisent les avantages sociaux et atténuent les éventuels dommages de leur introduction. Les universités et les universités peuvent également aider à établir des normes en créant des comités d'examen éthique et en développant leurs propres modèles vertueux.
Ce sera un travail important
Garantir l'utilisation juste et équitable de l'IA doit être une priorité pour les démocraties modernes, notamment parce que l'intelligence artificielle a le potentiel de menacer les moyens de subsistance d'une partie importante de la population mondiale. À l'approche de la quatrième révolution industrielle, il est difficile de savoir quels emplois seront à l'abri de l'automatisation. Peu de fonctions professionnelles sont susceptibles de ne pas être affectées par la prise de décision automatisée à l'avenir - une crise, comme mentionné, qui doit être évitée.