L’avenir, chantait Enrico Ruggeri, est une hypothèse. Et dans cette hypothèse, il existe aussi une intelligence artificielle capable non seulement de battre l'homme aux échecs ou au Go, mais d'écrire romans, composez des symphonies. Faire découvertes scientifiques, même ressentir des émotions. C’est le mirage de l’intelligence générale artificielle, ou AGI : des systèmes dotés de capacités cognitives générales similaires et supérieures à celles des humains. Un objectif qui semble se rapprocher grâce à des modèles linguistiques avancés tels que GPT-4 et maintenant aussi vieux. Mais de nombreuses questions théoriques et pratiques restent encore à résoudre.
Le rêve d'AGI
Pendant des décennies, leintelligence artificielle générale (AGI) est l’eldorado, la terre promise des chercheurs en intelligence artificielle. L'idée de créer une machine capable d'égaler et de dépasser les capacités cognitives humaines dans tous les domaines (du raisonnement abstrait un la créativité, à partir planification un généralisation de compétences) fascine et effraie à la fois.
Un système AGI serait en effet capable de résoudre de manière autonome des problèmes extrêmement complexes tels que changement climatique, les futurs pandémie, trouvant des remèdes à des maladies dévastatrices comme cancer et l 'Alzheimer. Cela pourrait faire progresser la science et la technologie à un rythme sans précédent, révolutionnant des domaines tels que l’exploration spatiale, les énergies propres, les transports et l’éducation.
D’un autre côté, une intelligence artificielle supergénérale aurait un pouvoir énorme et potentiellement incontrôlable si elle n’était pas correctement alignée sur les valeurs humaines. "Des choses terribles pourraient se produire parce que nous utilisons mal l'IA ou parce que nous en perdons le contrôle", prévient-il. Yoshua Bengio, l'un des pères du deep learning et un pionnier de la recherche AGI. Des scénarios apocalyptiques qui font écho à ceux imaginés par des scientifiques du calibre de Stephen Hawking et des entrepreneurs visionnaires comme Elon Musk.
AlphaGo et les limites des systèmes d'IA actuels
Il y a encore quelques années, l’AGI semblait être un mirage lointain. Les progrès de l’IA « étroite » étaient impressionnants mais limités à des tâches spécifiques. Pensez par exemple à AlphaGo, le système d'IA développé par Google DeepMind capable de battre les champions du monde du jeu de Go. Un résultat historique, qui ne rend cependant pas AlphaGo intelligent au sens général : il ne sait que jouer au Go, il ne peut pas improviser en tant qu'écrivain, compositeur ou scientifique.
C’est la limite des systèmes d’IA actuels, même les plus avancés : ce sont des "idiots connaisseurs", extrêmement bon dans un domaine restreint (qu'il s'agisse de jouer aux échecs, de reconnaître des images ou de générer du texte) mais incapable de transférer ces compétences vers différents domaines. Il leur manque cette capacité de généraliser e abstrait, qui est la figure de l’intelligence humaine.
La révolution des modèles linguistiques
La récente révolution de modèles linguistiques comme les GPT-3 OpenAI, LaMDA par Google, DALL-E (également par OpenAI), Stable Diffusion par IA de stabilité, pour citer le plus connu, a changé les cartes sur la table. Ou plutôt, cela nous a montré une représentation plus précise de ce à quoi ressemblerait une intelligence artificielle générale que nous ne le pensions jusqu'à récemment.
La caractéristique qui rend ces modèles si prometteurs est la leur multifonctionnalité: contrairement aux systèmes d'IA « restreints », ils sont capables d'aborder des tâches très différentes, de l'écriture de textes à la génération d'images, de la conversation à la résolution de problèmes, avec des résultats souvent impressionnants.
Une multifonctionnalité qui rappelle par certains côtés celle de esprit humain et a fait parler certains chercheurs d'une « intelligence artificielle générale déjà réalisée ». En particulier, l'annonce récente d'ol, le dernier modèle OpenAI, qui (dans certains cas, peu pour être honnête) se vante capacité de raisonnement et apprentissage beaucoup plus humaine que ses prédécesseurs, a relancé le débat.
Les enjeux à résoudre vers l’intelligence artificielle générale
Comme souligné François Cholet, informaticien et créateur du framework Keras AI, les grands modèles de langage actuels souffrent encore de limitations majeures qui les rendent « insuffisants pour atteindre l'AGI ».
L'un des principaux problèmes est le généralisation: Bien qu'entraînés sur d'énormes quantités de données (téraoctets de textes et d'images), ces systèmes peinent à appliquer ce qu'ils ont appris à des situations même légèrement différentes de celles sur lesquelles ils ont été formés. « Les modèles linguistiques ne peuvent pas vraiment s'adapter à la nouveauté car ils n'ont pas la capacité de recombiner leurs connaissances à la volée pour s'adapter à de nouveaux contextes », explique Chollet.
La notion de "apprendre de quelques exemples" (apprentissage en quelques étapes), l'une des caractéristiques clés de l'intelligence humaine. À ce jour, les modèles linguistiques nécessitent une énorme quantité de données et un recyclage coûteux pour « apprendre » de nouvelles tâches, alors que nous, les humains, nous sommes souvent capables de saisir un concept à partir d’un ou de très peu d’exemples.
Les chemins impossibles vers l’intelligence artificielle générale
Comme le démontrent certaines expériences, « représentations internes » que les modèles linguistiques construits à partir de la réalité sont souvent superficiels et incohérents. Par exemple, une équipe de chercheurs de Harvard a entraîné un modèle sur les itinéraires de taxi à New York, réussissant à lui faire prédire la destination étant donné le point de départ avec une grande précision. Cependant, en examinant les « cartes mentales » développées par le système, les chercheurs ont découvert qu'elles n'avaient aucun sens, « avec des routes d'orientation physiquement impossible et des viaducs qui passent au-dessus d'autres routes ».
Enfin, un mécanisme manque toujours aux modèles actuels Réactions comme celui présent dans le cerveau humain, où l'information circule de manière bidirectionnelle entre les différentes couches de neurones, vous permettant d'intégrer la perception, le raisonnement et l'action. Alors que les informations sensorielles s’élèvent pour construire des représentations abstraites du monde, ces mêmes représentations peuvent influencer la perception et guider l’acquisition de nouvelles informations pertinentes. Une dynamique qui permet des fonctions clés telles que imagination, planification, formulation d'hypothèses à tester. Modèles actuels ? Ils n’ont rien de tel. Une intelligence générale artificielle (AGI) qui pourrait voir le jour dans un futur proche ? Peut-être. Peut être.
Pas pour le moment. Certaines de ces fonctions ne peuvent désormais être obtenues que de manière rudimentaire, en « ajoutant en externe » des modules ad hoc appelés « vérificateurs » aux modèles qui évaluent et corrigent les résultats. Mais c’est une approche peu évolutive et loin de l’efficacité de l’esprit humain.
Intelligence artificielle générale, les prochaines étapes vers l'objectif
Malgré ces limites, la voie vers une intelligence artificielle véritablement générale apparaît aujourd’hui plus claire et plus praticable. D'un point de vue théorique, il semble qu'il n'y ait pas d'obstacles insurmontables : « Les êtres humains et certains animaux sont la preuve vivante qu'il est possible d'y arriver », souligne-t-il. Mélanie Mitchell, professeur au Santa Fe Institute et expert AGI. Le défi est plus d’ingénierie et de mise en œuvre que conceptuel.
Les chercheurs travaillent déjà sur des systèmes d’IA de nouvelle génération qui surmontent les limites des systèmes actuels et intègrent des fonctionnalités clés de l’intelligence humaine telles que :
- Modèles du monde plus sophistiqué, cohérent et adaptable pour prendre en charge le raisonnement, la planification et la généralisation de haut niveau. Des représentations similaires à nos « simulations mentales » avec lesquelles nous imaginons des scénarios hypothétiques pour prendre des décisions.
- Commentaires internes qui permettent un flux d'informations bidirectionnel et récursif, dans lequel des représentations abstraites peuvent guider l'acquisition de données pertinentes supplémentaires et la formulation d'expériences pour valider des hypothèses.
- Maggiore efficacité dans l'apprentissage, développer la capacité de sélectionner activement les informations à « goûter » pour affiner ses modèles, au lieu de s'appuyer sur une masse aveugle de données. Un peu comme un enfant qui explore activement son environnement à la recherche de stimuli intéressants.
- Une forme de « métamémoire », c'est-à-dire la conscience de ce qui est connu et inconnu, pour guider l'exploration et l'acquisition ciblée de nouvelles connaissances.
- Des installations séparées pour mémoire à court et à long terme pour stocker, rappeler et recombiner rapidement des connaissances et des expériences antérieures, comme cela se produit dans les systèmes de mémoire biologique.
- Une certaine forme de conscience et l'auto-modèle, pour guider les comportements orientés vers un objectif et les interactions efficaces avec l'environnement et avec d'autres agents, artificiels ou humains.
Des progrès intéressants sont réalisés sur nombre de ces points
Yoshua Bengio travaille par exemple sur de nouvelles architectures de réseaux neuronaux, qu'il appelle « réseaux de flux générateurs », capable d'apprendre simultanément à construire des modèles du monde et les modules pour les utiliser pour le raisonnement et la planification. Une approche qui ressemble par certains côtés au fonctionnement du cerveau humain.
D'autres chercheurs, comme Jeff Hawkin de Numenta, tentent de mettre en œuvre les principes de la mémoire biologique dans les systèmes d'IA, avec des structures distinctes pour la mémoire à court et à long terme et les processus de consolidation et de récupération des informations. L’hypothèse est que cela peut aider à résoudre les problèmes de généralisation et de raisonnement abstrait.
Et puis il y a ceux, comme le neuroscientifique théoricien Karl Friston de l'University College London, propose qu'une clé pour aborder l'AGI est de construire des systèmes qui ne se contentent pas d'« ingérer » passivement les données de formation, mais qui décident activement de la quantité et du type d'informations à échantillonner pour atteindre leurs objectifs. Un principe similaire au « prélèvement actif » chez les êtres vivants.
Les enjeux éthiques et sécuritaires d’une AGI
Si construire une intelligence artificielle générale est théoriquement possible, cela ne veut pas dire que cela soit sans risques ni problèmes critiques. Comme mentionné, une super-intelligence incontrôlable ou non alignée sur les valeurs humaines pourrait constituer une menace existentielle pour notre espèce. Sans parler des impacts possibles sur l’économie, le travail, les inégalités, la vie privée, la manipulation de l’information.
Pour cette raison, les chercheurs aiment Stuart Russell de l'Université de Berkeley soulignent l'importance de développer des techniques dès le départ « alignement des valeurs » (alignement des valeurs) pour garantir que les systèmes AGI ont des objectifs et des comportements compatibles avec l’éthique et le bien-être humain.
Les approches prometteuses dans ce sens sont celles qui visent à faire émerger des comportements et des valeurs éthiques de la dynamique d’apprentissage du système lui-même, sans les imposer de l’extérieur. Une proposition intéressante est celle de« apprentissage collaboratif par renforcement inverse » (CIRL). Avec CIRL, l'agent IA est récompensé pour avoir satisfait aux préférences humaines, mais ces préférences elles-mêmes sont en partie déduites du comportement de l'agent et affinées au fil du temps.
D’autres chercheurs estiment qu’il est essentiel que le développement de l’AGI se fasse progressivement. Je vais reformuler : "en couches", avec des niveaux croissants d'autonomie et de compétence, afin de pouvoir tester et valider la sécurité du système à chaque étape. Un peu comme ce qui se passe dans le développement du cerveau humain, qui passe par des phases de sophistication croissante depuis les capacités motrices et perceptuelles de base jusqu'au langage et aux capacités cognitives supérieures.
Et puis il y a évidemment la question de réglementation e gouvernance: Qui et comment devrait contrôler le développement de technologies aussi puissantes que l'AGI ? Uniquement des entreprises et des laboratoires privés ou également des gouvernements et des organisations internationales ? Beaucoup sont sceptiques quant à la capacité des cadres réglementaires et institutionnels actuels à suivre le rythme et appellent à une « gouvernance mondiale » de l’IA, mais les contours de cette gouvernance futuriste restent à définir.
L'intelligence artificielle générale, un avenir fascinant et incertain
En tirant les ficelles, à quel point sommes-nous proches de l’objectif d’une intelligence artificielle générale comparable ou supérieure à l’intelligence humaine ? C'est difficile à dire avec certitude, les estimations des experts varient depuis quelques années à plusieurs décennies. Ce qui est certain, c'est que les progrès de ces dernières années ont fait de l'AGI un objectif beaucoup plus tangible et ont donné une accélération impressionnante au domaine.
Le chemin est semé d’embûches, mais jamais l’objectif n’a semblé aussi accessible. Et si un jour, pas trop loin, espérons-le, une intelligence artificielle sera capable de nous poser des questions, de tester des hypothèses, d'apprendre de l'expérience et même de ressentir des émotions... alors nous saurons que nous sommes arrivés. Et que le monde, pour le meilleur ou pour le pire, ne sera plus jamais le même.