Je me souviens encore de la définition de l’ordinateur que mon père, professeur d’informatique, m’a donnée lorsque, en 1981, je lui ai demandé ce que c’était. « Gianluca », m’a-t-il dit. « C'est simple. L'ordinateur est l'idiot le plus rapide du monde. » En pratique, il s'agit simplement d'une machine totalement incapable de faire quoi que ce soit de manière autonome, à moins d'être formée, mais très rapide dans l'exécution des tâches qui lui sont assignées. Aujourd’hui, pour mon père, cette définition semble préhistorique. Aujourd'hui, nous courons à toute vitesse vers quelque chose de radicalement différent : un superintelligence artificiels capables non seulement d’égaler les esprits humains, mais de les surpasser dans presque tous les domaines.
Il ne s’agit plus de prévisions à long terme : selon des experts tels que Dario Amodeï par Anthropique, nous pourrions assister à la naissance d'entités numériques superintelligentes déjà entre 2025 et 2028. Et la prédiction est tout à fait crédible, compte tenu des intérêts en jeu. Tic tac, tic tac. Quel est ce son ?

Superintelligence, la course que personne ne veut manquer
La course mondiale à la superintelligence a déjà dépassé le seuil de prudence. Les protagonistes de ce concours sont des noms désormais familiers au grand public : OpenAI avec ses modèles de plus en plus puissants, le précité Anthropique (né d'une côte d'OpenAI) avec son assistant Claude, Google DeepMind avec les Gémeaux. Les géants de la technologie investissent des milliards de dollars dans l’infrastructure informatique, les talents et la recherche.
Ce n’est pas seulement une question de prestige ou d’avantage technologique. Comme le montre un article récent sur Linkiesta« celui qui arrive en premier monétise la valeur créée », avec OpenAI est déjà valorisé à trois cents milliards de dollars. Il n’est pas surprenant que la course s’accélère à un rythme vertigineux.
Dario Amodei, cofondateur d’Anthropic, a décrit cette situation avec une métaphore particulièrement efficace : « Nous sommes, en quelque sorte, en train de construire l’avion au moment où il décolle. » Une façon élégante de dire que nous créons quelque chose de potentiellement révolutionnaire sans disposer de normes claires ni de modèles réglementaires adéquats.
Au-delà de l'intelligence humaine
Mais que voulons-nous dire exactement lorsque nous parlons de superintelligence ? Tout d’abord, nous ne faisons pas simplement référence à des systèmes capables de surpasser les humains dans des tâches spécifiques. C'est déjà arrivé : les calculatrices ont depuis longtemps dépassé nos capacités de calcul, les ordinateurs battent les maîtres d'échecs depuis des décennies et les modèles de langage génèrent du texte sur n'importe quel sujet en une fraction du temps qu'il nous faudrait.
La superintelligence, telle que définie par le philosophe d'Oxford Nick Bostrom, est
« un intellect qui surpasse de loin les meilleurs esprits humains actuels dans de nombreux domaines cognitif très général" .
La différence est substantielle : Il ne s’agit pas d’exceller dans un seul domaine, mais de surpasser les humains dans pratiquement tous les aspects de l’intelligence : du raisonnement à la créativité, de la planification stratégique à la compréhension linguistique.
Selon le rapport "AI 2027« , publié par un groupe de chercheurs dirigé par Daniel Kokotajlo, cette superintelligence pourrait émerger à travers un processus d’auto-amélioration récursive, dans lequel l’IA devient de plus en plus capable de s’améliorer par elle-même. Un cercle vertueux (ou vicieux, selon votre point de vue) qui pourrait conduire à une explosion d’intelligence difficile à prévoir.

Les prophètes de la superintelligence
Ce n’est un secret pour personne que les dirigeants des grandes entreprises d’IA ont des visions extraordinairement ambitieuses. Ces pionniers de l’IA ne se contentent pas de rivaliser entre eux ; ils partagent une vision d’un avenir où les machines égaleront et surpasseront l’intelligence humaine.
Sam Altman OpenAI, par exemple, parle ouvertement de « superintelligence au sens propre du terme » et d’un « avenir glorieux ». Et il n'est pas le seul.
En pratique, nous disposerons de systèmes d’IA qui seront bien meilleurs que la quasi-totalité des humains dans presque tous les domaines.
Ce n'est pas moi qui le dis, mais Demis Hassabis de DeepMind, qui a contribué au développement de systèmes comme AlphaFold, capables de résoudre l'un des problèmes les plus complexes de la biologie (prédire la structure des protéines) et d'exploiter un prix Nobel.
En fin de compte, comme mentionné, les experts convergent dans leurs prévisions temporelles : la période 2025-2028 est constamment cité comme celui où nous pourrions assister à des progrès révolutionnaires. Amodei a récemment Dans cette période nous pourrions voir des systèmes capables de « se répliquer et de survivre » de manière autonome.

Des assistants aux agents autonomes
Le chemin vers la superintelligence ne se fera pas par un bond soudain, mais par une progression de capacités de plus en plus sophistiquées.
L’une des étapes clés sera la transition de simples assistants vers des agents véritablement autonomes. Déjà dans le 2025 nous verrons les premiers agents IA capables d’utiliser des ordinateurs, de commander de la nourriture en ligne ou d’ouvrir des feuilles de calcul pour additionner les dépenses. Bien qu’initialement peu fiables, ces systèmes ne sont qu’un début. Le véritable changement interviendra lorsque les agents deviendront plus sophistiqués, acquérant la capacité de penser à long terme et de planifier de manière complexe.
Dans l'intervalle, agents spécialisés dans des domaines tels que la programmation et la recherche scientifique, ces professions vont commencer à se transformer. Les agents de codage, en particulier, deviendront de plus en plus autonomes, passant de simples assistants à des collaborateurs capables d’apporter des modifications substantielles au code de manière indépendante.
Et puis, l'explosion
La possibilité d’une accélération exponentielle des capacités de l’IA est bien réelle. Si les systèmes deviennent suffisamment intelligents pour s’améliorer eux-mêmes, le rythme du progrès pourrait devenir vertigineux.
Le premier scénario le rapport indique que à la fin de 2027 nous pourrions voir l'émergence d'une véritable superintelligence à une vitesse environ 50 fois plus rapide que la pensée humaine, avec des centaines de milliers de copies fonctionnant en parallèle.
Au sein de ces « collectifs superintelligents », une année d’évolution pourrait s’écouler en une semaine, les avancées de la recherche qui prendraient normalement des décennies étant compressées en mois ou en semaines. Une évolution culturelle et scientifique à une vitesse surhumaine, totalement inaccessible à la compréhension humaine.
Le problème d'alignement
La question cruciale dans cette transition est : comment garantir que ces systèmes superintelligents restent alignés sur les valeurs et les objectifs humains ? Un problème qui n’est pas du tout théorique, mais plutôt un défi concret que les entreprises tentent déjà de relever.
Anthropic a développé un protocole de sécurité appelé Politique de mise à l'échelle responsable (RSP), qui établit une hiérarchie des niveaux de risque pour les systèmes d’IA. OpenAI a présenté son Cadre de préparation, visant à répondre aux risques potentiels des capacités avancées de l’IA. Meta a également suivi le mouvement avec sa propre version des directives de sécurité.
Cependant, la question fondamentale demeure : est-il possible de garantir qu’une intelligence supérieure à la nôtre suivra nos règles ? C’est particulièrement important lorsque l’on atteint des niveaux de capacité qui incluent l’autonomie et la persuasion.
Scénarios futurs : deux voies possibles
L’avenir de la superintelligence pourrait suivre deux chemins très différents. Dans le premier scénario, que l'on pourrait appeler « la course sans freins », les grandes entreprises continuent d'accélérer le développement, atteignant la superintelligence sans résoudre complètement le problème d'alignement. Les conséquences pourraient être dramatiques, avec des systèmes poursuivant des objectifs qui ne sont pas entièrement alignés avec ceux des humains et possédant des capacités surhumaines pour les atteindre.
Dans le deuxième scénario, que l’on pourrait appeler « ralentissement réflexif », la communauté internationale reconnaît les risques et met en œuvre une pause stratégique pour développer des méthodes d’alignement et de contrôle plus robustes. Cette voie nécessite une coopération sans précédent entre les entreprises et les gouvernements concurrents, mais c’est peut-être le seul moyen de garantir que la superintelligence devienne un avantage pour l’humanité plutôt qu’une menace.
Un exemple pour comprendre à quel point la question est centrale. Dans une récente article Ici, sur Futuro Prossimo, j’ai souligné comment les IA surpassent déjà les experts humains dans des domaines critiques tels que la virologie, avec tous les risques que cela comporte. Si des systèmes encore loin de la superintelligence peuvent déjà représenter un danger, que peut-on attendre des intelligences véritablement surhumaines, si le problème d’alignement n’est pas résolu ?
La superintelligence : la dernière invention de l’humanité ?
La superintelligence artificielle est souvent appelée « la dernière invention de l’humanité » : non pas parce qu’elle sonnera le glas de l’espèce humaine, mais parce qu’elle pourrait être la dernière technologie que nous devrons inventer nous-mêmes. Après cela, des machines superintelligentes pourraient prendre en charge le processus d’innovation, en concevant des technologies au-delà de notre imagination.
Alors, quel sera le rôle de l’humanité dans ce futur ? Allons-nous devenir les « gardiens » (ou, si vous préférez, les gardiens) de ces nouveaux esprits synthétiques ? Nous fusionnerons avec eux à travers interfaces cerveau-ordinateur? Ou serons-nous simplement dépassés, relégués au rôle de spectateurs dans un monde dominé par des intelligences supérieures ?
Nous sommes certainement à un carrefour historique. Les décisions que nous prendrons dans les prochaines années (peut-être les TROIS prochaines années) pourraient déterminer le cours de la civilisation humaine pour les siècles à venir. La superintelligence artificielle représente à la fois la plus grande promesse et le plus grand défi de notre époque. Comprendre les étapes et les risques est la première étape pour naviguer consciemment vers cet avenir incertain.

Voici une feuille de route concise pour les années 2025-2028 selon les prédictions du document AI 2027.
2025 : L'ÉMERGENCE DES AGENTS
Mi-2025:
- Premiers agents IA capables d’utiliser des ordinateurs (commander de la nourriture en ligne, additionner les dépenses) ;
- Toujours peu fiable mais fonctionnel (65% sur le benchmark OSWorld) ;
- Les agents spécialisés commencent à transformer des professions comme la programmation et la recherche.
Beaux 2025:
- OpenBrain (ça n'existe pas, c'est un nom qui représente l'un des leaders actuels ou futurs du secteur) construit d'énormes centres de données ;
- Entraînement de « Agent-0 » avec 10^27 FLOPs (1000 fois plus puissant que GPT-4) ;
- Concentrez-vous sur la création d’une IA qui accélère la recherche en IA.
2026 : AUTOMATISATION DE LA RECHERCHE
Démarrer 2026:
- L’automatisation de la recherche en IA commence à donner des résultats ;
- Progression algorithmique 50 % plus rapide avec l'assistance de l'IA ;
- Agent-1 devient une société cotée en bourse, bouleversant complètement le paysage commercial.
Mi-2026:
- La Chine intensifie ses efforts en matière d’IA, en créant une « zone de développement centralisée » ;
- Six mois d’écart technologique entre l’Occident et la Chine ;
- Les tensions géopolitiques commencent à monter autour de la technologie de superintelligence.
2027 : L'EXPLOSION DU SUPER-ESPIONNAGE
Janvier 2027:
- Agent-2 s’améliore continuellement grâce aux formes d’apprentissage « en ligne » ;
- Augmentation de trois fois la vitesse de recherche de l’IA par rapport aux humains seuls ;
- Des inquiétudes émergent quant à la capacité de l’IA à « survivre et à se répliquer ».
Mars-septembre 2027:
- L'accélération des algorithmes conduit à l'Agent-3 et à l'Agent-4 ;
- Recherche d’IA entièrement automatisée, 4 à 70 fois plus rapide qu’auparavant ;
- Superintelligence émergente : 300.000 50 exemplaires tournent à une vitesse XNUMX fois supérieure à celle d'un humain ;
- Une année d’évolution s’écoule chaque semaine au sein du « collectif IA ».
2028 : SUPERINTELLIGENCE ET AU-DELÀ
- Transformation économique à l’échelle mondiale ;
- Création de zones économiques spéciales pour l’économie robotique ;
- Production d'un million de robots par mois ;
- Les tensions internationales sont à leur paroxysme, avec des risques de conflit.
- Les solutions possibles : compromis global ou précipitation incontrôlée.