Le génie et la folie partagent souvent le même espace dans l’esprit humain. Dans le cas d Ilya Sutskever, le cerveau derrière ChatGPT et co-fondateur d'OpenAI, cette cohabitation a produit à la fois des innovations révolutionnaires et des visions à la limite du mystique. Alors qu’il mettait au point des algorithmes capables d’imiter la parole humaine, Sutskever a secrètement planifié un bunker pour protéger les scientifiques de l’éventuelle « apocalypse » déclenchée par la sortie de l’AGI.
Un paradoxe révélateur : les créateurs de l’intelligence artificielle la plus avancée craignent eux-mêmes tellement leur création qu’ils se préparent à un cataclysme technologique. Le terme quasi-religieux qu’il a utilisé révèle à quel point les frontières entre science et foi sont devenues floues dans le monde de l’IA.
La proposition choc : un bunker anti-apocalyptique pour les scientifiques
Lors d’une réunion avec un groupe de nouveaux chercheurs à l’été 2023, Sutskever a prononcé une phrase incroyable : « Une fois que nous serons tous dans le bunker… ». Un chercheur confus est intervenu pour demander des éclaircissements sur le « bunker », et la réponse a été encore plus surprenante : « Nous allons certainement construire un bunker avant de lancer l’AGI. » Une blague, une hyperbole ?
Rien de tout cela. Tel que rapporté par Karen Hao dans son livre "Empire of AI : Rêves et cauchemars dans OpenAI de Sam AltmanLe plan aurait consisté à protéger les scientifiques clés d'OpenAI du chaos géopolitique ou de la concurrence violente entre puissances mondiales qui, selon Sutskever, pourraient éclater après la sortie de l'intelligence artificielle générale (IAG). L'épisode, relaté dans un essai tiré du livre et publié sur le site web The Atlantic, met en évidence les peurs existentielles qui imprègnent les plus hauts niveaux des entreprises d’IA.
Avec une nonchalance déconcertante, il a ensuite ajouté : « Bien sûr, ce sera facultatif si vous voulez entrer dans le bunker ou non. » Comme s’il parlait d’une option de déjeuner d’entreprise, et non d’un refuge contre l’apocalypse technologique.
AI Apocalypse Bunker : une obsession, pas un cas isolé
La référence au bunker anti-apocalypse n’était pas un incident isolé. Deux autres sources ont confirmé au journaliste que Sutskever mentionnait régulièrement cette structure dans les discussions internes. Un chercheur d'OpenAI est même allé jusqu'à dire : « Il existe un groupe de personnes, dont Ilya, qui croient que la création d'une IAG entraînera une sorte d'événement apocalyptique. Littéralement, une apocalypse technologique. »
Cette vision quasi religieuse de l’avenir technologique révèle à quel point certains des esprits les plus brillants de l’IA sont profondément influencés par des peurs existentielles concernant leurs propres créations. Sutskever était connu parmi les employés comme « un penseur profond et même une sorte de mystique », qui parlait régulièrement en termes spirituels, selon le livre de Hao.
Le paradoxe d'OpenAI : entre catastrophe et profit
Les craintes apocalyptiques de Sutskever n’étaient pas totalement hors de propos dans l’écosystème OpenAI. En mai 2023, le PDG Sam Altman avait cosigné une lettre ouverte décrivant l'IA comme un risque potentiel d'extinction pour l'humanité, comme le rapportent à la fois le livre de Karen Hao et plusieurs articles du secteur.
Cependant, ce récit apocalyptique a dû coexister avec des ambitions commerciales de plus en plus agressives. ChatGPT devenait un phénomène mondial et OpenAI se transformait rapidement d'un laboratoire de recherche en un géant technologique de plusieurs milliards de dollars. Une contradiction qui a alimenté les tensions internes, culminant avec la (tentative ratée) de destituer Altman de son poste en novembre 2023.
La fracture interne : le doigt sur le bouton AGI
La tension entre la vision apocalyptique et la vision capitaliste a explosé fin 2023. Sutskever, ainsi que le directeur technique de l'époque Mira Murat, a orchestré un bref coup d'État d'entreprise, en destituant temporairement Altman de son poste de PDG.
Cette décision était motivée par la crainte qu’Altman ne contourne les protocoles de sécurité interne et ne consolide trop de pouvoir. Selon des notes examinées par Hao et rapportées exclusivement dans son livre, Sutskever aurait déclaré : « Je ne pense pas que Sam soit la personne qui devrait avoir le doigt sur le bouton de l’AGI. » La documentation de ces tensions internes, rapportée à la fois sur The Atlantic que de MIT Technology Review, offre un aperçu inédit de la crise de leadership qui a secoué OpenAI.
La métaphore du « doigt sur le bouton » est particulièrement révélatrice : elle évoque des scénarios de guerre froide, avec l’AGI dans le rôle d’une arme nucléaire. Une vision qui place l’intelligence artificielle non pas comme un outil de progrès, mais comme une cause potentielle de destruction.
Après OpenAI : la mission continue avec Safe Superintelligence
Après l'échec du « coup d'État » et la réintégration d'Altman, Sutskever a quitté OpenAI en mai 2024 pour fonder Superintelligence sûre (SSI), une société dédiée au développement de systèmes d'intelligence artificielle sécurisés.
Contrairement à OpenAI, SSI a une vision beaucoup plus étroite : « Notre premier produit sera une IA sécurisée, et nous ne ferons rien d’autre d’ici là », a déclaré Sutskever dans une interview. La société a levé initialement 1 milliard de dollars, puis 2 milliards de dollars supplémentaires, pour atteindre XNUMX milliards de dollars en XNUMX. TechCrunch une valorisation de 32 milliards de dollars en avril 2025, démontrant que les inquiétudes concernant la sécurité de l'IA sont également partagées par les investisseurs.
Le bunker comme symbole : paranoïa ou prévoyance ?
Le bunker apocalyptique proposé par Sutskever, bien que jamais construit, est devenu un puissant symbole des contradictions et des peurs qui imprègnent l’industrie de l’IA. D’un côté, cela représente une paranoïa presque religieuse, de l’autre une prudence peut-être nécessaire face à des technologies potentiellement transformatrices.
Comment Je t'ai écrit il y a 5 ans« Jamais auparavant le monde ne s'est trouvé à la croisée des chemins. Il peut sombrer dans la guerre et suffoquer sous les poisons, ou renaître grâce à la technologie et à l'éthique. » Le bunker de Sutskever représente précisément ce carrefour : la peur du désastre et l’espoir de pouvoir l’éviter. Si l’on considère ensuite le contexte géopolitique de plus en plus tendu, la compétition technologique entre les États-Unis et la Chine est désormais comparée à une nouvelle guerre froide, avec l’IA comme principal champ de bataille.
Dans ce scénario, l’idée d’un bunker pour protéger les esprits derrière l’intelligence artificielle ne semble plus être une folie mais une considération stratégique dans un monde où le contrôle de la technologie détermine l’équilibre des pouvoirs.
Bunker anti-apocalyptique, la terreur du front
L’histoire du bunker apocalyptique de Sutskever nous confronte au paradoxe de l’innovateur : ceux qui repoussent les limites de la technologie sont souvent les premiers à en craindre les conséquences. Cette double attitude (enthousiasme et peur, ambition et prudence) caractérise la frontière de l’intelligence artificielle.
Qu’il s’agisse de paranoïa ou de prévoyance, la proposition de l’ancien dirigeant d’OpenAI nous force à nous confronter à des questions fondamentales : quel contrôle avons-nous réellement sur les technologies que nous créons ? Et si leurs créateurs eux-mêmes craignent les conséquences au point d'envisager de se réfugier dans des bunkers souterrains, ne devrions-nous pas tous y prêter plus d'attention ?