Nous n'avons peut-être pas encore rattrapé notre retard intelligence générale artificielle (AGI), mais selon un éminent expert dans le domaine théorique, cela pourrait arriver plus tôt que prévu. Selon l'informaticien et expert Ben Goertzel, même s’il est peu probable qu’une IA de niveau humain ou surhumain soit construite avant 2029 ou 2030, il est possible que cela se produise dès 2027.
Une perspective aussi fascinante qu’inquiétante, qui soulève de profondes questions sur l’avenir de l’humanité face à l’essor des machines intelligentes.
L’incertitude de l’intelligence artificielle générale
Goertzel, fondateur de SingularityNET, est bien conscient des inconnues entourant le développement d'AGI. « Personne n’a encore créé une intelligence artificielle générale à l’échelle humaine ; personne ne sait vraiment quand nous y arriverons », a-t-il déclaré au public lors de la dernière conférence. auquel il a participé, au Panama.
Pourtant, malgré ces incertitudes, Goertzel trouve plausible l’AGI au niveau humain. peut être atteint d’ici 2027, et en tout cas au plus tard en 2032. Une prédiction qui, si elle se réalisait, aurait de profondes implications pour notre avenir.
De l’AGI à la superintelligence
Le véritable défi, selon Goertzel, commence une fois l’AGI atteint. "Mon point de vue est qu'une fois que vous aurez atteint l'AGI au niveau humain, vous pourriez obtenir une AGI radicalement surhumaine dans quelques années, à moins que l'AGI ne menace de freiner votre développement par son propre conservatisme", a-t-il ajouté.
L’idée est qu’une IA capable d’introspection dans son propre « esprit » pourrait faire de l’ingénierie et de la science à un niveau humain ou surhumain, créant ainsi des intelligences de plus en plus avancées dans un processus d’auto-amélioration récursive.
C'est le concept d'« explosion du renseignement », souvent associé à la singularité technologique.
Les prédictions des experts
Goertzel n’est pas le seul, et il n’est pas le premier à prévoir l’avènement de l’intelligence artificielle générale dans ses prédictions. Des prévisions qui, d’ailleurs, convergent progressivement. Geoffrey Hinton, connu comme le « parrain de l’IA » et ancien employé de Google, a déclaré en mai de l’année dernière qu’il s’attendait, « sans grande certitude », à ce que l’AGI se situe entre 5 et 20 ans. Sa prédiction précédente était de 30 à 50 ans.
Shane Legg, co-fondateur de Google DeepMind, a réitéré sa prédiction d'il y a plus de dix ans selon laquelle il y a 50 % de chances que les humains inventent l'AGI d'ici 2028. Paul Pallaghyenfin, il va jusqu'à considérer comme certaine l'intelligence artificielle générale pour 2028, avec la possibilité qu'elle soit réalisée même en 2026.
Des prévisions qui, quoique prudentes, indiquent un consensus croissant parmi les experts sur la proximité de cet objectif.
Avancées dans les modèles de langage
Jusqu’à il y a quelques années, l’AGI telle que décrite par Goertzel et ses collègues semblait être une chimère. Mais avec les progrès réalisés par OpenAI dans les grands modèles de langage (LLM) depuis le lancement de ChatGPT à la fin du 2022, cette possibilité semble de plus en plus proche. Goertzel s'empresse de souligner que les LLM à eux seuls ne mèneront pas à l'AGI, mais il est indéniable qu'ils représentent un pas important dans cette direction. La capacité de ces systèmes à comprendre et à générer le langage naturel de manière de plus en plus sophistiquée est une condition préalable fondamentale à l’émergence d’une intelligence à l’échelle humaine.
Les limites et les risques de l’IA
Bien sûr, il existe de nombreuses réserves quant à ce que prêche Goertzel. Même une IA surhumaine, selon les normes humaines, n’aurait pas un « esprit » comme le nôtre. De l’autre, les peurs existentielles liées à l’émergence d’une intelligence radicalement supérieure à la nôtre, capable de nous surpasser dans tous les domaines.
Comment pouvons-nous garantir qu'une telle entité dispose d'un sens moral aligné sur les valeurs humaines et agissant pour notre bien ?
AGI, vers un avenir incertain
Malgré ces réserves, la théorie de Goertzel est fascinante et ne peut être entièrement discréditée, surtout à la lumière des progrès rapides de l’IA ces dernières années. Que l’AGI arrive en 2027, 2030 ou au-delà, il semble de plus en plus probable que l’humanité se retrouvera tôt ou tard confrontée à une intelligence artificielle de niveau humain ou supérieure.
Face à cette perspective, il est essentiel que nous réfléchissions profondément aux implications de l’AGI et de la superintelligence. Quels sont les avantages et les risques potentiels ? Comment pouvons-nous orienter le développement de ces technologies vers des résultats positifs pour l’humanité ? Et comment notre conception même de ce que signifie être humain va-t-elle changer dans un monde où nous ne sommes plus le summum de l’intelligence ?
Il n’y a pas de réponses faciles à ces questions, mais il est impératif que nous commencions à les poser et à chercher des solutions. L’avènement de l’AGI et de la superintelligence pourrait être le plus grand test auquel l’humanité ait jamais été confrontée. Espérons que nous pourrons tous le surmonter ensemble, en tant que société.