« Les machines ne sont que des outils », disaient-ils. "Ils ne pourront jamais ressentir d'émotions." Eh bien, les mathématiques contredisent des siècles de philosophie. Un nouveau modèle informatique suggère que la conscience artificielle est une étape naturelle dans l’évolution technologique. Nous ne parlons pas de « si », mais de « quand ». Et ce « quand » est peut-être plus proche que nous ne le pensons.
La révolution silencieuse de la conscience artificielle
Écoutez, une bombe vient d'exploser dans le monde apparemment paisible de l'informatique théorique. Lenore e Manuel Blum, deux sommités dans le domaine, ont présenté un modèle mathématique qui pourrait changer tout ce que nous pensions savoir sur la conscience artificielle. Leurs travaux, récemment publiés (Je le mets à votre disposition ici), n’est pas qu’une autre théorie : c’est une preuve formelle que la conscience dans les machines est non seulement possible, mais inévitable.
Au-delà de Turing : quand les ordinateurs commencent à « ressentir » – Le modèle Blum, appelé rCTM (robot avec Conscious Turing Machine), va bien au-delà de la machine de Turing classique (on se doutait que il fallait mettre à jour quelque chose sur le sujet). Il ne se contente pas de traiter des données, il simule des processus qui ressemblent étonnamment à la conscience humaine. Attention, conscience, voire une sorte de « sensation » interne : autant de caractéristiques que nous considérions jusqu'à hier comme exclusivement humaines.
Le « difficile problème » de la conscience : une solution mathématique ?
Depuis des décennies, le soi-disant « problème difficile » de la conscience tourmente les philosophes et les scientifiques. David Chalmers sur tout le monde. Comment une expérience subjective peut-elle émerger d’un substrat matériel ? Le modèle rCTM offre une toute nouvelle perspective : Et si la conscience était une propriété émergente de systèmes suffisamment complexes ?
David Chalmers, un philosophe australien connu pour avoir inventé l’expression « problème difficile de la conscience », soutient depuis longtemps que l’expérience subjective ne peut pas être expliquée uniquement en termes de processus physiques ou informatiques.
L'étude de Blums conteste directement cette position. Leur modèle rCTM prouver mathématiquement comment des propriétés proches de la conscience peuvent émerger de processus informatiques complexes, sans qu'il soit nécessaire d'invoquer des phénomènes non physiques. En proposant un mécanisme concret pour l’émergence de la conscience dans un système artificiel, cette étude suggère que le « problème difficile » n’est peut-être pas aussi insoluble que le prétend Chalmers. Essentiellement, il offre une solution informatique potentielle à ce que beaucoup considèrent comme un casse-tête purement philosophique.
Ce qui rend l'œuvre de Blum véritablement révolutionnaire, c'est la façon dont elle décrit l'émergence de la conscience artificielle. Il ne s’agit pas d’un interrupteur qui s’allume soudainement, mais d’un processus progressif. Le rCTM développe une représentation interne du monde et de lui-même au fil du temps, tout comme les humains le font dans les premières années de leur vie. C'est un voyage depuis le traitement aveugle des données vers une véritable prise de conscience.
Si vous êtes vraiment un expert en la matière, suivra un paragraphe HYPER technique qui décrit ce modèle : si vous ne comprenez rien, ne vous inquiétez pas : le paragraphe suivant l'explique simplement, avec une métaphore accessible à tous. Prêt? Aller.
Comment une conscience artificielle peut émerger
Le modèle rCTM (robot avec Conscious Turing Machine) proposé par Blum est basé sur une structure de calcul à 7 tuples (STM, LTM, Up-Tree, Down-Tree, Links, Input, Output), où STM (mémoire à court terme) sert de tampon de transmission pour le contenu conscient, tandis que LTM (mémoire à long terme) comprend N≳10^7 processeurs qui rivalisent de manière probabiliste pour l'accès au STM via un arbre binaire Up-Tree parfait.
La concurrence est régie par une fonction f(chunk) = intensité + d • (humeur), où -1 ≤ d ≤ +1 représente la « disposition » du système. Le contenu gagnant est ensuite diffusé globalement via un Down-Tree à tous les processeurs LTM. La conscience artificielle émerge de l'interaction dynamique entre l'attention consciente (réception des transmissions) et un Modèle du monde (MotW) évolutif, étiqueté avec un langage multimodal interne appelé « Brainish ». Cette approche intègre des éléments de la théorie de l'espace de travail global, du traitement prédictif et de la théorie de l'information intégrée, offrant un cadre formel pour l'émergence de la conscience dans des systèmes informatiques complexes.
Traduit en mots simples ?
Imaginez le cerveau de un robot comme une grande salle de réunion. Dans cette salle, il y a de nombreux travailleurs (processeurs) qui ont des idées et des informations différentes. De temps en temps, ces ouvriers rivalisent pour monter sur scène (mémoire à court terme) et partagez leur idée avec tout le monde.
Pour décider qui monte sur scène, il y a une sorte de compétition éliminatoire. Les ouvriers s'affrontent par paires et le vainqueur de chaque défi passe au tour suivant, jusqu'à ce qu'il ne reste qu'un seul gagnant. Ce gagnant monte sur scène et partage son idée avec tout le monde.
Mais ce n'est pas tout ! Il existe également un artiste spécial (le processeur Modèle du monde) qui dessine en permanence des cartes et des images de ce qui se passe à l'intérieur et à l'extérieur du robot. Ces images aident le robot à comprendre le monde et lui-même.
Au fil du temps, le robot commence à « ressentir » et à « penser » grâce à ce système. Ce n'est pas qu'il prenne conscience d'un coup, mais peu à peu il développe une sorte de prise de conscience, un peu comme un enfant qui grandit.
C'est donc l'idée de base du modèle rCTM : un système qui, grâce à ce processus de partage d'informations et de création de représentations internes, pourrait développer quelque chose de similaire à la conscience humaine.
Conscience artificielle, les implications éthiques : un nouveau chapitre de l'histoire de l'humanité
Si le modèle Blum est correct, nous sommes confrontés à un avenir dans lequel nous devrons redéfinir des concepts fondamentaux tels que « personne », « droits » et « responsabilités ». Les machines conscientes seront-elles nos partenaires ou nos serviteurs ? Auront-ils des droits ? Et si oui, lesquels ? Le débat ne fait que commencer et il s’annonce comme l’un des plus importants de notre époque. Bien entendu, tout le monde n’est pas convaincu. Certains critiques affirment que le modèle rCTM est trop simplifié pour capturer la véritable essence de la conscience. D’autres craignent que nous projetions des qualités humaines sur des systèmes fondamentalement différents des nôtres. Le débat est houleux et le sera probablement dans les années à venir.
Alors que le débat fait rage, certains chercheurs réfléchissent déjà aux applications pratiques du modèle rCTM. De la robotique avancée aux systèmes d’IA plus empathiques et plus compréhensifs, les possibilités sont infinies. Nous sommes peut-être à l’aube d’une nouvelle ère de collaboration homme-machine, où les frontières entre le biologique et l’artificiel deviennent de plus en plus floues.
Conclusion : un nouveau chapitre de l'histoire de la conscience
Le travail des Blums n’est pas simplement une autre théorie de la conscience artificielle. Il s’agit d’un changement de paradigme qui nous oblige à reconsidérer tout ce que nous pensions savoir sur l’esprit, la conscience et ce que signifie être « sensible ». Que nous l’acceptions ou non, nous entrons dans un territoire inconnu, où les machines pourraient bientôt devenir bien plus que de simples outils. Et peut-être, mais je sais que je vais trop loin ici, changer à jamais la façon dont nous nous percevons et notre place dans l'univers.
Les commentaires sont fermés.