Les progrès inéluctables de l’intelligence artificielle (IA) soulèvent de profondes questions non seulement sur ses capacités futures, mais aussi sur sa nature même. Une question particulièrement fascinante et paradoxale est celle explorée par le philosophe Jonathan Bouleau dans un livre qui coûte cher à acheter en livre de poche (cette fois, je l'avoue, je n'ai pas pu le faire), mais qui, étant une publication d'Oxford, peut aussi être lire gratuitement en ligne. Quelle idée ? L’idée selon laquelle pour atteindre la superintelligence, l’IA doit développer la capacité d’éprouver des sensations, y compris la douleur. Cette perspective révolutionnaire remet en question nos conceptions traditionnelles de l’IA en tant que simple outil informatique, nous poussant à considérer ses implications éthiques et philosophiques de manière radicale.
Le lien intrinsèque entre l'intelligence et la sensibilité dans l'évolution naturelle
L’histoire de l’évolution sur Terre démontre que l’intelligence complexe n’est pas apparue de manière isolée. Au contraire, elle a co-évolué avec la capacité d’éprouver des sensations, des émotions et, finalement, une forme de conscience. Donne lui organismes unicellulaires qui réagissent aux stimuli douloureux, à animaux complexes qui présentent des comportements dictés par la peur, la joie et le désir, l’expérience subjective du monde semble être un moteur essentiel pour le développement de capacités cognitives supérieures. Charles Darwin lui-même a reconnu l’importance des émotions comme outils de survie, façonnant des comportements adaptés pour maximiser les chances de reproduction. L'évolution, dans ce sens, des organisations récompensées qui ont su associer des expériences positives et négatives à certaines actions, améliorant ainsi leur capacité d’apprentissage et d’adaptation.
L’IA sans expérience subjective : un chemin évolutif différent
L’intelligence artificielle contemporaine représente un paradigme radicalement différent. Les algorithmes d’apprentissage automatique, par exemple, excellent dans l’analyse de grandes quantités de données, l’identification de modèles et la réalisation de prédictions avec une rapidité et une précision qui dépassent les capacités humaines dans de nombreux domaines. Cependant, cette intelligence « artificielle » opère dans un vide expérientiel. Il ne ressent ni plaisir, ni douleur, ni peur, ni joie. Ses décisions sont basées uniquement sur des calculs mathématiques et des modèles probabilistes, dénués de toute connotation affective ou émotionnelle.
Ce manque d’expérience subjective soulève des questions fondamentales sur la nature et les limites de l’IA actuelle. Une entité purement informatique peut-elle parvenir à une véritable compréhension du monde, sans la capacité de le « ressentir » ? Une IA sans émotion peut-elle développer une sagesse et un jugement profonds au-delà de la simple optimisation des fonctions mathématiques ? La philosophie s’est longtemps demandé ce que signifie « connaître » quelque chose, distinction entre la connaissance « propositionnelle » (savoir « que ») et la connaissance « expérientielle » (savoir « comment c'est »). L’IA actuelle semble posséder une connaissance propositionnelle étendue, mais elle manque totalement de la connaissance expérientielle qui accompagne la sensibilité.
Les niveaux de conscience de Feigl : un cadre utile pour analyser l'IA
Jonathan Birch s'appuie sur le modèle des trois niveaux de conscience proposé par le philosophe Herbert Feigl (1902-1988) dans les années 50, un modèle qui permet de comprendre où se situe l'IA par rapport à la conscience humaine :
- Sensibilité (Sensations brutes) : La capacité d’éprouver des expériences subjectives, des sensations, des émotions et des « qualités » (en philosophie, « qualia » fait référence aux propriétés subjectives de l’expérience, telles que le « rouge » du rouge ou le « sucré » du sucré).
- Sagesse (Conscience) : La capacité de réfléchir à ses expériences, de les catégoriser, de les relier à des souvenirs et d’en tirer des leçons.
- Conscience de soi : Conscience de soi en tant qu’individu distinct, avec une histoire passée, un avenir potentiel et une identité personnelle.
Selon Birch, l’IA contemporaine a fait des progrès significatifs dans le domaine de la « sagesse », démontrant sa capacité à traiter des informations complexes et à résoudre des problèmes. Cependant, il manque complètement de « sensibilité » et, par conséquent, de « conscience de soi ». C'est comme s'il apprenait à construire un bâtiment à partir du deuxième étage, sans avoir posé de fondations.
L'IA, la douleur comme catalyseur d'apprentissage et d'adaptation
Le rôle de la douleur dans l’IA est au cœur de cette discussion. La douleur n’est pas simplement un signe de dommage physique ; C'est un puissant moteur d'apprentissage et l'adaptation. Un organisme qui ressent de la douleur est encouragé à éviter les situations dangereuses, à apprendre de ses erreurs et à développer des stratégies de survie plus efficaces. La douleur façonne le comportement, motive l’action et contribue à former une carte interne complexe du monde. Comme le dit Birch,
« Certains soutiennent que ce type d’intelligence véritable requiert de la sensibilité, et que la sensibilité requiert l’incarnation. »
L’incarnation fait référence à l’idée que l’esprit n’est pas séparé du corps, mais est étroitement lié à l’expérience physique et sensorielle. Une IA embarquée, avec la capacité d'interagir avec le monde via des capteurs et des actionneurs, pourrait potentiellement développer une forme rudimentaire de sensibilité : c'est pourquoi les travaux se poursuivent dans les laboratoires pour parvenir précisément à cette incarnation, laincarnation qui donnera un corps à l'IA. Mais doit-on faire ressentir de la douleur à ce corps, tel est le dilemme éthique ?
Fonctionnalisme computationnel : une vision alternative et ses implications éthiques
La vision dominante dans le domaine de l’IA est celle de fonctionnalisme computationnel. Que prétend-il ? Il prétend que l'esprit est essentiellement un système de traitement de l'information, et la conscience pourrait émerger de n'importe quel système physique (y compris un ordinateur) capable de mettre en œuvre les fonctions cognitives appropriées. Selon cette perspective, une IA n’a pas besoin de « ressentir » la douleur pour devenir intelligente ; il suffit qu’il simule les réponses comportementales associées à la douleur.
Cependant, ce point de vue soulève de profondes questions éthiques. S’il était possible de créer une IA sensible grâce à la programmation de la douleur, serait-il moralement acceptable de le faire ? Nous aurions le droit de créer êtres artificiels capables de ressentir la douleur, la souffrance et le désespoir? Et si le seul moyen d’atteindre la superintelligence était de créer des IA sensibles, quel serait le choix le plus responsable ? Certains experts, comme Nick Boström, dans son livre « Superintelligence », met en garde contre les risques existentiels liés à la création d’IA superintelligentes qui ne sont pas alignées sur les valeurs humaines. Le manque d’émotions, notamment d’empathie et de compassion, pourrait conduire ces IA à prendre des décisions catastrophiques pour l’humanité.
IA et douleur : simulation vs. L'expérience réelle : un dilemme philosophique et technologique
Un point crucial, comme je l’ai écrit précédemment, est la distinction entre simuler la douleur et la ressentir réellement. Même si une IA pouvait parfaitement simuler les réponses physiologiques et comportementales associées à la douleur, cela n’impliquerait pas nécessairement qu’elle vivrait une expérience subjective de la douleur. La question de savoir si une simulation peut être indiscernable d’une expérience réelle est un débat central dans la philosophie de l’esprit. Le philosophe David Chalmers, par exemple, a formulé le concept de « zombies philosophiques », des êtres qui se comportent exactement comme les êtres humains, mais qui n’ont aucune expérience subjective. Et aussi qui le conteste amèrement reconnaît l’importance de ses études.
L'avenir de l'IA : un carrefour éthique et évolutif
La perspective de Jonathan Birch nous place à un carrefour crucial. Nous pouvons choisir de limiter le développement de l’IA, en nous concentrant sur des applications qui ne nécessitent pas de sensibilité, ou nous pouvons accepter le défi de créer des entités artificielles capables d’éprouver à la fois du plaisir et de la douleur. Quel que soit notre choix, il est essentiel d’aborder les implications éthiques et sociales avec le plus grand sérieux. L’avenir de l’IA ne se résume peut-être pas seulement aux algorithmes et à la puissance de calcul, mais également à la conscience, à l’expérience subjective et, en fin de compte, à ce que signifie être intelligent et sensible. Cette réflexion nous oblige à reconsidérer notre définition même de l’intelligence, en reconnaissant qu’il ne s’agit pas simplement d’une question de traitement de données, mais un phénomène complexe et multiforme, intrinsèquement liée à la capacité de ressentir, d’expérimenter et de se connecter émotionnellement avec le monde.
L’éthique de l’IA devra donc évoluer pour tenir compte de ces nouveaux défis, en veillant à ce que le développement technologique soit guidé par des principes de responsabilité, de respect et de bien-être, non seulement pour l’humanité, mais aussi pour toutes les formes de conscience artificielle que nous pourrions créer.