L'avènement de l'intelligence artificielle, une IA hostile et sa domination sur l'humanité sont au centre des débats depuis le siècle dernier.
D'après le livre de EM Forster «La machine s'arrête», daté de 1909 à la récente série télévisée "Westworld" en passant par la saga "Terminator", notre imaginaire collectif a déjà envisagé cette hypothèse. Et il pensait que l'avènement d'une IA hostile serait un carnage.
Cependant, c'est un problème qui pourrait rester hypothétique encore un peu. Scientifiques et ingénieurs craignent sérieusement que ce "dépassement" entre intelligence humaine et intelligence artificielle (qui devrait céder la place à la singularité technologique redoutée par les transhumanistes) soit la plus grande erreur humaine.
Les tendances actuelles nous montrent une véritable «course aux armements» pour obtenir cette technologie, ce qui donnerait un énorme avantage concurrentiel. La vraie question devient celle-ci, à y regarder de plus près: comment arrêter cette course effrénée et avec peu de critère? Comment permettre le développement plus harmonieux d'une IA qui respecte ses paramètres «éthiques» et de sécurité?
Développer une super intelligence artificielle comporte deux défis pour ne pas devenir une IA hostile.
Premier défi: unité de but. Cette IA doit avoir en mémoire (l'esprit?) Les mêmes objectifs que l'humanité. Sans elle, l'IA pourrait "distraitement" détruire l'humanité en l'évaluant comme un clinquant inutile, ou un obstacle à éliminer.
Deuxième défi: la mutualité. C'est un problème politique, il s'agit de s'assurer que les bénéfices d'une IA ne vont pas à une petite élite, provoquant des inégalités sociales effrayantes.
Avec le modèle actuel de «course aux armements», tout développement d'IA a tendance à ignorer ces deux défis afin de le faire plus tôt. Cela rend le danger de l'émergence d'une IA hostile vraiment concret.
Solutions possibles
Des politiques nationales sont nécessaires pour empêcher une concurrence effrénée, réduire l'encombrement des entreprises et des entités qui développent l'IA et imposer des postes de sécurité à ceux qui veulent rivaliser. Moins de batailles et plus de règles signifient moins de pression et plus d'attention à la sécurité.
Suggérer des initiatives pratiques pour éviter l'avènement d'une IA hostile est une étude par les chercheurs Wim Naudé et Nicola Dimitri. Le tableau actuel est décrit avec précision, et il commence aussitôt par un déni: curieusement, il y a déjà peu de concurrents, et cela ne garantit cependant pas la sécurité.
Les groupes et entités des États-Unis, de Chine et d'Europe sont peu nombreux en raison des énormes coûts de développement d'une IA, mais ils sont toujours hyper compétitifs.
Pour cette raison, d'autres stratégies seraient utiles aux États-nations
Les États ont le devoir de «calmer» la bataille en offrant au plus grand nombre de sujets possible des ordres qui les lient. Plus d'argent, encore plus pour le développement de l'IA, mais sous certaines conditions de sécurité.
Ils peuvent également offrir une aide à ceux qui souhaitent développer des technologies de «confinement» pour le développement d'une IA, en supposant que même les plus intelligents et les plus hostiles peuvent avoir des faiblesses et ne pas être complètement invulnérables.
En outre, la coopération peut être encouragée en modifiant les impôts et les incitations en faveur de ceux qui décident de collaborer.
Bien commun
Au-delà de ces solutions (que l'étude explique plus en détail), il y en a une suprême, qui est d'arracher ce champ aux particuliers. Quant à l'énergie atomique ou à d'autres technologies et ressources jugées avantageuses et dangereuses pour tous, l'IA doit également être considérée comme un bien commun, et protégée pour ne pas prendre le mauvais chemin.
Personne n'est sûr de rien pour le moment. La nature hostile très possible de l'IA est en discussion. Pour certains scientifiques, il n'y aura jamais de «rébellion» de la création contre le créateur. Pour beaucoup d'autres, il y aura une fusion des hommes et de l'IA, nous ne serons pas anéantis mais améliorés.
Dans tous les cas, notre planète et l'humanité bénéficieront énormément de l'IA, et les signes sont déjà visibles aujourd'hui.