L'intelligence artificielle (IA) a le potentiel de révolutionner notre monde. Et bien sûr, cette promesse comporte des risques importants.
Eh bien, au moins dans mon horizon cognitif, je vois clairement le côté pessimiste prévaloir. Pour une raison inconnue, même les développeurs d'IA eux-mêmes ont tendance à se poursuivre à coups de "on va tous mourir", seulement pour gagner beaucoup d'argent avec leurs plateformes.
En revanche, une poignée de personnes qui considèrent la perspective d'un boom de l'intelligence artificielle comme salvatrice.
En d'autres termes, il semble que l'humanité n'ait que deux options dans notre approche de l'intelligence artificielle :
- Nous craignons les conséquences négatives potentielles de l'IA avancée et essayons donc d'arrêter son développement ;
- Nous apprécions les avantages de l'IA avancée et nous nous engageons donc à obtenir ces avantages le plus rapidement possible malgré les risques.
Dans mon Naples, la synthèse efficace serait dans un dicton célèbre : "o 1, o 90". A quoi est dû ce déséquilibre total ? Existe-t-il un juste milieu?
Le chemin de la responsabilité
Notre vision "binaire", durcie par les réseaux sociaux et les médias qui relancent le déclarations sensationnalistes ou apocalyptique, négliger un chemin. Et c'est bien dommage, car c'est la meilleure voie, la seule qui puisse nous faire atteindre les bénéfices espérés de l'IA avancée : le développement responsable.
Faisons une analogie : imaginez un voyage dans une sorte de vallée dorée. Imaginez alors qu'en face de cette vallée se trouve une sorte de marécage incertain, peut-être peuplé de prédateurs affamés qui se cachent dans l'ombre.
Avons-nous seulement le choix entre le traverser et fuir ? Entre peur (et fuite) et insouciance (avancer sans précautions) ? Ou existe-t-il une troisième voie, celle de mieux comprendre la situation et de chercher la manière la plus sûre de traverser le fleuve en équilibre ? Vous connaissez déjà la réponse. Même les plus effrayés d'entre vous le savent. Et pour ceux qui se concentrent uniquement sur le "risque existentiel" et non sur le fait qu'il y a aussi une "opportunité existentielle" je recommande cette réflexion du philosophe et expert des technologies émergentes, Max Plus.

L'évaluation des risques passe par l'équilibre
En termes simples, le voyage est vers une "super abondance durable" qui pourrait être atteinte avec l'aide d'une IA avancée, à condition que nous agissions avec sagesse et équilibre.
Et comment agir avec sagesse ? Tout d'abord en jetant les bases d'une régulation traditionnelle. Selon certains philosophes et experts des technologies émergentes, mettre l'intelligence artificielle sur des "rails" réduit sa capacité d'apprentissage et ses bénéfices potentiels. Ça dépend.
Dans le cadre d'un futur proche où nous aurons de plus en plus de "locaux" et spécifiques (voire assistants entièrement personnels), peut et doit être sensible à l'ampleur des défaillances potentielles. Lorsque les défaillances sont locales, il y a intérêt à permettre à ces défaillances de se produire. Mais lorsqu'il y a un risque d'issue globale, il faudra une autre mentalité, celle du développement responsable.
En un mot : il n'est pas sage d'arrêter l'intelligence artificielle, et il n'est pas sage de la laisser aller en roue libre. Comme mentionné, aucune des deux routes actuelles (stop ou run) ne nous mène à quelque chose de bien.
Il ne faut pas s'arrêter, il ne faut pas courir
Ce qu'il faut de toute urgence, c'est une enquête plus approfondie et plus réfléchie sur les différents scénarios dans lesquels les défaillances de l'IA peuvent avoir des conséquences catastrophiques. Nous devons évaluer quels secteurs sont les plus à risque et quels dommages nous pourrions subir, puis introduire de nouvelles "règles" (éventuellement non contournables). comme ceux d'Asimov) pour ne pas déborder.
Ce n'est qu'ainsi que nous pourrons augmenter de manière significative la probabilité de trouver un moyen sûr de traverser le marais d'incertitude qui existe entre nous et la Singularité technologique.