La semaine dernière, nous avons abordé la question de la panique induits par les médias sur l'intelligence artificielle. Une manière comme une autre, je vous le disais, de nier un débat sain sur les opportunités et les risques de cette technologie qui peut complètement changer notre société. Il y a évidemment aussi le revers de la médaille : un groupe très important de scientifiques qui ne se soucient pas du tout des dangers possibles. Vrai ou faux?
Parce qu'il y a ceux qui ferment les yeux
"Avez-vous déjà pensé que l'intelligence artificielle pourrait provoquer la fin de l'humanité ?". Lors d'une récente conférence de presse à la Maison Blanche, la porte-parole Karine Jean Pierre il rit confronté à cette question. Dommage que la réponse soit un « non » sérieux. Malgré les pionniers de l'IA tels que Alan Turing avait déjà mis en garde contre les risques de « prise de pouvoir par les machines », de nombreux chercheurs actuels ne semblent pas s’en soucier du tout. Pourtant, l’IA progresse à un rythme incroyable. Alors pourquoi n'en discutent-ils pas davantage ?
David Kruger, professeur au Département d'ingénierie de l'Université de Cambridge, affirme que les raisons sont avant tout culturelles et historiques. Après différentes phases d’attentes excessives et idéalistes envers ces technologies (utopie ou dystopie), les chercheurs ont décidé de passer à la pratique. C’est pour cette raison qu’ils se sont concentrés sur des domaines spécifiques, tels que la conduite autonome, en s’arrêtant pour poser des questions sur les implications à long terme.
Ont-ils bien ou mal fait ? Et si les risques étaient réels ?
Un argument fondamental des « inquiets » (une catégorie très différente des « catastrophistes », remarquez bien) est l’analogie entre l’IA et les humains. Tout comme les humains ont éteint d’autres espèces pour rivaliser pour les ressources, l’intelligence artificielle pourrait faire de même avec nous. Autrement dit, cela pourrait nous remplacer. Économiquement et politiquement. Physiquement.
Ce sont des thèmes qui semblent énormes, presque de la science-fiction. Et en fait, les risques de l’IA sont souvent ignorés précisément parce qu’ils sont considérés comme « non scientifiques ». Toutefois, cela ne justifie pas le manque d’attention. Nous devrions plutôt aborder ces problèmes comme nous le faisons pour d’autres questions sociales complexes. Et ici entre en jeu un élément crucial : le financement. La plupart des chercheurs en IA reçoivent des financements de géants de la technologie, ce qui crée d'éventuels conflits d'intérêts qui peuvent influencer la manière dont les experts abordent les problèmes liés à l'IA, conduisant à un déni des risques plutôt qu'à une évaluation objective des menaces possibles.
C'est pourquoi, au lieu de « pencher » vers l'un des deux pôles, dans l'exercice que préfèrent ceux qui dirigent la finance et les médias (diviser pour régner), l'opinion publique devrait regarder vers l'avant, ou plutôt vers l'intérieur. À l’intérieur des choses, exigeant que le thème soit exploré en profondeur.
Il est temps de devenir sérieux
Les risques existentiels de l’IA sont peut-être plus spéculatifs que réels si on les compare à des problèmes urgents comme les préjugés et les fausses nouvelles, mais la solution de base est la même : la réglementation. Il est temps de lancer un débat public approfondi et d’aborder les questions éthiques liées à l’IA. Tout le reste n’est qu’ennui, ou plutôt ennui.
Parce que nous le savons : nous ne pouvons pas nous permettre d’ignorer les risques potentiels de l’intelligence artificielle pour l’humanité. Un débat public ouvert et honnête, qui prend en compte les conflits d’intérêts et les responsabilités éthiques, est essentiel. Ce n’est qu’ainsi que nous pourrons comprendre si le rire d’une porte-parole de la Maison Blanche est vraiment approprié ou, au contraire, le signe d’une dangereuse (c’est bien) une inconscience collective.