L'explosion de l'intelligence artificielle et la division classique en « sectes », parmi l'exalté et catastrophistes (certains équilibres jamais) ont relancé le débat sur l’éthique de l’IA. Un sujet d’actualité depuis des décennies, pour être honnête. Depuis que le mot « robot » a été créé, des questions ont été posées sur la manière de limiter les machines afin qu'elles ne détruisent pas l'humanité. Vous souvenez-vous? Lisez à propos d'Asimov et c'est parti.
L'œuvre d'Isaac Asimov et ses lois
Ils constituent l’exemple le plus célèbre de réflexion sur la manière de limiter la technologie. Les lois de la robotique d'Isaac Asimov, qui dans des œuvres telles que l'histoire "Runaround" ou "I, Robot", sont intégrées dans toutes les intelligences artificielles par mesure de sécurité.
Quelqu'un s'est illusionné qu'il fonctionnerait d'une manière ou d'une autre dans la réalité ou a inspiré des solutions similaires. Ce n'est pas comme ça, et je vais être bref : les lois d'Asimov ne sont pas réelles, et il n'y a aucun moyen de les mettre en œuvre dans la réalité. Ce sont déjà des vieux papiers, comme Midjourney vous le montre également.
Vous souvenez-vous d'eux ? allons-nous revoir ?
Les lois d'Asimov sont au nombre de quatre :
- Première loi : un robot ne peut pas nuire à un humain ou, par inaction, permettre qu'un humain soit blessé.
- Deuxième loi : un robot doit obéir aux ordres donnés par les humains, à moins que ces ordres ne contreviennent à la première loi.
- Troisième loi : un robot doit protéger sa propre existence, à condition que cette protection ne contrevienne pas à la première ou à la deuxième loi.
Les lecteurs les plus passionnés d'Asimov savent aussi qu'il existe une quatrième loi, introduite en 1985 avec le roman "les robots et l'empire« . Il s'appelle Loi Zéro et se lit comme ceci :
Un robot ne peut pas nuire à l’humanité ni, par son inaction, permettre à l’humanité de subir un préjudice.
Isaac Asimov
Maintenant, oubliez-les.
Même s’il a commencé à écrire et à raisonner dans les années 40, Isaac Asimov ne comprenait tout simplement pas qu’il serait nécessaire de programmer les IA avec des lois spécifiques pour les empêcher de nuire. Il s’est également rendu compte que ces lois échoueraient.
La première pour des problèmes éthiques trop complexes pour avoir une simple réponse oui ou non. La deuxième de par sa nature même contraire à l'éthique : elle oblige les êtres sensibles à rester esclaves. Le troisième parce qu'il implique une stratification sociale permanente, avec une grande quantité d'exploitation potentielle. Et le loi zéro? Il échoue tout seul, avec tous les autres.
En résumé : les lois d'Asimov représentent un point de départ intéressant pour réfléchir à l'éthique de l'intelligence artificielle, mais le monde réel nécessite des solutions plus concrètes et adaptables.
Lequel?
Les experts s’efforcent de garantir que l’IA soit sûre et éthique en explorant différentes directions. Les 4 principaux :
- Transparence et explicabilité : Les algorithmes doivent être transparents et explicables, afin que les utilisateurs puissent comprendre comment et pourquoi l'IA prend certaines décisions.
- Valeurs humaines et préjugés : Les systèmes d’IA doivent être conçus pour respecter les valeurs humaines fondamentales et réduire les préjugés indésirables. Cela comprend une formation sur divers ensembles de données et l’analyse des effets des décisions prises par l’IA sur divers groupes de personnes.
- Sécurité et fiabilité : Ceci est explicite. Les risques de dysfonctionnements ou de cyberattaques doivent être évités.
- Contrôle et responsabilité : Il est important d’établir qui est responsable des actions réalisées par l’intelligence artificielle, pour assigner des conséquences en cas de problème.
À ces « nouvelles lois Asimov » (qui ne sont pas celles d’Asimov) il faut ajouter des réglementations mondiales et des normes éthiques : c’est pourquoi nous avons besoin d’une coopération internationale pour le développement de l’intelligence artificielle, et non du sectarisme.
Geoffrey Hinton, l'un des « pères » de l'IA, il a défini l’intelligence artificielle comme « la nouvelle bombe atomique ». je ne suis pas d'accord, et je ne suis pas seul. Mais cela pourrait le devenir, et ce serait notre faute, et non celle de l’intelligence artificielle. Surtout si on le conçoit d'abord comme un « club » contre les autres.
Lu par Asimov, au revoir. De nouvelles lois, dépêchez-vous
La première véhicules autonomes, en effet : les semi-autonomes ont déjà le « pouvoir » de tuer des gens par inadvertance. Des armes comme les drones tueurs peuvent même tuer agir de manière autonome. Soyons clairs : l’IA est actuellement incapable de comprendre les lois, et encore moins de les respecter.
L'émulation du comportement humain n'a pas encore été bien étudiée et le développement du comportement rationnel s'est concentré sur des domaines limités et bien définis. Deux défauts très sérieux, car ils permettraient une IA sensible (qui pour le moment, je le souligne, n'existe pas et malgré que ce qu'ils disent ses pygmalions on ne sait pas s'il existera) pour déjouer toute indication. Et finir, en deux mots simples, hors de contrôle.
Pour cela, je ne sais pas de combien de temps nous disposons. Un an, dix, l'éternité. Je sais que, comme pour les lois d'Asimov, quelqu'un doit résoudre le problème de savoir comment empêcher l'IA de nuire aux humains, et le faire maintenant.
Skynet n'est que fiction, mais dans la fiction, il ne nous a pas donné d'échappatoire. Et vous savez : la science-fiction ne prédit pas l'avenir, mais elle l'inspire souvent.