L'explosion de l'intelligence artificielle et la division classique en "sept", entre l'exalté et catastrophistes (un peu d'équilibre jamais) ont relancé le débat sur l'éthique de l'IA. Un sujet qui est vivant depuis des décennies, en fait. Depuis la conception du mot « robot », on s'est demandé comment limiter les machines pour qu'elles ne détruisent pas l'humanité. Vous souvenez-vous? Lu par Asimov et c'est parti.
L'œuvre d'Isaac Asimov et ses lois
Ils sont l'exemple le plus célèbre de réflexion sur la limitation de la technologie. Les lois de la robotique d'Isaac Asimov, qui dans des œuvres telles que la nouvelle "Runaround" ou "I, Robot", sont incorporées dans toutes les intelligences artificielles par mesure de sécurité.
Quelqu'un s'est illusionné qu'il fonctionnerait d'une manière ou d'une autre dans la réalité ou a inspiré des solutions similaires. Ce n'est pas comme ça, et je vais être bref : les lois d'Asimov ne sont pas réelles, et il n'y a aucun moyen de les mettre en œuvre dans la réalité. Ce sont déjà des vieux papiers, comme Midjourney vous le montre également.
Première loi : un robot ne peut pas nuire à un humain ou, par inaction, permettre qu'un humain soit blessé.
Deuxième loi : un robot doit obéir aux ordres donnés par les humains, à moins que ces ordres ne contreviennent à la première loi.
Troisième loi : un robot doit protéger sa propre existence, à condition que cette protection ne contrevienne pas à la première ou à la deuxième loi.
Les lecteurs les plus passionnés d'Asimov savent qu'il existe une quatrième loi, introduite en 1985 avec le roman "les robots et l'empire". Il s'appelle Loi Zéro et se lit comme ceci :
Un robot ne peut pas nuire à l'humanité ou, par son inaction, permettre que l'humanité soit blessée.
Isaac Asimov
Maintenant, oubliez-les.
Alors qu'il commençait à écrire et à penser dans les années 40, Isaac Asimov ne comprenait tout simplement pas qu'il serait nécessaire de programmer les IA avec des lois spécifiques pour les empêcher de nuire. Il s'est également rendu compte que ces lois échoueraient.
La première pour des problèmes éthiques trop complexes pour avoir une simple réponse oui ou non. La deuxième de par sa nature même contraire à l'éthique : elle oblige les êtres sensibles à rester esclaves. Le troisième parce qu'il implique une stratification sociale permanente, avec une grande quantité d'exploitation potentielle. Et le loi zéro? Il échoue tout seul, avec tous les autres.
En résumé : Les lois d'Asimov représentent un point de départ intéressant pour réfléchir à l'éthique de l'intelligence artificielle, mais le monde réel exige des solutions plus concrètes et adaptables.
Lequel?
Les experts travaillent pour s'assurer que l'IA est sûre et éthique, explorant dans différentes directions. Les 4 principaux :
Transparence et explicabilité : Les algorithmes doivent être transparents et explicables afin que les utilisateurs puissent comprendre comment et pourquoi l'IA prend certaines décisions.
Valeurs humaines et préjugés : Les systèmes d'IA doivent être conçus pour respecter les valeurs humaines fondamentales et réduire les biais indésirables. Cela comprend une formation sur divers ensembles de données et l'analyse des effets des décisions prises par l'IA sur divers groupes de personnes.
Sécurité et fiabilité : Ceci est explicite. Les risques de dysfonctionnements ou de cyberattaques doivent être évités.
Contrôle et responsabilité : Il est important d'établir qui est responsable des actions effectuées par l'intelligence artificielle, pour en attribuer les conséquences en cas de problème.
A ces "nouvelles lois d'Asimov" (qui ne sont pas celles d'Asimov), il faut ajouter des règles et des normes éthiques mondiales : pour cela, nous avons besoin d'une coopération internationale sur le développement de l'intelligence artificielle, et non du sectarisme.
Geoffrey Hinton, l'un des « papas » de l'IA, il a défini l'intelligence artificielle comme "la nouvelle bombe atomique". je ne suis pas d'accord, et je ne suis pas seul. Cela pourrait en devenir un, cependant, et ce serait notre faute, pas celle de l'IA. Surtout si on le conçoit d'abord comme un "club" contre les autres.
Et ne me boude pas, allez.
Lu par Asimov, au revoir. De nouvelles lois, dépêchez-vous
La première véhicules autonomes, en effet : les semi-autonomes ont déjà le "pouvoir" de tuer des gens par inadvertance. Des armes comme les drones tueurs peuvent, en fait, tuer agir de manière autonome. Regardons les choses en face : l'IA ne peut actuellement pas comprendre les lois, et encore moins les suivre.
L'émulation du comportement humain n'a pas encore été bien étudiée et le développement du comportement rationnel s'est concentré sur des domaines limités et bien définis. Deux lacunes très sérieuses, car elles permettraient à une IA sensible (qui pour le moment, je le souligne, n'existe pas et malgré que ce qu'ils disent ses pygmalions on ne sait pas s'il existera) pour déjouer toute indication. Et finir, en deux mots simples, hors de contrôle.
À cause de cela, je ne sais pas combien de temps nous avons. Un an, dix, l'éternité. Je sais que, comme les lois d'Asimov, quelqu'un doit résoudre le problème de savoir comment empêcher l'IA de nuire aux humains, et ils le font maintenant.
Skynet n'est que fiction, mais dans la fiction, il ne nous a pas donné d'échappatoire. Et vous savez : la science-fiction ne prédit pas l'avenir, mais elle l'inspire souvent.
Guide concret pour ceux qui abordent cet outil d'intelligence artificielle, également conçu pour le monde scolaire : de nombreux exemples d'applications, des indications d'utilisation et des instructions prêtes à l'emploi pour entraîner et interroger Chat GPT.
Soumettre des articles, divulguer les résultats d'une recherche ou découvertes scientifiquesécrire à la rédaction