Futur proche
Pas de résultat
Voir tous les résultats
Juin 9 2023
  • Accueil
  • Technologie
  • santé
  • Environnement
  • Énergie
  • Transport
  • Espace
  • AI
  • Concepts
  • H+
Comprendre, anticiper, améliorer l'avenir.
CES2023 / Coronavirus / Russie-Ukraine
Futur proche
  • Accueil
  • Technologie
  • santé
  • Environnement
  • Énergie
  • Transport
  • Espace
  • AI
  • Concepts
  • H+

Comprendre, anticiper, améliorer l'avenir.

Pas de résultat
Voir tous les résultats
Robotica, Technologie

AI, les lois d'Asimov sont des déchets de papier

L'éthique de l'intelligence artificielle mettra définitivement en veilleuse les fameuses lois de la robotique d'Asimov.

13 mai 2023
Gianluca RiccioGianluca Riccio
⚪ 5 minutes
Partager1Pin It2Tweet1EnvoyerPartagerPartagerPartager1

LIRE DANS :

L'explosion de l'intelligence artificielle et la division classique en "sept", entre l'exalté et catastrophistes (un peu d'équilibre jamais) ont relancé le débat sur l'éthique de l'IA. Un sujet qui est vivant depuis des décennies, en fait. Depuis la conception du mot « robot », on s'est demandé comment limiter les machines pour qu'elles ne détruisent pas l'humanité. Vous souvenez-vous? Lu par Asimov et c'est parti.

L'œuvre d'Isaac Asimov et ses lois

Ils sont l'exemple le plus célèbre de réflexion sur la limitation de la technologie. Les lois de la robotique d'Isaac Asimov, qui dans des œuvres telles que la nouvelle "Runaround" ou "I, Robot", sont incorporées dans toutes les intelligences artificielles par mesure de sécurité.

Quelqu'un s'est illusionné qu'il fonctionnerait d'une manière ou d'une autre dans la réalité ou a inspiré des solutions similaires. Ce n'est pas comme ça, et je vais être bref : les lois d'Asimov ne sont pas réelles, et il n'y a aucun moyen de les mettre en œuvre dans la réalité. Ce sont déjà des vieux papiers, comme Midjourney vous le montre également.

Les lois d'Asimov

Vous souvenez-vous d'eux ? allons-nous revoir ?

Les lois d'Asimov sont au nombre de quatre :

L'article continue après les liens associés

ChatGPT, les 3 premiers secteurs qui seront totalement bouleversés par l'IA

L'avenir est un factotum : les chatbots vont transformer le marketing relationnel

  1. Première loi : un robot ne peut pas nuire à un humain ou, par inaction, permettre qu'un humain soit blessé.
  2. Deuxième loi : un robot doit obéir aux ordres donnés par les humains, à moins que ces ordres ne contreviennent à la première loi.
  3. Troisième loi : un robot doit protéger sa propre existence, à condition que cette protection ne contrevienne pas à la première ou à la deuxième loi.

Les lecteurs les plus passionnés d'Asimov savent qu'il existe une quatrième loi, introduite en 1985 avec le roman "les robots et l'empire". Il s'appelle Loi Zéro et se lit comme ceci :

Un robot ne peut pas nuire à l'humanité ou, par son inaction, permettre que l'humanité soit blessée.

Les lois d'Asimov
Isaac Asimov

Maintenant, oubliez-les.

Alors qu'il commençait à écrire et à penser dans les années 40, Isaac Asimov ne comprenait tout simplement pas qu'il serait nécessaire de programmer les IA avec des lois spécifiques pour les empêcher de nuire. Il s'est également rendu compte que ces lois échoueraient.

La première pour des problèmes éthiques trop complexes pour avoir une simple réponse oui ou non. La deuxième de par sa nature même contraire à l'éthique : elle oblige les êtres sensibles à rester esclaves. Le troisième parce qu'il implique une stratification sociale permanente, avec une grande quantité d'exploitation potentielle. Et le loi zéro? Il échoue tout seul, avec tous les autres.

En résumé : Les lois d'Asimov représentent un point de départ intéressant pour réfléchir à l'éthique de l'intelligence artificielle, mais le monde réel exige des solutions plus concrètes et adaptables.

Lequel?

Les experts travaillent pour s'assurer que l'IA est sûre et éthique, explorant dans différentes directions. Les 4 principaux :

  1. Transparence et explicabilité : Les algorithmes doivent être transparents et explicables afin que les utilisateurs puissent comprendre comment et pourquoi l'IA prend certaines décisions.
  2. Valeurs humaines et préjugés : Les systèmes d'IA doivent être conçus pour respecter les valeurs humaines fondamentales et réduire les biais indésirables. Cela comprend une formation sur divers ensembles de données et l'analyse des effets des décisions prises par l'IA sur divers groupes de personnes.
  3. Sécurité et fiabilité : Ceci est explicite. Les risques de dysfonctionnements ou de cyberattaques doivent être évités.
  4. Contrôle et responsabilité : Il est important d'établir qui est responsable des actions effectuées par l'intelligence artificielle, pour en attribuer les conséquences en cas de problème.

A ces "nouvelles lois d'Asimov" (qui ne sont pas celles d'Asimov), il faut ajouter des règles et des normes éthiques mondiales : pour cela, nous avons besoin d'une coopération internationale sur le développement de l'intelligence artificielle, et non du sectarisme.

Geoffrey Hinton, l'un des « papas » de l'IA, il a défini l'intelligence artificielle comme "la nouvelle bombe atomique". je ne suis pas d'accord, et je ne suis pas seul. Cela pourrait en devenir un, cependant, et ce serait notre faute, pas celle de l'IA. Surtout si on le conçoit d'abord comme un "club" contre les autres.

Les lois d'Asimov
Et ne me boude pas, allez.

Lu par Asimov, au revoir. De nouvelles lois, dépêchez-vous

La première véhicules autonomes, en effet : les semi-autonomes ont déjà le "pouvoir" de tuer des gens par inadvertance. Des armes comme les drones tueurs peuvent, en fait, tuer agir de manière autonome. Regardons les choses en face : l'IA ne peut actuellement pas comprendre les lois, et encore moins les suivre.

L'émulation du comportement humain n'a pas encore été bien étudiée et le développement du comportement rationnel s'est concentré sur des domaines limités et bien définis. Deux lacunes très sérieuses, car elles permettraient à une IA sensible (qui pour le moment, je le souligne, n'existe pas et malgré que ce qu'ils disent ses pygmalions on ne sait pas s'il existera) pour déjouer toute indication. Et finir, en deux mots simples, hors de contrôle.

À cause de cela, je ne sais pas combien de temps nous avons. Un an, dix, l'éternité. Je sais que, comme les lois d'Asimov, quelqu'un doit résoudre le problème de savoir comment empêcher l'IA de nuire aux humains, et ils le font maintenant.

Skynet n'est que fiction, mais dans la fiction, il ne nous a pas donné d'échappatoire. Et vous savez : la science-fiction ne prédit pas l'avenir, mais elle l'inspire souvent.

Mots clés: intelligence artificielle

Dernières nouvelles

  • Decadence, un voyage marin dans le temps : l'incroyable super yacht 'racing'
  • FibraValve, la valve cardiaque 2.0 grandit avec le patient et se répare d'elle-même
  • Nanofabricators, un "réplicateur" comme ceux de Star Trek est-il réalisable ?
  • Contre les moustiques un « déguisement chimique »
  • Nous vivons de plus en plus dans des marécages alimentaires : qu'est-ce que c'est et pourquoi ils sont mauvais pour nous
  • Révolution sur chantier : les 10 matériaux du futur qui vont changer le bâtiment
  • L'Arctique sera libre de glace d'ici 2030 : le cri d'alarme de la science
  • Il n'y a jamais de paix pour le chef de l'OMS: préparez-vous à une maladie plus mortelle que COVID
  • De Hollande, ils avertissent: les pirates ont jeté leur dévolu sur les panneaux solaires
  • La cuisine du futur ? Des chefs robots apprennent à partir de vidéos de recettes


Chat GPT Megaeasy !

Guide concret pour ceux qui abordent cet outil d'intelligence artificielle, également conçu pour le monde scolaire : de nombreux exemples d'applications, des indications d'utilisation et des instructions prêtes à l'emploi pour entraîner et interroger Chat GPT.

Soumettre des articles, divulguer les résultats d'une recherche ou découvertes scientifiques écrire à la rédaction

Entrez dans la chaîne Telegram de Futuroprossimo, cliquez ici. Ou suivez-nous sur Instagram, Facebook, Twitter, Mastodonte e LinkedIn.

FacebookTwitterInstagramTelegramLinkedInMastodontePinterestTikTok (application mobile)
  • Environnement
  • architecture
  • Intelligence artificielle
  • Gadgets et assessoires électronique
  • Concepts
  • Design
  • Médecine
  • Espace
  • Robotica
  • travail
  • Transport
  • Énergie
  • Édition française
  • édition allemande
  • Version japonnaise
  • Édition anglaise
  • Edition portugaise
  • Русское издание
  • Édition espagnole

Abonnez-vous à la newsletter

  • L'éditeur
  • Publicité sur FP
  • Politique de Confidentialité

© 2022 Futur proche - Creative Commons License
Ce travail est distribué sous licence Creative Commons Attribution 4.0 International.

Pas de résultat
Voir tous les résultats
Comprendre, anticiper, améliorer l'avenir.
  • Accueil
  • Technologie
  • santé
  • Environnement
  • Énergie
  • Transport
  • Espace
  • AI
  • Concepts
  • H+