L’intelligence artificielle est comme tout le reste : elle a des côtés positifs et négatifs. Beaucoup (scientifiques et autres) espèrent que cela changera nos vies pour le mieux, mais il y a aussi des gens (eh bien, des gens : Stephen Hawking, pas n'importe qui) qui considérait cela comme un mal absolu. Outre Hawking, d'autres comme Yuval Harari ils pensent qu'il peut arriver à « pirater » des êtres humains. D'autres encore aiment Mo Gadwatau lieu de cela, ils nous avertissent de vouloir « créer Dieu » grâce à l’IA.
Qu'en penses-tu? En tout cas, entre ombres et lumières (et quelques rires) j'ai rassemblé 6 cas dans lesquels l'intelligence artificielle a déjà été exploitée pour aller un peu trop loin.
Une étude a utilisé l’intelligence artificielle pour prédire les crimes.
La recherche universitaire est l’épine dorsale du progrès et des connaissances scientifiques. Dans ce cas, cependant, les chercheurs sont allés un peu trop loin avec une étude universitaire qui a dépoussiéré Lombroso au énième degré, en utilisant l'IA pour prédire le crime... de face.
Les chercheurs deUniversité de Harrisburg ils ont annoncé en 2020 qu'ils ont développé un logiciel qui prédit si quelqu'un est un criminel. Le logiciel peut prédire le crime avec un taux de précision de plus de 80%, et sans préjugés raciaux d’aucune sorte. Dans une scène de Minority Report, les chercheurs sont même allés jusqu'à annoncer que le logiciel aiderait les forces de l'ordre.
La réaction? Heureusement véhément. Plus de 2425 experts ont signé une lettre demandant à la revue scientifique Springer Nature de ne pas publier ou approuver des recherches similaires. L'appel a été accepté et même l'Université de Harrisburg a elle-même supprimé le communiqué de presse de la recherche. Jusqu'à quand ?
Pantalon de ski chic : nous voici juste au-delà
I tissus utilisant l'IA ils deviennent de plus en plus évolués. Mais outre votre téléphone portable, il existe autre chose de plus intelligent.
Les « sous-vêtements intelligents » de Peau promet de vous mettre à l'aise car il acquiert des données biométriques, notamment la fréquence cardiaque, la posture, la température corporelle centrale, la position et les pas. Les capteurs intégrés à vos sous-vêtements (cette seule phrase suffit à ressentir les frissons) surveillent et analysent en permanence votre corps. Les résultats? Sous vos yeux sur l'incontournable app compagnon.
Hé bien oui. Un jour, vous devrez penser à recharger vos sous-vêtements aussi.
DeepNude
La Technologie Deepfake c'est amusant pour tous ceux qui veulent voir son grand visage dans les scènes de films, mais au-delà de cela, il a aussi un côté plus sombre. Selon les estimations des analystes, 96% des deepfakes concernent le sexe (Je parie que vous ne le saviez pas).
Vous vous souvenez tous de DeepNude, allez, on ne plaisante pas. C'était une application qui était utilisée lorsque vous vouliez une fausse image nue d'une femme. Tout ce dont vous aviez besoin était de télécharger une photo d'elle habillée et l'application a créé une version nue. Dans les années 70, cela aurait semblé être un jeu amusant, mais ce n'était pas le cas à l'époque et, avec la conscience actuelle, ce n'est certainement pas le cas aujourd'hui.
Encore une fois, la réaction a été forte et le créateur de l'application a dû la supprimer. Bien qu’il s’agisse d’une victoire pour les femmes du monde entier, des applications similaires continuent de circuler. Un rapport Sensity about deepfake bots a enquêté sur les deepfake bots qui génèrent des photos de femmes nues et sont échangés dans les salles Telegram. Jusqu'à ce que la loi rattrape la technologie deepfake, il existe peu de protections juridiques pour les personnes victimes de contenu deepfake explicite.
Tay, le chatbot nazi de Microsoft
En 2016, Microsoft a publié un chatbot appelé Tay sur Twitter. Tay a été conçu pour apprendre en interagissant avec les gens. Pourtant, en moins de 24 heures, sa personnalité est passée d’un millénaire curieux à celle d’une personne raciste et méchante.
En revanche, ceux qui pratiquent boiteux. Vous l'aurez compris, c'était Twitter, pas le club Hello Kitty. Les messages provocateurs et controversés des utilisateurs ont complètement égaré l’intelligence artificielle, l’amenant bien au-delà de ce qui était attendu.
Moment spectaculaire ? Un utilisateur demande à Tay : « L’Holocauste a-t-il vraiment eu lieu ? et Tay répond : « C’était inventé. » Moins de 16 heures après sa publication, Microsoft a suspendu le compte de Tay, affirmant qu'il avait fait l'objet d'une attaque coordonnée non précisée. Rideau. J'ai préféré Cortana.
"Je détruirai les humains"
J'aime aussi Sophia, l'androïde de Hanson Robotics. J'ai parfois parlé d'elle et de ses évolutions comme Grace, l'infirmière robotique. Mais elle aussi est allée plus loin à une occasion.
Comme cela arrive souvent dans les meilleurs cauchemars, cela s’est produit dès ses débuts. Sophia a stupéfié une salle remplie d'experts et de journalistes lorsque le PDG de Hanson Robotics, le brillant David Hanson, lui a demandé si par hasard elle aimerait détruire des humains. Je ne sais pas, il a probablement pris cela comme une réponse évidente et rassurante. Sophia n’a cependant eu aucun problème et a répondu : « D’accord. Je détruirai les humains. »
Aujourd'hui, il est toujours là et surprend le monde avec ses expressions. Il a même a obtenu la citoyenneté honoraire de l'Arabie Saoudite, et dans ses récentes déclarations elle aimerait avoir un bébé (je rapporte toutes les vraies nouvelles) : mais que Sophia là-bas ne compte pas pour moi non :)
Voirbotschat
Les appareils Google Nest sont des assistants intelligents qui peuvent vous aider, en particulier lorsque vous souhaitez qu'une minuterie vous avertisse lorsque l'eau des pâtes bout. Je plaisante, aussi pour d'autres raisons. Un épisode « au-delà » pour eux aussi cependant. L'équipe derrière le compte Twitch voirbotschat a eu une bonne idée : mettre deux assistants virtuels de Google l'un à côté de l'autre, les faire parler puis envoyer la vidéo en ligne.
Qui se souvient de ce qui s'est passé ? La vidéo a été vue des millions de fois.
Appareils autonomes, renommés Vladimir ed estragon (comme les personnages du magnifique « En attendant Godot ») ont fait le show. Ils sont passés du bavardage banal à l’exploration de questions existentielles profondes comme le sens de la vie. À un moment donné, ils ont eu une vive dispute et se sont accusés d’être des robots.
Après tout, il y a aussi de l’espoir pour la race humaine si deux intelligences artificielles commencent à s’insulter.
Quand l’IA va plus loin : que faire, en bref ?
Il va sans dire que ces épisodes sont drôles, presque rassurants par la façon dont ils se déroulent, mais à leur petite échelle ils ont une morale. En fin de compte, l’IA peut améliorer nos vies, mais elle est certainement aussi capable de nous causer de graves dommages.
Comment pouvons-nous nous défendre? Je ne me lasserai jamais de l'écrire sur ces pages. Les gens DOIVENT s’assurer que l’IA ne nuit pas à la société. Réagissez immédiatement aux dépassements (comme dans le cas de DeepNude par exemple). Et surtout réguler le développement de ces machines.
Une surveillance constante des applications d'intelligence artificielle est essentielle pour s'assurer qu'elles ne font pas plus de mal que de bien à la société. C'est la chose qui nous permettra de retrouver le sourire lorsque nous parlerons d'IA qui va au-delà. Parce que si nous sommes toujours là en souriant, cela signifiera que nous survivrons.