À New York, aux États-Unis, il existe une petite startup appelée Hume IA qui a une noble idée. Quel est? Ceci : les systèmes d'intelligence artificielle ne peuvent pas seulement comprendre le langage et les informations, mais doivent également comprendre les sentiments, les relations et les émotions humaines.
Trop idéaliste ? Sara. Pendant ce temps, autour de cette idée a déjà levé des fonds pour près de 13 millions de dollars.
S'ils veulent comprendre le monde, ils doivent aussi nous comprendre
Le PDG de Hume AI, Alain Cowen, informaticien spécialisé dans l'étude des émotions, semble avoir les idées assez claires. Cela souligne la nécessité pour les IA de se concentrer sur les émotions humaines plutôt que d'imiter la pensée critique.
Pour cela, dit-il, sa startup vise à aider les systèmes automatisés à mieux comprendre les sentiments des êtres humains, comme le bonheur ou la frustration.
La technologie de l'intelligence artificielle combinée à la capacité de ressentir les émotions humaines pourrait améliorer l'efficacité des systèmes basés sur l'IA.

Tu les appelles, si tu veux, émotions (humaines)
Pas seulement des lumières, en fait. En matière d'intelligence artificielle, comme pour toutes les technologies qui viennent d'exploser, les zones d'ombre sont nombreuses. Un avant tout : créer une IA capable de comprendre les émotions humaines augmente le risque de manipulation de ces émotions.
Cowen dit avoir intégré des mesures de protection dans ses protocoles, et assure que Hume AI demandera à ses clients de respecter une série de limites dans l'utilisation de la technologie.
Parmi celles-ci, précisément l'interdiction d'utilisation à des fins de surveillance ou de manipulation, pour éviter que les gens ne soient jamais trompés. Comme, comment? Leur faire croire qu'ils conversent avec un être sensible, voire une personne réelle.
"L'IA doit être utilisée pour améliorer notre bonheur, pas pour générer des achats ou générer des clics."
J'espere.