Marianne Reddan a passé les 10 dernières années à scruter des visages humains pour trouver des traces de deux émotions distinctes mais très proches. Surprise et peur. Et après si longtemps, il a à peine appris à les distinguer.
C'est pourquoi Reddan, titulaire d'un diplôme postdoctoral de l'Université de Stanford, a compris que quelque chose allait changer. Il l'a compris lorsqu'il a appris qu'EmoNet, un système basé sur l'apprentissage automatique, avait appris à distinguer les deux émotions.
Le système, appelé «EmoNet», ne se contente pas de regarder les expressions faciales pour donner un sens aux émotions. Regardez aussi le contexte général pour déterminer le sentiment général, comme le ferait une personne en chair et en os.
Pour mener à bien cette recherche (publié dans la revue Science Advances) et ce réseau neuronal "formé" avec de grandes quantités de données, des chercheurs de l'Université du Colorado à Boulder et de l'Université Duke ont mis un an à se développer.
Des objets aux émotions
Reddan et ses collègues ont utilisé AlexNet. C'est un modèle de l'apprentissage en profondeur (créé avec la dynamique du cortex visuel) qui entraîne l'ordinateur à reconnaître les objets. Ils l'ont reprogrammé pour revoir les émotions plutôt que les objets.
Philip Kragel, chercheur à l'Institut des sciences cognitives de l'Université du Colorado, a fourni au réseau neuronal 25000 20 images et s'est arrangé pour qu'il les divise en XNUMX catégories d'émotions.
La longue liste comprenait des émotions telles que l'anxiété ou l'ennui, ainsi que d'autres expériences émotionnelles moins courantes, telles que la « complaisance esthétique » ou la « douleur empathique ».
Dans la deuxième phase, les émotions catégorisées ont été comparées aux émotions humaines. 8 volontaires connectés comme une imagerie par résonance magnétique fonctionnelle ont observé 112 images. Leur activité cérébrale a été mesurée en parallèle par le réseau neuronal, pour l'associer aux images (et émotions) déjà en sa possession.
Construire un réseau neuronal qui reproduit le cerveau humain est un défi scientifique qui dure depuis des années. Pourtant, même les machines les plus avancées sont en avance sur l'éventail des expériences humaines. "Les émotions font partie intégrante de notre vie quotidienne" dés Kragel. "Si les réseaux de neurones ne les déchiffrent pas correctement, ils auront toujours une connaissance limitée du fonctionnement du cerveau."
Kragel a été surpris du bon fonctionnement d'EmoNet, mais cela ne signifie pas que le système est déjà parfait. Les deux catégories les mieux cartographiées sont le « désir sexuel » et la « cupidité / envie », mais parfois cela ne fonctionne pas bien avec les émotions exprimées de manière dynamique. La surprise, par exemple, qui peut rapidement évoluer vers la joie ou la colère selon la situation. a également beaucoup de mal à trouver des différences et des nuances entre des émotions telles que l'adoration, l'amusement et la joie, en raison de leurs corrélations intimes.
Y a-t-il des risques?
Hannah Davis, professeur de musique générative à l'Université de New York, estime qu'il n'est pas dangereux d'enseigner les émotions à un ordinateur. « Il serait dangereux, dit-il, que l'on se mette à distinguer les émotions avec le même schématisme et la même rareté de nuances.
Comment la blâmer ? Coder une émotion à partir d'une photo ne signifie pas la comprendre ou ressentir de l'empathie. Et déjà aujourd'hui avec les réseaux sociaux on peut avoir la perception que les gens ont limité leurs émotions au nombre d'émoticônes qu'ils peuvent trouver.
« Le modèle est-il capable de ressentir des émotions ? Définitivement non. C'est seulement lire dans certaines catégories, certainement pas dans la complexité de l'expérience humaine. Pourrait-il ressentir des émotions dans le futur ? Cela ne peut être exclu. Peut-être."