Marianne Reddan a passé les 10 dernières années à scruter des visages humains pour trouver des traces de deux émotions distinctes mais très proches. Surprise et peur. Et après si longtemps, il a à peine appris à les distinguer.
C'est pourquoi Reddan, titulaire d'un diplôme postdoctoral de l'Université de Stanford, a compris que quelque chose allait changer. Il l'a compris lorsqu'il a appris qu'EmoNet, un système basé sur l'apprentissage automatique, avait appris à distinguer les deux émotions.
Le système, appelé «EmoNet», ne se contente pas de regarder les expressions faciales pour donner un sens aux émotions. Regardez aussi le contexte général pour déterminer le sentiment général, comme le ferait une personne en chair et en os.
Pour mener à bien cette recherche (publié dans la revue Science Advances) et ce réseau neuronal « entraîné » avec de grandes quantités de données a mis un an à se développer aux chercheurs de l’Université du Colorado à Boulder et de l’Université Duke.
Des objets aux émotions
Reddan et ses collègues ont utilisé AlexNet. C'est un modèle de l'apprentissage en profondeur (créé avec la dynamique du cortex visuel) qui entraîne l'ordinateur à reconnaître les objets. Ils l'ont reprogrammé pour revoir les émotions plutôt que les objets.
Philip Kragel, chercheur à l'Institut des sciences cognitives de l'Université du Colorado, a fourni au réseau neuronal 25000 20 images et lui a fait les diviser en XNUMX catégories d'émotions.
La longue liste comprenait des émotions telles que l'anxiété ou l'ennui, ainsi que d'autres expériences émotionnelles moins habituelles, telles que la « satisfaction esthétique » ou la « douleur empathique ».
Dans la deuxième phase, les émotions catégorisées ont été comparées aux émotions humaines. 8 volontaires connectés comme une imagerie par résonance magnétique fonctionnelle ont observé 112 images. Leur activité cérébrale a été mesurée en parallèle par le réseau neuronal, pour l'associer aux images (et émotions) déjà en sa possession.
Construire un réseau neuronal qui reproduit le cerveau humain est un défi scientifique qui dure depuis des années. Pourtant, même les machines les plus avancées sont en avance sur l'éventail des expériences humaines. "Les émotions font partie intégrante de notre vie quotidienne" dés Kragel. "Si les réseaux neuronaux ne les déchiffrent pas correctement, ils auront toujours une connaissance limitée du fonctionnement du cerveau."
Kragel a été surpris par le fonctionnement d'EmoNet, mais cela ne veut pas dire que le système est encore parfait. Les deux catégories les plus précisément cartographiées sont le « désir sexuel » et « l'avidité/le désir », mais parfois cela ne fonctionne pas bien avec les émotions exprimées de manière dynamique. La surprise, par exemple, qui peut vite évoluer en joie ou en colère selon les situations. EmoNet a également beaucoup de difficulté à trouver des différences et des nuances entre des émotions telles que l'adoration, l'amusement et la joie, en raison de leurs corrélations intimes.
Y a-t-il des risques?
Hannah Davis, professeur de musique générative à l'Université de New York, estime qu'enseigner des émotions à un ordinateur n'est pas dangereux. « Il serait dangereux, dit-il, de commencer à distinguer les émotions avec le même schématisme et la même rareté des nuances. »
Comment peux-tu lui en vouloir ? Coder une émotion à partir d’une photo ne signifie pas la comprendre ni ressentir de l’empathie. Et déjà aujourd’hui, avec les réseaux sociaux, nous pouvons avoir l’impression que les gens ont limité leurs émotions au nombre d’émoticônes qu’ils peuvent trouver.
« Le modèle est-il capable de ressentir des émotions ? Définitivement non. Il ne fait qu'analyser certaines catégories, certainement pas la complexité de l'expérience humaine. Pourrait-il éprouver des émotions à l’avenir ? Je ne peux pas exclure cela. Peut-être."