Si vous souriez à quelqu'un et qu'il ne répond pas, cela vous rebutera probablement. Non? Eh bien, ce robot vous donnerait plus de satisfaction qu'un voisin.
Développé par une équipe de chercheurs en ingénierie de l'Université Columbia à New York, le projet EVA c'est en fait un test robotique humanoïde. Il est conçu pour explorer la dynamique des interactions homme / robot à travers les expressions faciales. Il se compose d'un crâne synthétique pour adulte imprimé en 3D avec une face en caoutchouc souple sur le devant.
Les moteurs à l'intérieur du crâne tirent et relâchent sélectivement les câbles attachés à divers endroits sur le bas du visage, tout comme les muscles sous la peau de nos visages nous permettent de montrer différentes expressions faciales. De son côté, EVA peut exprimer des émotions telles que la colère, le dégoût, la peur, la joie, la tristesse et la surprise, ainsi qu'"un ensemble d'émotions plus nuancées".
Un robot qui imite nos expressions faciales

Pour développer sa capacité à imiter les expressions faciales, les scientifiques ont commencé à filmer l'EVA alors qu'elle bougeait son visage avec désinvolture. Lorsque l'ordinateur contrôlant le robot a ensuite analysé les heures de tournage, il a utilisé un réseau neuronal intégré pour savoir quelles combinaisons de "mouvements musculaires" correspondaient aux expressions faciales humaines.
Dans la deuxième phase de « formation », lorsqu'une caméra connectée a capturé le visage d'une personne en interaction avec le robot, un seconda réseau de neurones pour identifier les expressions faciales de cet individu et les faire correspondre visuellement à celles que le robot a pu créer. Le robot a ensuite assumé ces "visages" en déplaçant ses muscles faciaux artificiels.
Est utile?
Bien que les ingénieurs admettent que le simple fait d'imiter les expressions faciales humaines peut avoir des applications limitées, ils pensent que cela pourrait toujours être utile. Ce n'est pas un hasard si tant d'ateliers travaillent sur la reproduction des expressions faciales. Par exemple, cela pourrait aider à faire progresser la façon dont nous interagissons avec les technologies d'assistance.
"Il y a une limite à ce que nous, les humains, pouvons interagir émotionnellement avec des chatbots ou des assistants vocaux basés sur le cloud", déclare le chef de projet, le professeur. Hod Lipson. "Nos cerveaux semblent bien réagir aux robots qui ont une sorte de présence physique reconnaissable."
Ne me dites pas que la prochaine génération de Google Nest ou d'Alexa sera une tête qui me parlera, parce que je me déshabille. Je pars, hein?
Vous pouvez voir l'EVA imiter les expressions faciales dans cette vidéo.