Si vous souriez à quelqu'un et qu'il ne répond pas, cela vous rebutera probablement. Non? Eh bien, ce robot vous donnerait plus de satisfaction qu'un voisin.
Développé par une équipe de chercheurs en ingénierie de l'Université Columbia à New York, le projet EVA c'est en fait un test robotique humanoïde. Il est conçu pour explorer la dynamique des interactions homme / robot à travers les expressions faciales. Il se compose d'un crâne synthétique pour adulte imprimé en 3D avec une face en caoutchouc souple sur le devant.
Les moteurs à l’intérieur du crâne tirent et relâchent sélectivement les cordons attachés à divers endroits du bas du visage, tout comme les muscles sous la peau de notre visage nous permettent de montrer différentes expressions faciales. De son côté, EVA peut exprimer des émotions telles que la colère, le dégoût, la peur, la joie, la tristesse et la surprise, ainsi que « une gamme d’émotions plus nuancées ».
Un robot qui imite nos expressions faciales
Pour développer ses capacités à imiter les expressions faciales, les scientifiques ont commencé à filmer l’EVA alors qu’il bougeait son visage de manière aléatoire. Lorsque l’ordinateur contrôlant le robot a ensuite analysé les heures de séquences, il a utilisé un réseau neuronal intégré pour déterminer quelles combinaisons de « mouvements musculaires » correspondaient aux expressions faciales humaines.
Dans la deuxième phase de « formation », lorsqu'une caméra connectée a capturé le visage d'une personne en interaction avec le robot, un seconda réseau neuronal pour identifier les expressions faciales de cet individu et les faire correspondre visuellement à celles que le robot était capable de créer. Le robot a ensuite pris ces « visages » en déplaçant ses muscles faciaux artificiels.
Est utile?
Bien que les ingénieurs admettent que le simple fait d'imiter les expressions faciales humaines peut avoir des applications limitées, ils pensent que cela pourrait toujours être utile. Ce n'est pas un hasard si tant d'ateliers travaillent sur la reproduction des expressions faciales. Par exemple, cela pourrait aider à faire progresser la façon dont nous interagissons avec les technologies d'assistance.
« Il y a une limite à la mesure dans laquelle nous, les humains, pouvons interagir émotionnellement avec les chatbots ou les assistants vocaux basés sur le cloud », explique le chef de projet, le Prof. Hod Lipson. "Notre cerveau semble bien réagir aux robots qui ont une sorte de présence physique reconnaissable."
Ne me dites pas que la prochaine génération de Google Nest ou d'Alexa sera une tête qui me parlera, parce que je me déshabille. Je pars, hein?
Vous pouvez voir EVA imitant les expressions faciales dans cette vidéo.