Des chercheurs de l’Université de San Francisco ont développé une interface neuronale qui permet aux patients ne parlant pas de « parler » via l’appareil.
Il s'agit d'une étape importante dans le domaine des prothèses neuronales : le système surveille l'activité du cerveau et le convertit avec des mots utilisant une voix artificielle (comme celles des assistants vocaux de Google ou d'Amazon par exemple). Le logiciel est très avancé et fournit une reconstruction virtuelle du larynx, de la langue, des lèvres et de la mâchoire.
Pourquoi perdons-nous notre parole?
Les patients perdent la capacité de parler beaucoup de raisons : maladies dégénératives, accidents ou lésions cérébrales. Les technologies déjà utilisées permettent à certains de prononcer quelques mots en les « traduisant » petits mouvements facialement ou en utilisant d'autres mécanismes qui rendent de toute façon la communication très longue et laborieuse.
L'interface neuronale étudiée à San Francisco se traduit directement l’activité cérébrale en une parole naturelle, en utilisant une infrastructure qui « imite » la façon dont les centres de la parole coordonnent les mouvements du conduit vocal.
"La relation entre les mouvements du conduit vocal et les sons des mots est vraiment complexe", dés Gopala Anumachipalli, l'un des chercheurs impliqués dans le projet. "Nous avons pensé que si ces centres du langage encodent les mouvements et les traduisent d'une manière ou d'une autre, nous pouvons nous aussi faire cette opération à partir de signaux cérébraux".
En quoi cela consiste?
Pour cette raison, l’équipe a créé un conduit vocal « virtuel » qui utilise l’apprentissage automatique pour produire progressivement des sons de plus en plus corrects. Un groupe de bénévoles se prononce des phrases spécifiques pendant que leur activité cérébrale est surveillée : l'intelligence artificielle utilisée scanne ces signaux et les compare aux mouvements du conduit vocal pour comprendre exactement comment ils se traduisent par ce son spécifique.
« Nous avons la capacité d’imiter parfaitement le langage parlé » dés Josh Chartier, un autre des chercheurs. « Nous sommes déjà à un stade très avancé pour les sons plus lents ou plus doux, comme 'sh' ou 'z', mais nous avons des difficultés avec les sons tronqués comme 'b' et 'p'. Le Cependant, le niveau de précision augmente à un rythme étonnant grâce à l'utilisation de apprentissage automatique ».
« Les personnes qui ne peuvent pas bouger leurs bras et leurs jambes ont appris à contrôler les prothèses robotiques avec leur cerveau » Chartier continue. « Nous sommes convaincus qu’un jour les personnes souffrant de troubles de la parole réapprendront à parler grâce à cette prothèse vocale. »
Publié dans Nature