Des chercheurs de l'Université de San Francisco ont développé une interface neuronale qui permet aux patients sans l'utilisation du mot de «parler» à travers l'appareil.
Il s'agit d'une étape importante dans le domaine des prothèses neurales : le système surveille l'activité du cerveau et la convertit en mots à l'aide d'une voix artificielle (comme celles des assistants vocaux Google ou Amazon, pour ainsi dire). Le logiciel est très avancé et comprend une reconstruction virtuelle précise du larynx, de la langue, des lèvres et de la mâchoire.
Pourquoi perdons-nous notre parole?
Les patients perdent la capacité de parler pour diverses raisons : maladies dégénératives, accidents ou lésions cérébrales. Les technologies déjà utilisées permettent à certains de prononcer quelques mots en "traduisant" de petits mouvements du visage ou en utilisant d'autres mécanismes qui rendent la communication de toute façon très longue et laborieuse.
L'interface neurale étudiée à San Francisco traduit directement l'activité cérébrale en langage à consonance naturelle, en utilisant une infrastructure qui "imite" la façon dont les centres du langage coordonnent les mouvements du tractus vocal.

"La relation entre les mouvements du conduit vocal et les sons des mots est vraiment complexe", dés Gopala Anumachipalli, l'un des chercheurs impliqués dans le projet. "Nous avons pensé que si ces centres du langage codent les mouvements et les traduisent d'une certaine manière, nous pouvons également faire cette opération à partir des signaux du cerveau".
En quoi cela consiste?
Pour cela l'équipe a créé un conduit vocal "virtuel" qui utilise l'apprentissage automatique pour produire progressivement des sons de plus en plus corrects. Un groupe de volontaires prononce des phrases spécifiques pendant que leur activité cérébrale est surveillée : l'intelligence artificielle utilisée scanne ces signaux et les compare aux mouvements du tractus vocal pour comprendre exactement comment ils se traduisent en ce son spécifique.
"Nous avons la capacité d'imiter parfaitement la langue parlée", dés Josh Chartier, un autre des chercheurs. « Nous sommes déjà très avancés pour les sons plus lents ou plus doux, comme 'sh' ou 'z', mais nous avons du mal avec les sons tronqués comme 'b' et 'p'. Cependant, le niveau de précision augmente à une vitesse surprenante grâce à l'utilisation de l'apprentissage automatique".
"Les personnes qui ne peuvent pas bouger leurs bras et leurs jambes ont appris à contrôler les prothèses robotiques avec leur cerveau", Chartier continue. "Nous sommes convaincus qu'un jour, les personnes ayant des troubles de la parole apprendront à nouveau à parler grâce à cette prothèse vocale."
Publié dans Nature