Quand on est dans la foule et qu'on essaie de parler à quelqu'un, notre cerveau fait tout son possible (et ce n'est même pas mal) pour suivre le ton de voix de notre interlocuteur: ce n'est pas facile, il faut parfois crier un peu, mais au final souvent, il réussit.
La parole change pour les millions de personnes ayant des problèmes qui les obligent à utiliser des prothèses auditives: aussi avancés soient-ils, ces appareils n'ont pas la capacité de se concentrer sur un son spécifique et vous pouvez être submergé par le bruit, ce qui fait une conversation en endroits bondés pour les personnes malentendantes.
Pour faire face au problème une équipe de chercheurs de l'Université de Columbia a développé un nouvel appareil qui identifie, sélectionne et isole uniquement la voix que vous souhaitez entendre. L'étude est partie d'une première évaluation: les ondes cérébrales de l'auditeur ont tendance à se «synchroniser» avec celles du locuteur.
Pour cette raison, les chercheurs ont développé un modèle d'IA capable d'encoder et de séparer de nombreuses voix présentes dans un environnement, de comparer le schéma vocal résultant avec les ondes cérébrales de l'auditeur et d'amplifier uniquement celle qui correspond le mieux.
"Le résultat est un algorithme qui peut séparer les voix sans aucune formation," explique le docteur Nima Mesgarani, auteur de l'étude publiée par la revue Science Advances.
Si vous n'êtes pas clair, jetez un œil à la démonstration de cette technologie : sa capacité à isoler les voix est impressionnante.
Voici une petite animation de l'Université de Columbia qui illustre comment cela fonctionne.
Voici l'étude: Décodage de l'attention auditive indépendante du locuteur sans accès à des sources vocales propres.