C'est là que ça se passe

Donner la parole aux muets

Des chercheurs travaillent sur une interface cerveau-machine. Couplée à un synthétiseur vocal, elle pourrait redonner la parole à certaines personnes muettes atteintes d'aphasie.

Faire reparler les muets aphasiques, c’est le pari ambitieux des chercheurs du Laboratoire BrainTech (Inserm), du GIPSA-Lab et du CHU de Grenoble. “L’idée est d’enregistrer les aires corticales de la parole, de décoder leur activité pour prédire ce que le patient a l’intention de dire, puis d’envoyer l’information à un synthétiseur vocal qui le dira à sa place”, explique Blaise Yvert, directeur de recherche au laboratoire BrainTech.

 

Une neuroprothèse vocale sur le modèle des neuroprothèses motrices

 

Le principe est le même que pour les neuroprothèses motrices, ces membres artificiels que des patients tétraplégiques peuvent actionner par la pensée. Publiée pour la première fois en 2006 par des chercheurs de l’université de Brown, à Rhodes Island, cette technique permet de relier une prothèse du bras au cerveau du patient, et de prédire les mouvements qu’il souhaite exécuter à partir de l’activité du cortex moteur.

“C’est un peu pareil pour la parole, compare Blaise Yvert. Il y a une zone du cortex moteur qui s’active lorsque l’on parle et cette activité est différente selon que l’on bouge la langue, les lèvres, la mâchoire, ou que l’on vocalise avec le larynx. Si on arrive à enregistrer ces cellules, et à interpréter précisément leur activité, il devrait donc être possible de prédire les mouvements du conduit vocal qui sont effectués lorsque l’on parle. Et si on connaît précisément les mouvements du conduit vocal, il est désormais possible de traduire cela en mots.”

 

Fonctionnement du synthétiseur vocal : les capteurs enregistrent les mouvements de l'articulation silencieuse, puis un algorithme les décode pour les convertir en temps-réel en une parole de synthèse. Crédits - CNRS/Bocquelet et al.

Fonctionnement du synthétiseur vocal : les capteurs enregistrent les mouvements de l’articulation silencieuse, puis un algorithme les décode pour les convertir en temps-réel en une parole de synthèse. Crédits – CNRS/Bocquelet et al.

 

Cette première étape a été franchie par les équipes du laboratoire Braintech et de GIPSA-lab en novembre dernier. Les chercheurs ont en effet mis au point un synthétiseur vocal pilotable en temps réel à partir des seuls mouvements articulatoires, et capable de reconstituer la parole d’une personne articulant silencieusement. Ce modèle de machine learning (algorithme d’apprentissage automatique) décode les mouvements articulatoires à l’aide de capteurs posés sur la langue, les lèvres et la mâchoire, et les convertit en temps réel en parole de synthèse. L’étape suivante sera de prédire les mouvements du conduit vocal en fonction de l’activité corticale.

 

Vers une interface cerveau-machine pour faire parler les muets

 

“Pour l’instant, le détail des activités cérébrales dans les aires de la parole restent encore peu connues, souligne Blaise Yvert.” Pour y remédier, les équipes viennent de lancer un protocole visant à enregistrer ces activités chez des patients au CHU de Grenoble dans deux situations différentes. La première consiste à intervenir en lien avec les neurochirurgiens au bloc opératoire, en chirurgie éveillée, lors de l’ablation de zones pathogènes. La seconde cible des patients épileptiques qui séjournent deux semaines à l’hôpital, pour localiser la zone épileptique responsable de leurs crises à l’aide d’électrodes implantées. Une aubaine pour les chercheurs.

“Il est difficile de savoir à quelle échéance nous aurons les premiers résultats, explique Blaise Yvert. Nous cherchons encore des patients qui nous aideront à progresser.” À terme, l’objectif est que l’interface cerveau-machine puisse redonner la parole à certaines personnes aphasiques chez qui les fonctions cérébrales sont préservées. Des patients victimes d’un syndrome d’enfermement à la suite d’une lésion du tronc cérébral, ou des individus atteints de la maladie de Charcot pourraient ainsi se remettre à parler.

 

 

“La prochaine étape sera de réaliser un PoC (“proof of concept”, réalisation expérimentale préliminaire d’un projet afin d’en montrer la faisabilité, ndlr), où la synthèse se fera via un ordinateur traitant en temps réel les activités corticales. Mais nous en sommes encore loin”, explique le chercheur. Commenceront alors à se poser des questions plus pratiques : la miniaturisation du synthétiseur ou la personnalisation de la voix de synthèse, pour en faire un dispositif utilisable au quotidien.

Pour aller plus loin