Des chercheurs reconstituent la parole grâce à un synthétiseur
Des chercheurs français ont conçu un synthétiseur vocal pilotable en temps-réel uniquement à partir des mouvements articulatoires de la bouche.
Ce synthétiseur, conçu par des chercheurs du Centre national de la recherche scientifique (CNRS) et de l'Institut national de la santé et de la recherche médicale (INSERM), est capable de reconstituer la parole d’une personne articulant silencieusement, c’est-à-dire bougeant sa langue, ses lèvres, sa mâchoire, mais ne vocalisant pas.
"Un algorithme d’apprentissage automatique est utilisé pour décoder ces mouvements articulatoires à l’aide de capteurs posés sur la langue, les lèvres et la mâchoire, et les convertir en temps-réel en une parole de synthèse. La conversion d’une articulation silencieuse en un signal de parole intelligible a déjà fait l’objet de plusieurs travaux", indique le communiqué de presse du CNRS et de l'INSERM.
Ces nouveaux développements sont récemment publiés dans la revue PLoS Computational Biology. Les chercheurs expliquent avoir mis au point un "synthétiseur pilotable a priori par n’importe quel locuteur (après une courte période de calibration du système), et sur l’absence de restriction sur le vocabulaire, ce qui est classiquement le cas dans les systèmes de lecture labiale automatique (lip reading)".
Les résultats de cette étude ne sont qu'une première étape. Les chercheurs travaillent actuellement sur une interface cerveau-machine pour la restauration de la parole dont l’objectif, à terme, est de reconstruire la parole en temps réel, mais cette fois ci, à partir de l’activité cérébrale.