Google travaille sur la dictée et l’assistant vocal pour les personnes ayant des troubles de la parole

Google Travaille Sur La Dictée Et L'assistant Vocal Pour Les

Les logiciels de dictée et les assistants numériques ont fait de grands progrès au cours des 10 dernières années, mais ils ne peuvent toujours pas comprendre qui a des troubles objectifs de la parole, comme les personnes handicapées, les maladies invalidantes ou les troubles de la parole.

Les algorithmes de reconnaissance vocale utilisés par les smartphones et les haut-parleurs intelligents pour comprendre ce que disent les utilisateurs se sont avérés très utiles, mais ils sont loin d’être parfaits. En particulier, les logiciels de dictée et les assistants numériques ne peuvent toujours pas comprendre qui a des obstacles objectifs à l’expression, tels que les personnes handicapées, les maladies invalidantes ou les troubles de l’appareil vocal ; Google s’efforce de résoudre le problème et a annoncé ces derniers jours le lancement public de Project Relate, un programme d’étude dans lequel il demandera aux utilisateurs concernés par ces conditions de contribuer avec l’audio à envoyer à l’entreprise, offrant en échange un accusé de réception .Voix calibrée au mieux sur les caractéristiques individuelles de chaque enceinte.

Les assistants vocaux et les systèmes de dictée reposent sur la même technologie : des algorithmes qui analysent les formes d’onde captées par les microphones installés sur les appareils pour les traduire en phonèmes, puis en syllabes, et enfin en mots et phrases significatifs. Le fonctionnement de ces algorithmes est dû à un entraînement qui les aide à faire des correspondances entre les sons et les lettres qui leur correspondent, c’est pourquoi ils ne sont pas particulièrement adaptés pour gérer des écarts trop importants par rapport aux prononciations les plus utilisées. Si des accents régionaux trop marqués peuvent engendrer une confusion dans les algorithmes, la situation est aggravée dans le cas des personnes ayant des difficultés d’élocution : le système ne dispose pas de suffisamment de données pour former un modèle de compréhension suffisamment précis.

L’initiative lancée dans ces heures part d’une application à double vocation. D’une part, il demandera aux utilisateurs d’enregistrer une série de phrases prédéfinies, qui entreront dans une base de données visant à créer des modèles de reconnaissance vocale adaptés aux besoins particuliers de cette catégorie de personnes. D’autre part, il offrira trois fonctions : une fonction d’écoute qui retranscrit ce qui est dit, semblable à une dictée en temps réel ; une fonction de répétition qui, après avoir écouté ce qui a été dit, le fait relire par un moteur de synthèse vocale ; une fonction d’assistance qui rappelle les fonctions de l’Assistant Google, toutefois enrichies par les algorithmes du Projet Relate. Malheureusement pour l’instant le système ne fonctionne qu’en anglais, mais l’idée est de le rendre également compatible avec d’autres langues.

Google vous dira quand il va pleuvoir tout d’un coup