Siri pourrait s’adapter aux personnes ayant un défaut d’élocution
Par Laurence - Publié le
Dans ses petits cartons, Apple a rangé bien des projets et chercherait à améliorer Siri, notamment pour mieux comprendre les gens ayant un défaut d’élocution. Ainsi, The WSJ s’est intéressé à la manière dont sont formés les assistants vocaux pour gérer la parole atypique.
Afin d’entraîner Siri qui souffre de certaines lacunes par rapport à la concurrence, Cupertino aurait mis au point une banque de 28 000 séquences audio, à partir de podcasts avec des personnes qui bégayent. Les données recueillies serviraient à améliorer les systèmes de reconnaissance vocale.
En outre, Apple aurait également conçu une fonctionnalité dite
Enfin, de leur côté, Google et amazon travaillent également sur Google Assistant et Alexa pour mieux comprendre tous les utilisateurs, y compris ceux qui ont du mal à s’exprimer. Le premier collecte des données vocales atypiques, et le second a lancé en décembre le Alexa Fund pour créer un algorithme afin de reconnaître les habitudes vocales des personnes ayant des troubles de la diction.
Afin d’entraîner Siri qui souffre de certaines lacunes par rapport à la concurrence, Cupertino aurait mis au point une banque de 28 000 séquences audio, à partir de podcasts avec des personnes qui bégayent. Les données recueillies serviraient à améliorer les systèmes de reconnaissance vocale.
En outre, Apple aurait également conçu une fonctionnalité dite
Hold to Talkqui permet de contrôler la durée pendant laquelle un utilisateur souhaite que Siri écoute. Cette dernière empêche Siri de couper les utilisateurs (avec un trouble de la parole) avant qu'ils n'aient fini de parler. Apple prévoit de décrire ses travaux pour améliorer Siri dans un document de recherche qui sera publié cette semaine, qui fournira plus de détails sur les efforts de l'entreprise.
Enfin, de leur côté, Google et amazon travaillent également sur Google Assistant et Alexa pour mieux comprendre tous les utilisateurs, y compris ceux qui ont du mal à s’exprimer. Le premier collecte des données vocales atypiques, et le second a lancé en décembre le Alexa Fund pour créer un algorithme afin de reconnaître les habitudes vocales des personnes ayant des troubles de la diction.