Les émotions humaines sont encore trop complexes pour l'IA
Par June Cantillon - Publié le
Microsoft, Amazon et Google commercialisent déjà des logiciels de reconnaissance des émotions sous forme d'algorithmes. L'IA aura alors tendance à estimer une personne en colère si cette dernière présente une mine renfrognée (front plissé et lèvres pincées), ou l'étonnement avec des yeux et une bouche grands ouverts.
Selon une nouvelle étude approfondie (deux années à analyser les résultats de plus de 1000 études), la machine serait bien capable de détecter efficacement une mine renfrognée, cela ne correspondrait pourtant à la colère que dans seulement 30% des cas. Les émotions humaines sont très variées, et les réactions dépendent énormément du contexte et de la personnalité du sujet, ce que la machine ne sait pas encore analyser correctement.
De plus, les différents tests effectués -dont les résultats nourrissent en données les algorithmes d'apprentissage automatique- sont souvent biaisés, et/ou incomplets. Ainsi, les scientifiques précisent que certains tests utilisent des acteurs exagérant les expressions, et que le nombre de possibilités pour les examinateurs est réduit à quelques émotions (souvent entre 6 et 8). Les spécialistes estiment qu'il sera certainement possible à l'avenir d'obtenir des résultats satisfaisants, mais redoutent les effets néfastes et la prolifération de la technologie commercialisée actuellement, trop peu fiable selon eux.
Source