Les mal-voyants n'auront plus besoin de cannes blanches grâce à cette caméra
Par Laura Tibourcio de la Corre - Publié le
Appréhender leur environnement peut être un véritable défi pour les mal-voyants. GIST (Gestural Interface for Remote Spatial Perception) est un projet développé par des chercheurs de l'université du Nevada permettant aux aveugles d'obtenir des informations sur ce qui les entoure.
L'équipe utilise le capteur de la kinect afin de collecter des informations et s'est inspirée du projet Sixth Sense mené en parallèle au MIT. La grande différence réside dans le fait que l'utilisateur maîtrise le système à l'aide de gestes pré-programmés. Par exemple, si l'utilisateur forme un V avec son index et son majeur, GIST lui donnera la couleur dominante de la surface délimitée. Si l'utilisateur tient son poing fermé dans une direction, le système saura lui dire si une personne se tient par là et à quelle distance elle se trouve.
Les chercheurs veulent aller plus loin et permettre aux utilisateurs de contrôler la caméra par la voix et d'utiliser sa capacité à reconnaitre des objets. Ainsi, il pourrait lui montrer un verre par exemple, et lui demander par la suite où est passé ce verre. L'histoire ne dit pas encore comment le système le retrouvera s'il se retrouve hors champ ou carrément derrière la personne. D'autre part l'équipe aimerait être en mesure d'intégrer une base de données afin que la caméra puisse dire à l'utilisateur qui se tient devant lui.
Le projet n'est encore qu'au stade de développement académique mais les résultats semblent prometteurs. De plus l'arrivée de nouvelles lunettes connectées et autres
Source
L'équipe utilise le capteur de la kinect afin de collecter des informations et s'est inspirée du projet Sixth Sense mené en parallèle au MIT. La grande différence réside dans le fait que l'utilisateur maîtrise le système à l'aide de gestes pré-programmés. Par exemple, si l'utilisateur forme un V avec son index et son majeur, GIST lui donnera la couleur dominante de la surface délimitée. Si l'utilisateur tient son poing fermé dans une direction, le système saura lui dire si une personne se tient par là et à quelle distance elle se trouve.
Les chercheurs veulent aller plus loin et permettre aux utilisateurs de contrôler la caméra par la voix et d'utiliser sa capacité à reconnaitre des objets. Ainsi, il pourrait lui montrer un verre par exemple, et lui demander par la suite où est passé ce verre. L'histoire ne dit pas encore comment le système le retrouvera s'il se retrouve hors champ ou carrément derrière la personne. D'autre part l'équipe aimerait être en mesure d'intégrer une base de données afin que la caméra puisse dire à l'utilisateur qui se tient devant lui.
Le projet n'est encore qu'au stade de développement académique mais les résultats semblent prometteurs. De plus l'arrivée de nouvelles lunettes connectées et autres
wearable technologiespourrait aider à l'essor de telles aides à la personne.
Source