Vision Framework : Apple introduit la détection des positions du corps et des mains
Par June Cantillon - Publié le
Apple a détaillé le fonctionnement de Vision Framework dans une vidéo destinée aux développeurs aujourd'hui. Cette fonctionnalité permet d'analyser les poses et les mouvements des sujets d'une image ou d'une vidéo afin d'en reconnaître certains, et de permettre des interactions créatives.
L'algorithme fonctionnera mieux avec des mains nues, et des vêtements peu amples, et pourra avoir quelques difficultés à détecter correctement des sujets qui seraient trop proches. Si les personnes sont bien cadrées, les applications pourraient reconnaître de bon mouvements (par exemple pour un jeu de danse, ou pour un cours de yoga), ou bien réagir à certains signes effectués avec les mains (comme valider une action en joignant l'index et le pouce).