Les Ray-Ban Meta gagnent la traduction instantanée, Shazam et plus encore
Par Vincent Lautier - Publié le
Des lunettes de plus en plus capables
Meta Platforms vient de déployer une nouvelle mise à jour pour ses lunettes Ray-Ban Meta. Annoncées en septembre dernier lors du Meta Connect 2024, ces améliorations concrétisent la promesse de rendre les lunettes plus intelligentes et interactives. Au programme : une IA capable d’analyser en continu l’environnement de l’utilisateur, une traduction automatique entre plusieurs langues et l’intégration de Shazam pour reconnaître les musiques en quelques secondes.
L’IA en mode Live
La nouveauté la plus importante de cette mise à jour (version 11) est la fonction
Live AI. Concrètement, les lunettes peuvent désormais voir ce que voit l’utilisateur en continu, analyser son environnement et répondre à des questions en temps réel. Plus besoin de prononcer
Hey Metaà chaque requête, l’IA peut interagir de manière plus fluide. Il est même possible d’interrompre la conversation ou de poser des questions de suivi. Meta mise sur une assistance mains libres, par exemple pour proposer des recettes en observant les aliments dans une cuisine ou pour guider l’utilisateur lors d’une promenade dans un quartier inconnu.
Pour l’instant, cette fonction est limitée à des sessions de 30 minutes. Mais avec cette mise à jour, les lunettes Ray-Ban franchissent un cap, en s’appuyant directement sur l’intelligence artificielle pour offrir une assistance contextuelle. Pour le moment en France les lunettes ne sont pas encore capables d’analyser ce qu’elles voient, mais Meta déploie progressivement les fonctions liées à l’IA en Europe, dont on peut imaginer que ça finira par arriver par chez nous aussi.
Traduction en temps réel
Autre ajout notable : la traduction instantanée. Les lunettes peuvent traduire les conversations entre l’anglais et trois langues – le français, l’espagnol et l’italien. Lorsqu’une personne s’exprime dans une de ces langues, l’utilisateur entend la traduction en anglais via les haut-parleurs intégrés ou peut consulter les transcriptions sur son smartphone. À l’inverse, ses réponses sont traduites dans la langue de l’interlocuteur. Une fonctionnalité qui vise clairement les voyageurs ou toute situation où la barrière de la langue peut poser problème. Là aussi il faudra attendre un peu pour que ça arrive chez nous, mais ça donne envie.
Shazam pour identifier les musiques
Pour les mélomanes, Meta a ajouté Shazam aux lunettes Ray-Ban. La fonction est simple : demandez
Hey Meta, quelle est cette chanson ?et l’IA identifiera le morceau en quelques secondes. Un ajout pratique pour reconnaître rapidement une musique sans sortir son téléphone. Et devinez quoi ? Pas tout de suite en Europe… On commence à avoir l’habitude.
Un positionnement stratégique pour Meta
Quoi qu’il en soit, même si par chez nous, il faut toujours attendre, avec ces nouvelles fonctionnalités, Meta continue d’étoffer l’offre des Ray-Ban Meta dans un secteur où l’intégration de l’IA est un argument majeur. En plus de répondre à des besoins concrets, ces améliorations permettent à Meta de se positionner face à des concurrents comme Google, qui avance aussi à grands pas sur ces sujets, en particulier aux côtés de Samsung, comme nous l’évoquions ici.
En plus d’être limitées à l’Amérique du Nord, seules les personnes inscrites au programme d’accès anticipé peuvent tester ces nouveautés. La version stable de cette mise à jour est attendue par chez eux début 2025.