Actuellement, les API des Google Glass sont relativement limitées (tout juste si l'on peut obtenir la localisation toutes les 10mn...), et ne donnent pas accès à l'ensemble des fonctions disponibles. Rien de bien dingue à cela, c'était également le cas de l'iPhone à sa sortie, Apple se réserve parfois l'usage de certains capteurs à ses propres applicaztions, même s'il est aujourd'hui possible d'utiliser pratiquement tout (même les boutons du volume). En fouillant un peu, un développeur a réussi à
lister l'ensemble des puces présentes sur les lunettes.
Gyroscope, accéléromètre, capteur magnétique, d'orientation, de rotation, d'accélération, de gravité et même de lumière... Bref, grosso-modo, les Glass possèdent à peu près le même équipement qu'un smartphone un peu récent. Il est donc fort probable que Google libère petit à petit l'ensemble des fonctionnalités, ce qui permettrait aux développeurs de proposer des apps poussée en matière de réalité augmentée, notamment. Il est aussi possible que la firme limite les usages des capteurs pour des raisons évidentes d'autonomie : un GPS utilisé en permanence a vite fait de vider la batterie ! [
Source]