Les lunettes intelligentes MetaRay-Bans ont commencé à lancer de nombreuses fonctions d'IA : prise de photos, calcul des calories alimentaires, identification des plantes, traduction, etc. Les lunettes universelles qui apparaissent fréquemment dans les films d'espionnage deviennent progressivement une réalité. Les Google Glass sont mortes et le casque d’Apple n’est pas encore en vente, mais le marché des appareils portables est plus chaud que jamais – grâce à l’IA.

Meta, qui avait pleinement misé sur le métaverse mais n'a pas réussi, a trouvé un nouveau terrain d'essai : les appareils portables IA. Le 12 décembre, les lunettes intelligentes MetaRay-Bans, un nouveau produit développé conjointement par Meta et la société de lunettes de soleil de luxe Ray-Bans, ont commencé à lancer un certain nombre de fonctions d'IA : prendre des photos, compter les calories des aliments, identifier les plantes, traduire, etc. Les lunettes universelles qui apparaissent fréquemment dans les films d'espionnage deviennent progressivement une réalité.


Nouvelle fonction des lunettes Meta : excitation vocale, opération lourde mais inédite


À en juger par les médias et le procès de Zuckerberg, les performances de la fonction IA des lunettes intelligentes MetaRay-Bans semblent plutôt bonnes.

Semblable à l'assistant vocal Siri d'Apple, l'IA dans les lunettes doit être évoquée par la commande vocale "HeyMeta". MetaCEO Zuckerberg a montré une vidéo d'utilisation sur Instagram.

Sur la photo, il a d'abord choisi une chemise dans la garde-robe, puis a crié "HeyMeta" et a demandé à l'assistant IA de lui indiquer le style de pantalon qui pourrait correspondre à la chemise.

L'assistant IA a répondu par la voix, décrivant d'abord correctement la chemise comme une "chemise à rayures foncées", suggérant ensuite à Zuckerberg de porter un jean foncé ou un autre pantalon de couleur unie.

Zuckerberg a également démontré les capacités de traduction de l'assistant IA et a montré quelques exemples d'utilisation à travers des images.


De plus, lors de tests réalisés par d'autres médias, les lunettes intelligentes MetaRay-Bans ont également démontré d'autres fonctions intéressantes.

Par exemple, parmi quatre sachets de thé contenant de la caféine noircie, les verres pourraient indiquer à celui qui les porte lequel ne contient pas de caféine en lisant l'étiquette.

Les lunettes peuvent également identifier les plantes et les fruits visibles, et la précision a semblé élevée lors des essais médiatiques. Vous pouvez également disposer certains ingrédients et condiments et laisser les verres générer une recette.

Toutes les conversations et photos visualisées par l'IA sont stockées dans l'application mobile MetaView fournie avec les lunettes.

Certains journalistes ont déclaré que même si la commande « HeyMeta » doit être criée fréquemment, la vitesse de réponse globale des lunettes est très rapide et il y a peu d'erreurs. Les lunettes peuvent être utilisées comme un moteur de recherche Google monté sur la tête et activable à tout moment.

L'IA multimodale renforce les appareils portables

Dès septembre de cette année, dans une interview avec les médias, Zuckerberg a révélé que Meta lancerait des fonctions d'intelligence artificielle multimodale sur des lunettes intelligentes. La multimodalité fait référence à l’intelligence artificielle qui prend en charge plusieurs formes de saisie multimédia telles que le texte, les images et la voix.

Bien que ces fonctions soient déjà courantes dans les logiciels d’IA de bureau, les déplacer vers des lunettes semble encore assez récent.

Selon certaines informations, Meta prévoit également de permettre à l'avenir aux lunettes de détecter les données sensorielles du corps humain afin d'améliorer encore les capacités multimodales. La puce Qualcomm AI montée sur les lunettes semble bien fonctionner jusqu'à présent, et Meta prévoit d'optimiser davantage le processus d'utilisation à l'avenir.

Le MetaCTO Andrew Bosworth a déclaré en septembre qu'en raison des limitations de la durée de vie de la batterie, les lunettes intelligentes doivent désormais être activées par la voix, mais que les futures itérations pourraient être équipées de capteurs à faible consommation capables de détecter intelligemment les scénarios nécessitant l'utilisation de l'IA et de s'activer.

Actuellement, les lunettes Meta sont en vente au prix de 300 $. La fonction IA en est à ses premiers stades de test et n’est disponible que pour certains utilisateurs. Cependant, il convient de souligner que Meta a également déclaré qu'elle utiliserait des données anonymes pour contribuer à améliorer les services d'IA des lunettes, ce qui pourrait mettre mal à l'aise de nombreux utilisateurs préoccupés par la confidentialité.