Les Ray-Ban Meta viennent de recevoir une mise à jour qui introduit trois fonctionnalités importantes. Les deux premières ne sont disponibles que pour les membres du programme Early Access (pas disponible en France) tandis que la troisième est disponible pour tous les utilisateurs américains et canadiens.
L’IA voit ce que vous voyez
Tout d’abord, il y a l’IA en direct. Les lunettes Meta disposent déjà de capacités d’IA, mais cette dernière mise à jour ajoute la prise en charge de la vidéo. Au cours d’une session d’IA en direct, Meta explique que les lunettes peuvent voir ce que la personne voit et animer une conversation plus naturellement que jamais.
Par exemple, si vous cuisinez, vous pouvez demander : « De quelle quantité de sel ai-je besoin pour cette recette de ragoût ? » ou « Y-a-t-il un substitut au beurre et de quelle quantité aurais-je besoin ? » Si vous êtes dans un nouveau quartier, vous pouvez demander : « Quelle est l’histoire derrière ce monument ? » ou « Ce monument a-t-il été construit en même temps que le précédent ? » Meta a également donné l’exemple de porter des lunettes dans votre jardin et de demander : « À quelle fréquence ces plantes doivent-elles être arrosées ? » ou « Où est-il bon d’installer cette plante ? »
De la traduction en temps réel
On peut poser des questions sans utiliser systématiquement le mot clé « Hey Meta », faire référence à quelque chose évoqué précédemment, poser une question complémentaire ou même changer de sujet. Meta assure que l’IA en direct sera même capable de proposer des suggestions avant même que vous ne posiez la question.
Après avoir présenté cette fonctionnalité plus tôt cette année lors de sa conférence Connect, Meta déploie aussi la traduction en temps réel. Les lunettes peuvent traduire une conversation en temps réel entre l’anglais et l’espagnol, le français ou l’italien. Si vous écoutez quelqu’un parler dans l’une de ces langues, vous entendrez une traduction en anglais via les haut-parleurs des lunettes ou la verrez sous forme de transcription sur votre téléphone.
Avant cela, il faudra télécharger les langues que vous souhaitez traduire la première fois que vous utiliserez cette fonctionnalité, et vous devrez sélectionner la langue que vous souhaitez traduire. La détection n’est pas automatique comme avec Google Traduction.
Intégration de Shazam
Enfin, les Ray-Ban Meta peuvent désormais utiliser Shazam pour identifier une chanson diffusée à proximité. Demandez simplement : « Dis Meta, quelle est cette chanson ? » et vous obtiendrez votre réponse en mode mains libres.