Google a dévoilé une série de nouveaux outils et fonctionnalités d’IA à la conférence I/O, en utilisant le terme Gemini 95 fois et AI 92 fois. Mais pour moi la meilleure de l’évènement concerne les lunettes Android XR.
Pour la première fois, Google a donné au public un aperçu de ses nouvelles lunettes connectées. Elles embarquent l’assistant Gemini, des verres avec des écrans, des haut-parleurs, des caméras et des micros. Le tout dans le format de lunettes traditionnelles. J’ai eu l’occasion de les porter pendant cinq minutes. Et j’ai vu fonctionner l’assistance visuelle de Gemini, j’ai pris des photos et suivi des instructions de navigation.
En tant qu’utilisateur de Meta Ray-Ban, je n’ai pas pu m’empêcher de remarquer les similitudes et les différences entre les deux modèles. Ainsi que les caractéristiques que je souhaiterais voir intégrées dans ma paire de Meta.
1. Des écrans dans les verres
Kerry Wan/ZDNET
La plus grande différence entre les lunettes sous Android XR et les Meta Ray-Ban est l’inclusion d’un écran dans les verres. Les lunettes Android XR ont un écran qui est utile dans toutes les situations impliquant du texte, comme lorsque vous recevez une notification, traduisez de l’audio en temps réel, discutez avec Gemini ou naviguez dans les rues de votre ville.
Les Meta Ray-Ban, eux, n’ont pas d’écran. Et bien que d’autres lunettes connectées comme les Halliday en aient un, l’interaction implique de lever les yeux vers le module optique placé sur la monture. Ce qui rend l’expérience évidemment moins naturelle. Et l’écran est limité dans ce qu’il peut montrer, car il n’est pas très fluide. Ici, la possibilité de voir des éléments autres que du texte ajoute une autre dimension à l’expérience.
Par exemple, la partie de la démonstration que j’ai préférée a été l’utilisation des lunettes connectées pour prendre une photo. Après avoir cliqué sur le bouton situé au-dessus du verre, j’ai pu prendre une photo de la même manière qu’avec les Meta Ray-Ban. Cependant, la différence est qu’après avoir pris la photo, je pouvais voir les résultats sur le verre, en couleur et avec des détails assez nets.
Bien que le fait de pouvoir voir l’image n’ait pas été particulièrement utile, cela m’a donné un aperçu de ce que cela pourrait donner d’avoir un écran superposé et toujours actif intégré à vos lunettes de tous les jours. Et toutes les possibilités que cela permet.
2. L’assistance de Gemini
Kerry Wan/ZDNET
Google améliore en continu son assistant Gemini en intégrant ses modèles d’intelligence artificielle les plus avancés, ce qui en fait un assistant d’IA de plus en plus performant et fiable. D’après mon expérience et les comparaisons de différents modèles, je trouve que Gemini est plus performant que Meta AI, l’assistant actuellement utilisé dans les lunettes connectées Ray-Ban de Meta.
Ma préférence repose sur plusieurs facteurs. Notamment les outils plus avancés de Gemini, tels que Deep Research, la génération de code et les capacités de conversation plus nuancées. Ce sont des domaines dans lesquels Gemini possède actuellement un avantage sur Meta AI.
Et une autre différence notable concerne la sécurité du contenu.
Gemini dispose de garde-fous plus stricts pour générer des contenus sensibles, tels que des images de personnalités politiques. Et ce alors que Meta AI est plus souple. On ne sait pas encore combien de fonctionnalités de Gemini seront transférées aux lunettes de Google. Mais si l’expérience complète est mise en œuvre, je pense qu’elle donnera aux lunettes connectées Android un avantage concurrentiel.
3. Un facteur de forme léger
Sabrina Ortiz/ZDNET
Bien qu’elles ne soient pas très différentes des Ray-Ban Meta Wayfarer, les lunettes XR de Google sont nettement plus légères que celles de Meta. Dès que je les ai mises, j’ai été un peu étonnée par le fait qu’elles étaient bien plus légères que ce à quoi je m’attendais. Prudence toutefois, un véritable test de confort nécessiterait de les porter pendant une journée entière. Et il est également possible que les lunettes deviennent plus lourdes au moment de leur production. Mais pour l’instant, cela semble être une grande réussite.
Si les lunettes conservent leur légèreté actuelle, il sera beaucoup plus facile de profiter pleinement de l’assistance de l’IA dans dans la vie quotidienne. Le port prolongé de ces lunettes ne sacrifierait pas le confort, en particulier au niveau de l’arête du nez et derrière les oreilles.
En fin de compte, ces lunettes servent de pont entre l’assistance de l’IA et le monde physique. Et ce lien ne fonctionne que si vous êtes prêt et capable de les porter régulièrement.
Source : « ZDNet.com »