les Snaps Specs sont là, et elles tournent …

les Snaps Specs sont là, et elles tournent ...



Le succès des Ray-Ban de Meta a contribué à démontrer qu’il existe une demande pour des lunettes connectées légères.

Et voici que Snap entre dans la danse avec ses toutes nouvelles lunettes de réalité augmentée Specs, qui ambitionnent de répondre aux principaux problèmes de leurs prédécesseurs.

Les lunettes Snap de nouvelle génération

Lors de l’Augmented World Exhibition (AWE) 2025, Snap a annoncé la nouvelle génération de ses lunettes Specs, centrées sur l’IA. Présentés dans un format plus léger et alimentés par Snapdragon, ces Specs utilisent l’apprentissage automatique pour comprendre le monde qui vous entoure. De quoi vous offrir une assistance IA dans votre vie de tous les jours. Ces lunettes proposent également des expériences AR de divertissement telles que des jeux partagés et une station de travail portable pour la navigation, le streaming et bien plus encore.

La cinquième génération de Spectacles est sortie en 2024. Mais elle n’était disponible que pour les développeurs, qui pouvaient créer de nouvelles expériences à l’aide des lunettes. Les nouvelles lunettes Specs seront également proposées sous la forme d’un kit de développement. Mais selon l’entreprise, ces versions préparent le terrain pour le lancement public des lunettes Specs en 2026.

Lorsque j’ai essayé la version de cinquième génération, j’ai été très impressionné par le réalisme de l’expérience de réalité augmentée et par la façon dont je me sentais ancré dans le monde tridimensionnel qui m’entourait. Mon principal reproche concernait le poids des lunettes. Et c’est ce qui rend cette mise à jour particulièrement bienvenue. Au-delà du matériel, le logiciel qui alimente les expériences – Snap OS – a également bénéficié d’une importante mise à jour.

Snap OS avec l’assistance IA

À l’ère de l’IA, les lunettes d’AR ne seraient pas considérées comme utiles si elles ne pouvaient pas également fournir une assistance IA. Pour répondre à cette demande, Snapchat inclut des intégrations profondes avec OpenAI et Google Gemini, que les développeurs peuvent utiliser pour créer des Lenses multimodales alimentées par l’IA. Snapchat fournit quelques exemples de cas d’utilisation pour les développeurs, tels que :

  • L’utilisation de l’IA pour fournir une traduction de texte
  • La conversion de devises
  • Des suggestions de recettes

Lors de la conférence Google I/O du mois dernier, Google a présenté ses lunettes connectées, qui intègrent aussi Gemini, des écrans à lentilles, des haut-parleurs, des caméras et des micros dans le format de lunettes traditionnelles. Au final, ma combinaison d’un facteur de forme léger, de l’assistance multimodale de l’IA et des lentilles AR de la nouvelle Specs ressemble à celles que l’on trouve sur les lunettes de Google.

L’entreprise a également présenté de nouvelles API :

  • Depth Module (module de profondeur)
  • Automated Speech Recognition (reconnaissance vocale automatisée)
  • Snap3D

Avec l’API Depth Module, Snap explique que les développeurs peuvent débloquer une meilleure intelligence spatiale en demandant à l’API de traduire les informations 2D à partir de grands modèles de langage (LLM) pour ancrer avec précision les informations de réalité augmentée dans les trois dimensions.

L’API de reconnaissance vocale automatisée propose une transcription en temps réel avec la prise en charge de plus de 40 langues avec une « grande précision ».

Enfin, les développeurs peuvent facilement générer des objets 3D à l’intérieur des Lenses via l’API Snap3D.

Des outils pour aider les développeurs à créer des expériences basées sur la localisation

Snap a également lancé des outils pour aider les développeurs à créer des expériences basées sur la localisation, dont :

  • Une application de gestion de flotte dans laquelle les développeurs peuvent surveiller et gérer plusieurs paires de Specs dans l’application
  • Le mode guidé, qui permet aux développeurs de programmer les Specs pour qu’elles se lancent directement en mode solo ou multijoueur
  • La navigation guidée, qui permet aux développeurs de créer des outils guidées par AR.

A noter que la prise en charge de WebXR dans le navigateur permettra bientôt aux développeurs de créer des expériences WebXR.

Si vous êtes un développeur intéressé par la création de Specs avant leur lancement public, vous pouvez vous inscrire au programme de développement.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.