Les lunettes connectées de Ray-Ban et Meta vont gagner un assistant dopé à l’intelligence artificielle. Les utilisateurs pourront lui demander de traduire du texte, d’identifier des animaux et des fruits, ou encore des bâtiments. Une entrée en matière qui semble prometteuse, d’après un premier test grandeur nature.
Lancée en septembre dernier, la deuxième génération des lunettes connectées de Meta et de Ray-Bansavent prendre des photos et surtout, elles peuvent diffuser des vidéos en streaming. À cela s’ajoute des haut-parleurs intégrés aux branches pour écouter de la musique ou un coup de fil. À partir du mois d’avril, elles gagneront en intelligence grâce à une grosse une mise à jour logicielle.
Un assistant bon à tout faire ou presque
Meta va en effet intégrer une IA multimodale dans les lunettes pour leur permettre de percevoir, de comprendre et d’interagir avec l’environnement de l’utilisateur. Autrement dit, grâce à leur capteur photo, elles verront ce que vous voyez. Il devient donc possible de demander à l’assistant (« Hey Meta ») de décrire un objet ou un animal, de traduire un texte ou encore de « rédiger une légende pour une photo» que l’on vient de prendre, comme l’expliquait l’entreprise au mois de décembre.
Lire Les lunettes de Meta et Ray-Ban s’améliorent grâce à l’IA, voici ce qui va changer
Et selon le New York Times qui a pu tester ces lunettes dopées à l’IA pendant quelques semaines, les résultats sont… plus ou moins convaincants. La fonction de reconnaissance des animaux et de leur race marche bien tant que les animaux en question ne sont pas trop loin (c’est plus difficile dans un zoo). L’intelligence artificielle peut aussi renseigner sur les caractéristiques d’un aliment (gluten ou sans gluten ?) et donner un coup de main à la cuisine en énonçant les étapes d’une recette.
La reconnaissance des monuments est fonctionnelle sans plus, les lunettes ayant manifestement besoin d’un point de repère distinct pour identifier parfaitement un bâtiment. Pour ce qui concerne les œuvres d’art, les lunettes peuvent les décrire et Meta promet d’enrichir l’expérience en précisant le nom de l’artiste et de l’œuvre en question. Enfin, la traduction est disponible en anglais, allemand, italien, espagnol et français.
Si la mise à jour sera disponible courant avril, les utilisateurs américains ont toujours la possibilité de s’enregistrer au programme d’aperçu pour tester cette IA dès maintenant.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source :
NYT