adieu la barrière de la langue ?

Ray Ban Meta


Avec ses lunettes Ray-Ban, Meta promet de traduire en temps réel les conversations des utilisateurs. Nous avons testé les lunettes intelligentes pour découvrir si celles-ci sont bel et bien parvenues à faire tomber la barrière de langue. Verdict.

Meta vient de déployer une série de nouvelles fonctionnalités sur ses lunettes connectées Ray-Ban. Désormais, les lunettes intelligentes, qui font un carton dans le monde, sont capables de traduire en temps réel les conversations de leur porteur. Il suffit qu’un interlocuteur vous parle dans une langue étrangère pour que les lunettes traduisent ses paroles. Par le biais du haut-parleur situé dans les branches, vous entendrez la traduction en français. Sur le papier, c’est une fonction qui s’annonce tout simplement révolutionnaire.

Avant de vous proposer un test complet des lunettes intelligentes, nous avons longuement testé ce système de traduction en temps réel particulièrement ambitieux et prometteur. Meta est-il vraiment parvenu à faire tomber la barrière de la langue ? On fait le point.

À lire aussi : De nouveaux chiffres officiels confirment le succès des lunettes connectées Ray-Ban de Meta

La traduction en temps réel de Meta, comment ça marche ?

Dans un premier temps, le système de traduction de Meta est cantonné à une poignée de langues, à savoir le français, l’anglais, l’italien, et l’espagnol. Vous pouvez choisir de traduire de l’anglais en français, de l’italien en espagnol, ou de l’espagnol en anglais. Toutes les combinaisons sont possibles.

Avant de pouvoir traduire une conversation, vous allez devoir télécharger le pack contenant chacune des langues par le biais de l’application compagnon, Meta AI (autrefois Meta View). Il ne faut que quelques secondes pour télécharger et installer une langue sur l’accessoire. Dès que c’est fait, vos lunettes sont capables de traduire des conversations à la demande.

© 01Net

Attention, vous devrez réinstaller une langue si vous décidez d’avoir une conversation dans celle-ci. Si vous échangez avec une personne anglophone, et que vous vous mettez à parler avec un interlocuteur qui parle l’espagnol ou l’italien, vous devrez réinstaller et reconfigurer le système de traduction. Toute l’opération ne prend que quelques secondes, et ne nécessite que quelques manipulations simples. Notez que la traduction fonctionne même si vous n’avez plus de connexion Internet. Tout se passe en local directement sur les lunettes une fois que le pack a été installé. La traduction ne demande donc pas de connexion Internet ultra-rapide pour fonctionner.

Pour activer la fonctionnalité, il suffit d’interpeller l’assistant vocal des lunettes, Meta AI, en lui disant « Hey Meta, lance la traduction en direct ». Bonne nouvelle, il ne faut pas prononcer exactement ces mots clés. Selon nos expérimentations, l’assistant réagit également si vous lui demandez « d’activer la traduction » ou de « lancer la traduction simultanée ».

Pour répondre à votre interlocuteur, vous allez devoir compter sur l’écran de votre smartphone. Dans l’application Meta AI, vous allez en effet avoir accès à une retranscription texte des traductions. Afin de répondre, il suffit de prononcer ce que vous souhaitez et les lunettes afficheront la traduction dans l’application. Vous devrez donc montrer l’écran de votre téléphone à la personne avec qui vous discutez. Le fait de devoir passer par une traduction texte sur le smartphone « casse » un peu l’expérience. C’est dommage, mais c’est inévitable.

À lire aussi : Apple prépare sa riposte aux lunettes connectées de Meta et Ray-Ban

Qu’est-ce que vaut vraiment la traduction instantanée des Ray-Ban ?

Une fois que tout était prêt, nous avons testé la traduction en temps réel en conversant avec une personne qui nous a parlé en anglais. De notre côté, nous lui répondions en français. Dès les premières secondes, la magie opère. Quand la personne termine sa phrase, les lunettes se chargent de la traduire et de diffuser la traduction dans les branches. Quand nous répondions, la traduction ad-hoc s’affichait dans l’application. Tout se déroule sans accroc. Les traductions sont généralement justes et pertinentes.

Meta Ai Traduction
© 01Net

Pour peu que votre interlocuteur ne parle pas à la vitesse de l’éclair, les lunettes traduisent vraiment en temps réel, ce qui limite les temps morts. Il ne faut pas attendre de longues et gênantes secondes pendant que les Ray-Ban traduisent vos échanges. Tant que chaque protagoniste attend que son interlocuteur termine ses phrases, les lunettes vont tenir le rythme. Il sera possible d’avoir une vraie conversation.

Néanmoins, le système de traduction de Meta est encore loin d’être infaillible. Nous avons testé l’outil avec une émission américaine comprenant deux personnes. Dans ce cas de figure, les lunettes se mettent rapidement à ramer. Elles ne tiennent pas le rythme. Vous vous retrouvez rapidement à entendre la traduction pendant qu’une autre phrase a déjà commencé.

Bref, il n’est pas possible d’échanger avec plus d’une personne. De même, vous pourrez difficilement tenir la conversation avec une personne qui parle très très vite, sans vous laisser le moindre répit. Les lunettes afficheront rapidement un temps de retard de plus en plus conséquent. Quand ça arrive, le système a tendance à « bâcler » les traductions. Au lieu de traduire l’intégralité d’une phrase, Meta AI va se contenter de quelques mots, ce qui n’aide pas vraiment à suivre le fil d’une conversation.

Rayban Meta 2
© 01net

Parfois, le système ne comprend pas le contexte d’une conversation et certains mots seront mal traduits. L’outil semble ne pas comprendre toutes les nuances de la langue. De temps en temps, les lunettes restent également silencieuses, même si votre interlocuteur continue de parler. Dans ce cas-là, on a essayé de relancer le système en interpellant les lunettes avec un « Hey Meta ». En vain. On a bien essayé de rouvrir l’application et de la relancer, mais les lunettes sont restées muettes, comme figées au beau milieu d’une tache. De temps à autre, elles traduisaient aléatoirement un mot issu de la conversation. Ce phénomène s’est produit à plusieurs reprises. On a aussi remarqué que le système n’appréciait pas l’argot ou les gros mots.

L’accessoire idéal pour les voyages à l’étranger

En résumé, les lunettes de Meta proposent une solide expérience de traduction en temps réel. La fonctionnalité permettra de faciliter les échanges les plus courants, notamment si vous partez en voyages dans un pays étranger dont vous ne parlez pas la langue locale. On s’imagine bien porter les Ray-Ban pour réserver une chambre dans un hôtel, demander des informations complémentaires ou commander un plat dans un restaurant.

Rayban Meta 3
© 01net

En dehors de ces cas de figure, les lunettes risquent de ne pas suffire pour casser la barrière de la langue. N’espérez pas tenir une longue conversation complexe uniquement grâce à elles.  Le système de traduction n’est pas assez efficace ni assez intelligent pour ça. De même, méfiez-vous des conversations dans un lieu bruyant. Les lunettes risquent de ne pas bien entendre les paroles de votre interlocuteur et de rester inactives.

Gardons à l’esprit que le système de traduction en temps réel de Meta est appelé à évoluer. Dans les années à venir, la fonction fera vraisemblablement son retour sur les prochaines versions des lunettes intelligentes. Gageons que la traduction sera de plus en plus efficace… au point de rendre l’apprentissage d’une nouvelle langue obsolète ? Seul l’avenir nous le dira.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.