tout ce que vos yeux voient peut être vu par la multinationale ou ses partenaires, y compris votre vie sexuelle

tout ce que vos yeux voient peut être vu par la multinationale ou ses partenaires, y compris votre vie sexuelle



Les lunettes connectées de Meta promettent une assistance virtuelle respectueuse de la vie privée. Une enquête explosive révèle pourtant que des sous-traitants sous-payés au Kenya analysent manuellement les séquences vidéos enregistrées par les utilisateurs, allant jusqu’à visionner des scènes de nudité ou des coordonnées bancaires.

Le contraste est saisissant entre le positionnement marketing des Ray‑Ban Meta, présentées comme un assistant numérique intégré au quotidien, et les réalités du traitement des données derrière ces lunettes.

Derrière le recours à l’intelligence artificielle censée analyser votre environnement se trouvent de nombreux travailleurs humains chargés d’en annoter les données. Une enquête conjointe menée par les journaux suédois Svenska Dagbladet et Göteborgs-Posten vient de lever le voile sur le traitement controversé des données personnelles issues de ces appareils.

Une plongée dans les aspects les plus intimes de la vie des utilisateurs

Les journalistes ont recueilli les témoignages de plusieurs employés de la société Sama. Ce sous-traitant kényan est chargé d’annoter les données visuelles pour entraîner l’intelligence artificielle de Meta. Les travailleurs affirment visionner quotidiennement des scènes de la vie privée des utilisateurs occidentaux.

De nombreux employés décrivent un dilemme moral et une forte pression psychologique liés à ce travail. L’un d’eux explique :

« Quand vous voyez ces vidéos, c’est l’impression que ça donne. Mais comme c’est un travail, vous devez le faire. Vous comprenez que vous regardez la vie privée de quelqu’un, mais en même temps, on attend juste de vous que vous fassiez le travail. Vous n’êtes pas censé poser de questions. Si vous commencez à en poser, vous êtes viré », raconte cet annotateur kényan.

Un de ses collègues illustre ce niveau d’intrusion en expliquant : « J’ai vu une vidéo où un homme pose les lunettes sur la table de chevet et quitte la pièce. Peu de temps après, sa femme entre et se change. »

Et le voyant LED ?

Depuis la première génération, les Ray-Ban de Meta affichent clairement lorsqu’elles prennent une photo ou enregistrent une vidéo. Le géant des réseaux sociaux a intégré un témoin lumineux sur la monture afin de répondre aux préoccupations en matière de confidentialité.

Cette présence n’a pas permis de lever complètement les doutes et les lunettes suscitent toujours des inquiétudes à ce sujet. Un bricoleur américain a d’ailleurs réussi à désactiver cette lumière témoin, permettant aux lunettes de prendre des photos ou de filmer sans que personne s’en rende compte.

Les limites de l’anonymisation des données ?

L’entreprise américaine assure officiellement que les visages sont automatiquement floutés avant d’être envoyés aux sous-traitants. Sur le terrain, la réalité technologique semble toutefois bien différente. Les algorithmes d’anonymisation montreraient des limites, particulièrement dans des conditions d’éclairage difficiles. Les employés kényans confirment que les filtres échouent régulièrement et laissent apparaître des visages et des corps parfaitement identifiables.

À lire aussi : Cette appli vous alerte si quelqu’un vous filme avec des lunettes connectées

Les annotateurs, chargés d’entraîner les systèmes d’IA, décrivent un niveau d’intrusion très élevé dans leur quotidien. Ils déclarent voir passer des cartes bancaires filmées par erreur, des personnes regardant de la pornographie, et même des scènes de sexe enregistrées intentionnellement ou non par les porteurs des lunettes.

« Nous voyons tout, des salons aux corps nus. Meta possède ce type de contenu dans ses bases de données. Les gens peuvent s’enregistrer de manière inappropriée sans même savoir ce qu’ils enregistrent. Ce sont des personnes réelles, comme vous et moi. »

Les révélations de cette enquête ont déjà provoqué des réactions en Europe. Kleanthi Sardeli, avocate spécialisée dans la protection des données pour l’organisation None Of Your Business, souligne un problème de transparence et de base légale. L’Europe s’inquiète d’autant plus que le Kenya ne bénéficie toujours pas d’une décision d’adéquation de la part de la Commission européenne garantissant un niveau de protection des données équivalent à celui du règlement général sur la protection des données (RGPD). Face aux questions des journalistes, les porte-parole de Meta se contentent de renvoyer vers leurs conditions d’utilisation, lesquelles stipulent qu’un examen humain des requêtes adressées à l’intelligence artificielle est possible.

« Lorsque les utilisateurs partagent du contenu avec Meta AI, comme d’autres entreprises, nous faisons parfois appel à des sous-traitants pour examiner ces données afin d’améliorer l’expérience des utilisateurs avec les lunettes, comme indiqué dans notre politique de confidentialité. Ces données sont d’abord filtrées afin de protéger la vie privée des utilisateurs », précise la firme au Telegraph. Et d’ajouter : « Nous prenons très au sérieux la protection des données personnelles et nous améliorons continuellement nos efforts et nos outils dans ce domaine. »

👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.