Après son changement de cap sur la modération, Meta taille dans les équipes dédiées à la protection de la vie privée

Après son changement de cap sur la modération, Meta taille dans les équipes dédiées à la protection de la vie privée



Après avoir retourné sa veste sur la modération, Meta serait sur le point de licencier dans ses équipes dédiées à la protection des données personnelles des utilisateurs : une décision qui marque la fin de l’ère de l’après Cambridge Analytica, une période pendant laquelle la maison mère de Facebook, d’Instagram et de WhatsApp jouait les bons élèves.

Depuis près de trois ans, les licenciements chez Meta s’enchaînent, mais ne se ressemblent pas. Mercredi 22 octobre, la maison mère de Facebook, Instagram et WhatsApp, annonçait se séparer de 600 salariés dans sa division IA. Vingt-quatre heures plus tard, le New York Times a rapporté que d’autres suppressions d’emploi suivraient : elles concerneraient cette fois son équipe de gestion des risques, dédiée à la protection des données personnelles et de la vie privée. Le quotidien américain explique se baser sur le témoignage de trois personnes proches du dossier, ainsi que des documents internes.

La décision viendrait confirmer le changement de cap du groupe californien, marquant la fin de l’ère-post Cambridge Analytica pendant laquelle Meta jouait les bons élèves sur la modération et la protection de la vie privée.

À lire aussi : Juré-craché, Meta n’écoute pas les conversations de ses utilisateurs pour de la pub ciblée

Ses membres veillaient à ce que les nouveaux produits de Meta respectaient bien les lois relatives aux données personnelles

Cette affaire commence lorsque le New York Times met la main sur un mémo interne de Michel Protti, responsable de la protection de la vie privée chez Meta. Dans ce message adressé à des salariés du groupe, le directeur explique que l’entreprise va réduire l’équipe chargée de « l’évaluation des risques ».

Ses membres ont pour mission d’auditer tous les nouveaux produits de WhatsApp, Facebook et Instagram, avec un objectif : détecter les menaces potentielles pour la vie privée des utilisateurs des réseaux sociaux de Meta. Ces employés veillent aussi à ce que les plateformes et les services proposés respectent bien les règles relatives à la protection de la vie privée, et à l’utilisation des données personnelles – des règles imposées par des lois dans plusieurs pays, dont le respect est surveillé de près par la « FTC », aux États-Unis.

Le groupe ne veut plus s’embarrasser de procédures jugées inutiles et pesantes

C’est d’ailleurs cette autorité américaine, en charge de défendre les consommateurs, qui contraint Meta à mettre en place cette équipe. Après le scandale de Cambridge Analytica, du nom de cette société qui avait établi des profils psychologiques des utilisateurs de Facebook afin d’influencer les électeurs de la présidentielle américaine, Meta (anciennement Facebook) doit montrer patte blanche. La société américaine embauche des salariés dédiés à la protection de la vie privée. Elle adopte aussi plusieurs mesures destinées à davantage protéger les données personnelles de ses utilisateurs.

Et si, pendant plusieurs années, le géant américain a continué à obtempérer, surveillé de près par la « FTC », avec qui il a passé un accord en 2019, mais aussi par les autorités européennes, les temps ont changé. Désormais, le groupe ne veut plus s’embarrasser de procédures jugées inutiles et pesantes. D’autant que dans le pays, l’heure est à la dérégulation, prônée par l’actuel gouvernement américain, plutôt qu’à la régulation.

Un véritable démantèlement ?

Premier domaine à en faire les frais : la modération. En janvier dernier, Mark Zuckerberg met fin à son programme de vérification des faits, qui s’appuyait notamment sur des agences de presse. L’entreprise américaine compte uniquement sur les utilisateurs de Facebook et d’Instagram pour ajouter des notes ou des corrections aux contenus susceptibles de contenir des informations fausses ou trompeuses.

Et désormais, second domaine à être impacté : l’équipe « privacy », en charge de la vie privée des utilisateurs. Un premier coup avait été apporté en février dernier, lorsqu’un autre mémo, toujours du même Michel Protti, avait été intercepté cette fois par The Information. On pouvait y lire que les équipes produit auraient, dorénavant, le dernier mot sur les équipes dédiées aux risques. En d’autres termes, le pouvoir des équipes en charge de la protection des données avait déjà été réduit. Et il est maintenant question de suppression de postes. Si aucun chiffre n’a été donné, il s’agirait d’un véritable démantèlement, selon le quotidien new-yorkais.

À lire aussi : Meta veut lancer des nouveautés plus vite, en relâchant la vigilance sur la confidentialité

L’équipe remplacée en partie par l’IA ?

Problème supplémentaire : dans cette équipe, les évaluations faites par les « employés humains » seraient remplacées par des systèmes automatisés, nous apprend le New York Times. De cette façon, on « obtiendra des résultats plus précis et plus fiables en matière de conformité dans l’ensemble de Meta », a écrit dans son mémo Michel Protti. Meta utiliserait en fait en partie des systèmes automatisés, notamment pour les mises à jour « à faible risque » des nouveaux produits. Les produits considérés comme « à haut risque ou nouveaux » seraient, eux, bien soumis à un processus plus intense par des auditeurs humains.

Interrogé sur ce point, Meta a simplement indiqué, dans un communiqué, que le groupe procédait « régulièrement à des changements organisationnels et restructur(ait) ses équipes afin (…) d‘innover plus rapidement tout en maintenant des normes de conformité élevées ». Depuis la fin du Covid-19, Mark Zuckerberg, à la tête de Meta, a en effet passé du temps à « restructurer » son entreprise, en réduisant petit à petit ses équipes et ses investissements dédiés aux métavers, puis en réorientant ses activités vers l’IA.

La direction de l’entreprise chercherait désormais à supprimer tout goulot qui ralentirait le développement et le lancement de ses produits. Or, l’une des divisions pointée du doigt pour ralentir les lancements de nouveaux services serait, justement, l’équipe chargée de la gestion des risques.

Cette volonté d’aller vite s’explique aisément.  Comme les autres mastodontes des nouvelles technologies, Meta a été pris de court par le lancement de ChatGPT d’OpenAI, et il cherche à rattraper, coûte que coûte, son retard dans l’IA générative. Avant de lancer, la première, son agent conversationnel, OpenAI n’a pas cherché à se lancer dans des procédures de conformité. Et si elle fait face aujourd’hui à plusieurs actions en justice notamment sur le terrain du droit d’auteur, du copyright ou encore des données personnelles, sa rapidité a « payé » : ChatGPT serait aujourd’hui utilisé par 500 millions d’utilisateurs actifs par semaine, selon des chiffres avancés par la start-up.

👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google Actualités, abonnez-vous à notre canal WhatsApp ou suivez-nous en vidéo sur TikTok.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.