Deux plaintes – au Royaume-Uni et aux Etats-Unis – et des dommages et intérêts estimés par les plaignants à plus de 130 milliards d’euros : au début de décembre, des ONG représentant des exilés rohingya ont porté plainte contre Meta, la société mère de Facebook, accusant la mauvaise gestion des messages de haine par le réseau social d’être à l’origine de milliers de morts en Birmanie.
Depuis 2017, une violente répression, principalement militaire, vise la minorité rohingya, musulmane, dans ce pays majoritairement bouddhiste ; environ 750 000 personnes ont fui la Birmanie et au moins 10 000 personnes ont été tuées, d’après un rapport des Nations unies publié en septembre 2018, qui estimait alors que « ces crimes (…) étaient de nature génocidaire ».
Mais l’armée birmane n’était pas la seule organisation montrée du doigt par les Nations unies : ce même rapport accusait Facebook, très populaire en Birmanie, d’avoir joué un rôle « déterminant » dans les exactions, en laissant proliférer des appels à la haine contre les musulmans. Quelques semaines plus tôt, une enquête accablante de Reuters avait montré que la modération de la plate-forme dans le pays était plus que lacunaire. Problèmes techniques ou nombre insuffisant de modérateurs parlant birman : de nombreux contenus appelant à tuer des Rohingya y restaient aisément accessibles et très diffusés.
Outils automatisés insuffisants
Depuis, Meta assure qu’il a largement renforcé ses moyens dans le pays. « Notre approche en Birmanie est aujourd’hui fondamentalement différente de ce qu’elle était en 2017 », affirme un porte-parole de l’entreprise au Monde :
« Les allégations nous accusant de ne pas avoir investi dans la sécurité dans le pays sont fausses. Nous avons mis en place une équipe d’employés qui parlent birman, interdit l’armée birmane, mis fin à des groupes qui cherchaient à manipuler le débat public, et pris des mesures contre la désinformation. »
Ces mesures ne sont pas parvenues à régler les problèmes, comme le montrent les « Facebook Files », ces documents internes copiés par l’ancienne employée Frances Haugen et transmis à plusieurs rédactions, dont Le Monde, par un employé du Congrès américain. Plusieurs documents, datant de la mi-2020, montrent notamment que les outils automatisés mis en place par Facebook pour repérer les messages illégaux semblent insuffisants.
Un tableau récapitulant les outils mis en place dans plusieurs pays montre ainsi qu’à l’époque, soit trois ans après le début des massacres, la Birmanie ne dispose toujours pas d’un classifier pour la désinformation. Les classifiers sont des outils d’apprentissage automatique qui aident Facebook à détecter les messages problématiques. Très utilisés par le réseau social dans le monde entier, ils doivent être programmés pour chaque langue. Un système de détection a depuis été mis en place pour les messages de désinformation en birman, affirme le réseau social, en complément d’autres classifiers déjà existants, dont un pour les appels à la haine.
Il vous reste 62.22% de cet article à lire. La suite est réservée aux abonnés.