Facebook et Instagram incités à réévaluer leurs pratiques de modération sur le Covid-19

Facebook et Instagram incités à réévaluer leurs pratiques de modération sur le Covid-19


L’oversight board (« conseil de surveillance ») de Meta, sorte de cour suprême composée d’experts indépendants chargé par l’entreprise d’examiner ses décisions de modération, a rendu jeudi 20 avril un rapport détaillé sur les règles mises en place par Facebook et Instagram sur les sujets liés au Covid. Comme il en a le pouvoir, le conseil de surveillance a émis une série de recommandations, auxquelles Meta doit apporter une réponse dans les deux mois.

L’organisation note que les mesures exceptionnelles de modération mises en place par Meta, sanctionnant notamment la désinformation sur le Covid-19, les vaccins et les traitements, étaient justifiées, « étant donné l’ampleur de la crise sanitaire et les risques, identifiés par les épidémiologiste, que la désinformation faisait courir » au grand public. Mais le conseil estime que la société n’a pas suffisament cherché à comprendre comment les mécanismes de fonctionnement de Facebook et d’Instagram avaient eux-mêmes pu promouvoir des informations erronées. Cette analyse devrait être conduite au plus vite, estime le conseil, et porter non seulement sur les risques pour la santé publique, mais aussi sur la liberté d’expression et le débat public sur les politiques sanitaires.

Règles uniques dans le monde entier

En creux, le rapport souligne un point de désaccord avec Meta : la volonté du géant des réseaux sociaux d’unifier ses pratiques de modération, en appliquant les mêmes règles dans le monde entier, pour les rendre plus simples et lisibles. Le « conseil de surveillance » note que si ces objectifs sont légitimes, les situations très différentes de la pandémie dans différents pays du monde rendra, à terme, une approche plus localisée nécessaire. « Le conseil incite Meta à commencer à travailler à un plan de modération de transition, lorsque le statut d’urgence sanitaire de la pandémie sera levé [par l’OMS], pour mieux réfléter les différences de situations locales et pour mieux identifier les risques imminents de danger sans compromettre la liberté d’expression ».

Depuis le début de la pandémie, Meta a identifié quatre-vingt types de messages liés au Covid-19 qui font l’objet de règles de modération spécifiques – par exemple les contenus niant l’existence du Covid-19, ceux affirmant que les masques sont dangereux, ou encore ceux niant le lien entre la mort d’une personne et la maladie. « Nous appellons Meta à réévaluer les risques posés par chacun de ces [quatre-vingt types de messages], écrit le conseil, et à lancer une consultation large qui inclue un mécanisme permettant aux opinions divergentes de se faire entendre ».

Fin novembre 2022, le réseau social concurrent Twitter avait purement et simplement supprimé toutes les règles de modération sur la désinformation liée au Covid, peu après son rachat par le milliardaire Elon Musk. Une décision critiquée à l’époque par l’ensemble des spécialistes de la santé publique et de la désinformation.

Des outils mal adaptés selon l’« oversight board »

Le « conseil de surveillance » note également dans son rapport que certains des outils utilisés par Meta pour limiter la diffusion de désinformations, comme le fait de réduire leur visibilité dans les algorithmes de recommandation de contenus, peuvent être mal adaptés. Ces réductions de visibilité seraient relativement peu efficaces « car les contenus publiés par des utilisateurs [ayant une importante communauté] restent vus par beaucoup de personnes », estime l’organisation, qui note par ailleurs que l’impossibilité de contester ces baisses de visibilité « soulève d’importantes questions sur l’équité du traitement entre différents utilisateurs ». Alors que lorsqu’un message est supprimé par les équipes de modération sur Facebook ou Instragram, son créateur peut faire appel de la décision.

L’organisation est également très critique envers les partenariats de « fact-checking » conclus par Meta avec différents médias (dont, en France, l’AFP, 20 Minutes et France24 – Le Monde a participé à ce programme jusqu’à la fin 2022). Les contenus identifiés comme trompeurs ou contenant des affirmations fausses sur la pandémie par ces médias peuvent se voir étiquettés comme tels sur Facebook ou Instragram. L’analyse du conseil suggère que cette approche est trop peu efficace, notamment en raison de « la décision de Meta d’exclure du champ des contenus à vérifier les déclarations de leaders politiques qui, comme le montre notre étude, faisaient partie des plus actifs diffuseurs de fausses informations sur le Covid-19 ». Meta avait décidé d’exclure du champ de ce programme les déclarations des responsables élus, considérant qu’il s’agissait de discours politiques auxquels tous les citoyens devaient pouvoir avoir accès.

Le Monde



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.