les réseaux sociaux pris dans les accusations de modération « partisane »

les réseaux sociaux pris dans les accusations de modération « partisane »


Accusations de « censure » ou, à tout le moins, d’inégalités de traitement : depuis l’attaque du Hamas contre Israël, le 7 octobre, et encore plus depuis le début des frappes israéliennes sur Gaza, les réseaux sociaux sont accusés d’avoir pris fait et cause, soit pour les Palestiniens, soit, plus souvent, pour Israël. Dès le 10 octobre, Elon Musk, le président de Twitter (renommé X) publiait sur son compte personnel un « mème » se moquant des « médias mainstream » qui, selon lui, accusent simultanément sa plate-forme d’être « un marécage antisémite » et « une machine à propagande sioniste ».

Plus que les médias, ce sont surtout les utilisateurs des principaux réseaux sociaux, et principalement les Palestiniens et défenseurs de la cause palestinienne, qui ont multiplié depuis une semaine les accusations de « censure » les visant. Une simple recherche sur n’importe quel réseau social fait remonter des centaines de témoignages d’utilisateurs affirmant avoir été « shadowbanned » : une pratique qui consiste, plutôt que de fermer un compte, à réduire sa visibilité, en limitant son apparition dans les fils d’actualité ou les recherches.

La pratique du « shadow ban » (« blocage fantôme ») existe sur toutes les grandes plates-formes, même si toutes contestent ce terme jugé trop connoté. Sur Twitter, YouTube, Facebook ou TikTok, les comptes ayant fait l’objet de nombreux signalements ou ayant été sanctionnés à plusieurs reprises pour infraction aux règles peuvent se retrouver en partie « invisibilisés » ; de même, un message contenant des images violentes ou des mots-clefs suspects sera automatiquement moins diffusé que la moyenne.

Depuis une semaine, ce sont principalement TikTok et Instagram – deux réseaux sociaux très populaires auprès des adolescents et jeunes adultes – qui sont accusés « d’invisibiliser » les messages propalestiniens, voire d’être « aux ordres d’Israël ». « L’idée que nous chercherions à faire taire une communauté ou un point de vue en particulier est totalement fausse », répond Meta (propriétaire d’Instagram). « Nos règles sont conçues pour que tout le monde puisse s’exprimer tout en préservant la sécurité de nos utilisateurs, et nous appliquons les mêmes règles quel que soit l’utilisateur qui publie et [quelles que soient] ses convictions personnelles. » L’entreprise explique par ailleurs avoir corrigé un bug qui rendait certaines « stories » peu visibles, mais assure que le problème était mondial.

Règles similaires d’une plate-forme à l’autre

A l’exception du cas particulier de Telegram, qui ne modère pas ou très peu, toutes les grandes plates-formes ont annoncé avoir appliqué, depuis l’attaque du Hamas, des règles très similaires. TikTok, Instagram, Facebook et YouTube expliquent avoir mobilisé davantage de modérateurs, dont des personnes parlant hébreu ou arabe, pris des mesures pour limiter les diffusions de vidéos en direct, plus difficiles à modérer, et disent appliquer au cas par cas des règles « d’intérêt public » qui peuvent les conduire à laisser en ligne des contenus normalement interdits – typiquement, des images violentes mais qui sont la preuve d’une exaction. Twitter (devenu X) est le seul des grands réseaux sociaux à ne pas avoir évoqué une augmentation de ses effectifs de modération. Depuis le rachat de l’entreprise par Elon Musk il y a un an, la plupart des prestataires s’occupant de la modération du site n’ont pas été renouvelés.

Il vous reste 55.95% de cet article à lire. La suite est réservée aux abonnés.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.