un rapport révèle comment des groupes néonazis utilisent l’algorithme de TikTok à leur avantage

un rapport révèle comment des groupes néonazis utilisent l’algorithme de TikTok à leur avantage


Des réseaux de suprémacistes blancs et néonazis utilisent TikTok comme instrument de propagande et de recrutement, selon un rapport publié lundi 29 juillet par l’Institute for Strategic Dialogue (ISD) et révélé par le magazine spécialisé Wired. Spécialisée dans l’analyse des réseaux sociaux, cette organisation indépendante décortique les techniques utilisées par des comptes ouvertement d’extrême droite pour contourner les règles de modération de la plate-forme et utiliser à leur profit son puissant algorithme de recommandation.

A partir d’un compte néonazi préalablement repéré, les chercheurs de l’ISD ont mis au jour un réseau de 200 profils du même type sur TikTok. Après avoir parcouru certains de leurs contenus à l’aide d’un compte utilisateur vierge, ils ont pu constater que des vidéos d’extrême droite similaires leur étaient alors très vite proposées sur la page « Pour toi » (« For You »), qui affiche les vidéos sélectionnées par l’algorithme de recommandation de l’application. Un phénomène de renforcement algorithmique déjà largement documenté, les vidéos figurant dans la page « Pour toi » étant fonction, notamment, de ce que l’internaute a visionné auparavant, du temps passé sur chaque contenu ou de ses « likes ».

Mais l’étude de l’ISD montre surtout que les groupes d’extrême droite semblent avoir très bien compris comment TikTok peut servir leurs intérêts. Ces derniers mettent sur pied des réseaux de comptes se suivant les uns les autres afin d’accroître leur visibilité. Une « tactique du follow-for-follow » – que l’on peut traduire par « tu me suis-je te suis » –, selon le rapport, « méthode classique pour obtenir un réseau au maillage resserré permettant un plus grand engagement [des internautes] » et « faciliter une croissance rapide ». « Des douzaines de comptes comportent des noms, des photos de profils et des nombres de “followers” et de “followings” quasi-identiques, ce qui indique qu’il s’agit de comptes dupliqués par le même utilisateur », détaillent les auteurs.

Lire aussi | Article réservé à nos abonnés Comment expliquer le succès de Jordan Bardella sur TikTok ?

Les personnes derrière ces comptes néonazis se retrouvent bien souvent hors de TikTok, sur des chaînes Telegram. C’est là qu’ils mettent en commun vidéos, images et sons à diffuser, et qu’ils se coordonnent afin de maximiser leur exposition sur la plate-forme chinoise. L’ISD a ainsi listé plus d’une centaine de canaux de ce type sur Telegram, application notoirement connue pour son absence quasi complète de modération.

Des stratégies pour contourner la modération

L’étude montre aussi l’éventail des stratégies mises au point par ces comptes d’extrême droite pour contourner la modération de TikTok, dont beaucoup sont déjà connues : l’utilisation de langage codé ou d’émoji spécifique (comme la boîte de jus de fruit, « juice » en anglais, qui par homophonie se rapproche de « jews » – « juifs »), l’intégration de mots-clés à l’orthographe volontairement altérée, ou encore le choix méticuleux d’une image d’appel – celle qui apparaît avant qu’on ne clique sur une vidéo – en apparence neutre, afin de masquer le propos réel du contenu.

Le rapport détaille aussi comment l’utilisation de clips audio ou de musiques spécifiques, sans contenir d’éléments explicitement racistes ou haineux, peut servir de « clin d’œil », de référence. « Sur TikTok, une recherche sur une chanson écoutée par l’auteur de l’attentat de Christchurch alors qu’il conduisait après avoir tué 51 musulmans débouche sur 1 200 vidéos, prennent les auteurs en exemple. Parmi elles, sept vidéos sur dix célébraient l’attaque, son objectif ou le tueur, voire le recréaient dans un jeu vidéo. »

Les recherches de l’ISD ont permis de relever aussi bien des comptes néonazis en langue anglaise qu’en français, en hongrois, en allemand ou en russe, explique à Wired l’un des auteurs du rapport, Nathan Doctor. Sans pouvoir affirmer qu’il existe une coordination entre ces groupes à l’échelle internationale, ils se reconnaissent et interagissent les uns avec les autres, assure-t-il.

Le rapport de l’ISD dénonce enfin le manque de réactivité de TikTok vis-à-vis de ces comptes qui propagent du contenu haineux. « Ces tactiques révèlent pourquoi TikTok ne parvient pas à s’occuper de ce problème, regrettent les auteurs. La plate-forme semble supprimer les comptes ou les vidéos individuelles plutôt que de s’attaquer au réseau dans son ensemble. Résultat : quand des utilisateurs sont bannis, ils sont souvent capables de recréer leurs comptes et d’obtenir une amplification rapide de leurs nouveaux contenus. » Sur les cinquante comptes signalés, un peu moins de la moitié avait été bannie au bout d’un mois.

« Les comportements, organisations et idéologies haineuses n’ont pas leur place sur TikTok, et nous retirons plus de 98 % de ce type de contenu avant même qu’il nous soit signalé », répond à Wired un porte-parole de TikTok. L’entreprise ajoute qu’elle a à son actif plus de « 40 000 modérateurs ».

Le Monde

Réutiliser ce contenu



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.