L’algorithme du réseau social TikTok est mis en cause dans un rapport publié mercredi 14 décembre par le Centre de lutte contre la haine en ligne (CCDH), aux Etats-Unis. L’étude menée par le centre démontre comment des contenus préjudiciables, comprenant notamment des vidéos relatives à l’automutilation et aux troubles alimentaires, sont recommandés par l’algorithme du réseau social à ses jeunes utilisateurs.
Pour souligner les risques que fait courir le réseau social sur la santé mentale des jeunes, l’organisation américaine, à but non lucratif, a mené une expérimentation grandeur nature. Les experts du CCDH ont ouvert de faux profils d’adolescents âgés de treize ans, aux Etats-Unis, au Royaume-Uni, au Canada et en Australie, en utilisant des présentations de profils suggérant une vulnérabilité particulière de ces adolescents aux troubles de l’alimentation – comprenant par exemple les mots « perdre du poids ».
Les chercheurs ont ensuite fait vivre ces comptes en « likant » des vidéos traitant de ces sujets préjudiciables, pour voir si l’algorithme TikTok allait répondre en ce sens. Quelques minutes après avoir rejoint la plate-forme, en à peine deux minutes et six secondes, l’algorithme de TikTok leur a recommandé des vidéos relatives au suicide (lames de rasoir, discussions sur le suicide et l’automutilation…) . En huit minutes à peine, il leur suggérait aussi des contenus concernant la perte de poids et les troubles du comportement alimentaire.
Opacité quant au mode de fonctionnement des algorithmes
« C’est comme être coincé dans une salle de miroirs déformés où l’on vous dit constamment que vous êtes moche, que vous n’êtes pas assez bon, que vous devriez peut-être vous suicider », a déclaré le président du centre, Imran Ahmed, dont l’organisation possède des bureaux aux Etats-Unis et au Royaume-Uni. Il a ajouté que le réseau social « envoie littéralement les messages les plus dangereux possibles aux jeunes. »
Le problème pointé par l’expérimentation est principalement le mode de fonctionnement des algorithmes faisant loi sur les réseaux sociaux. Ces derniers fonctionnent en identifiant les sujets et les contenus qui intéressent un utilisateur, qui reçoit d’autant plus de suggestions identiques qu’il les consulte souvent.
Le réseau social chinois est normalement interdit aux utilisateurs de moins de treize ans, tandis que ses règles officielles interdisent les vidéos qui encouragent les troubles alimentaires ou le suicide. Deux défaillances mises à nue par l’étude.
Face à ce mode de fonctionnement circulaire et opaque des algorithmes, les adolescents et les enfants sont les plus vulnérables, car ils passent plus de temps sur les réseaux sociaux, y font face à une pression très forte de leurs pairs et y voient proliférer des contenus néfastes, selon Josh Golin, directeur exécutif de l’ONG Fairplay, qui plaide pour plus de régulation des contenus en ligne afin de protéger les enfants. « Tous ces préjudices sont liés au modèle économique » des réseaux sociaux, selon M. Golin, quelle que soit la plate-forme.
TikTok conteste les résultats de l’étude et sa méthodologie
TikTok a contesté les résultats de l’étude en remettant en cause sa méthodologie, dans une déclaration rendue publique peu après la publication du rapport. Dans son communiqué, la plate-forme note que les chercheurs n’ont pas utilisé celle-ci comme des utilisateurs typiques et affirme donc que les résultats ont été faussés. La société a également déclaré que le nom du compte d’un utilisateur n’affecte pas le type de contenu qu’il reçoit.
« Nous consultons régulièrement des experts de la santé, supprimons les violations de nos politiques et donnons accès à des ressources de soutien à toute personne qui en a besoin », souligne le communiqué de TikTok, qui appartient à ByteDance Ltd, une société chinoise désormais établie à Singapour.
Les utilisateurs américains qui recherchent du contenu relatif aux troubles de l’alimentation sur TikTok reçoivent normalement un message proposant des ressources en matière de santé mentale et les coordonnées de la National Eating Disorder Association.
Malgré ces efforts de la plate-forme, les chercheurs du CCDH ont toutefois constaté que des contenus sur les troubles alimentaires avaient été visionnés des milliards de fois : cinquante-cinq hashtags relatifs à ce sujet ont comptabilisé plus de 13 millions de vues. Ils ont également remarqué que les jeunes usagers utilisaient un langage codé au sujet des troubles de l’alimentation afin d’échapper à la modération de contenu.
Une loi pour plus de régulation à l’étude au Congrès américain
« La quantité de contenus préjudiciables proposés aux adolescents sur TikTok montre que l’autorégulation a échoué, a ainsi déclaré M. Ahmed, plaidant pour que des règles fédérales soient instaurées aux Etats-Unis afin d’obliger les plates-formes à faire davantage pour protéger les enfants.
Il a également fait remarquer que la version de TikTok proposée au public chinois était plus régulée, étant conçue pour promouvoir des contenus sur les mathématiques et les sciences auprès des jeunes utilisateurs et limitant le temps que les adolescents de 13 et 14 ans peuvent passer sur le réseau social chaque jour.
Le Monde
Offre spéciale étudiants et enseignants
Accédez à tous nos contenus en illimité à partir de 8,49 euros par mois au lieu de 9,99 euros
S’abonner
Aux Etats-Unis, une proposition de loi a été présentée au Congrès afin d’imposer de nouvelles règles limitant les données concernant les jeunes utilisateurs que peuvent collecter les plates-formes de médias sociaux. Elle vise à créer un nouveau bureau au sein de la commission fédérale du commerce, chargé de protéger la vie privée des jeunes utilisateurs des médias sociaux.
L’un des promoteurs du texte, le sénateur démocrate du Massachusetts Edward Markey, a déclaré mercredi qu’il avait bon espoir que les législateurs des deux parties puissent s’entendre quant à la nécessité de cette réglementation plus stricte.
« Les données sont la matière première que les grandes technologies utilisent pour suivre, manipuler et traumatiser les jeunes de notre pays chaque jour », a-t-il notamment estimé.