Comment s’assurer que les mineurs font face à des contenus adaptés à leur âge sur les réseaux sociaux ? Meta annonce avoir mis en place de nouvelles mesures pour les adolescents sur Facebook et Instagram, qui devraient davantage protéger les mineurs, assure l’entreprise. La société de Mark Zuckerberg, accusée de nuire à la santé mentale des enfants et adolescents, doit faire face à de nombreuses actions en justice.
D’ici quelques semaines, les mineurs qui disposent d’un compte Instagram ou Facebook ne devraient plus voir de contenus prônant l’automutilation ou l’anorexie. Dans un article de blog du mardi 9 janvier 2024, Meta, la maison mère d’Instagram et de Facebook, annonce avoir pris de nouvelles mesures destinées à davantage protéger les utilisateurs mineurs de ses réseaux sociaux. En théorie, les vidéos et les messages relatifs à l’automutilation, aux troubles de l’alimentation ou les contenus tout simplement violents ne devraient plus apparaître sur les fils d’actualité et les stories des jeunes utilisateurs. Les moins de 16 ans ne devraient plus, non plus, avoir accès aux « contenus sexuellement explicites ».
Cette annonce intervient alors que Meta et d’autres géants des réseaux sociaux sont accusés depuis des années de nuire à la santé mentale des adolescents. Instagram et Facebook sont visés par plusieurs plaintes d’États américains ou de particuliers, qui demandent à la plateforme de cesser de traiter les utilisateurs enfants et adolescents comme des adultes. La société aux mains de Mark Zuckerberg prévoit de mettre en place différentes mesures en ce sens dans les prochaines semaines, pour les comptes actifs de mineurs et les comptes nouvellement créés.
À lire aussi : Comment les réseaux sociaux détruisent la santé mentale des enfants et des adolescents
Des réglages obligatoires pour les mineurs
Concrètement, la société va mettre en place des réglages restrictifs, qui seront obligatoires, pour les moins de 18 ans – il s’agit du « Sensitive Content Control » (contrôle du contenu sensible) sur Instagram, et du « Reduce » (Réduction) sur Facebook. Pour déterminer s’il est en présence d’un usager majeur ou mineur, l’entreprise explique qu’elle se basera sur la date de naissance indiquée lors de l’inscription de l’utilisateur, détaille le Wall Street Journal, mardi 9 janvier. S’il existait déjà des réglages restrictifs, ils n’étaient pas obligatoires. Désormais, les utilisateurs mineurs ne pourront plus s’y soustraire – à moins de tricher sur leurs dates de naissance.
Les réglages auront une incidence sur le fil d’actualités et les Stories : en théorie, si une personne suivie par un mineur publie des contenus pro-anorexie, ces derniers ne seront tout simplement plus visibles pour ce dernier. Même chose pour les autres sujets considérés comme préjudiciables – à savoir le suicide, l’automutilation et les troubles de l’alimentation en général. Et si le mineur recherche ces sujets, les réseaux sociaux de Meta masqueront les résultats, et redirigeront le jeune utilisateur vers des ressources adéquates, précise l’entreprise dans son article de blog. Il faudra s’attendre à ce que les adolescents cherchent à contourner ces réglages, en orthographiant mal les mots ou en créant de nouveaux termes de recherche.
Les inconnus pourront moins facilement contacter les mineurs
Autre point : les mineurs seront moins exposés aux interactions avec des inconnus (adultes) sur ces réseaux sociaux. La société va mettre en place la possibilité, sur Instagram, d’activer un mode plus protecteur. Les utilisateurs mineurs pourront adopter certains « paramètres recommandés » en un seul clic, notamment lorsque leurs comptes sont tagués par un inconnu. Avec ce réglage, seuls les followers d’un adolescent pourront lui envoyer des messages. Les comptes pouvant reprendre leur contenu, les identifier ou les mentionner seront restreints.
Meta explique qu’il s’est appuyé sur des experts en développement pour déterminer quels types de contenus étaient inappropriés pour les mineurs. Le géant des réseaux sociaux ajoute que ses algorithmes évitaient déjà de recommander aux adolescents des contenus préjudiciables dans Vidéos et Explore. Avec les nouveaux changements, de tels contenus ne seront plus montrés aux adolescents dans leur fil d’actualité et leurs Stories.
Une réponse face à la bronca des autorités ?
Pour le Wall Street Journal, il s’agit du changement le plus important que Meta ait effectué pour protéger les mineurs. Ces mesures sont publiées trois mois après l’annonce d’une nouvelle action en justice contre la plateforme. En octobre dernier, une coalition d’une quarantaine d’États américains a attaqué l’entreprise, l’accusant de contribuer aux problèmes de santé mentale des jeunes utilisateurs. La plateforme a « profondément modifié les réalités psychologiques et sociales d’une génération de jeunes Américains » en utilisant « des technologies puissantes et sans précédent pour attirer, engager et finalement piéger les jeunes et les adolescents », estimaient les auteurs de la plainte. Concrètement, on reproche à l’entreprise de Mark Zuckerberg d’ignorer « les dangers sérieux (induits par ces plateformes, ndlr) pour promouvoir leurs réseaux sociaux à des fins lucratives ».
À lire aussi : Meta attaqué par 41 États américains : Instagram et Facebook sont accusés de nuire à la santé mentale des jeunes
Cette accusation est loin d’être nouvelle. En 2021, les « Facebook Files » avaient notamment montré qu’Instagram savait que sa plateforme était « toxique » pour de nombreuses adolescentes. Meta avait alors annoncé lancer un Instagram dédié aux jeunes de moins de 13 ans, avant de faire machine arrière.
L’année dernière, certains États américains ont adopté des lois visant à interdire aux mineurs d’utiliser certains réseaux sociaux sans la permission de leurs parents, comme l’Utah et l’Arkansas. Le Montana a même essayé, sans succès, d’interdire complètement TikTok. En parallèle, des parents d’utilisateurs et des établissements scolaires ont aussi déposé plainte contre Meta et d’autres plateformes, accusant ces derniers d’avoir accru l’anxiété et la dépression des jeunes utilisateurs.
À lire aussi : L’algorithme de TikTok au cœur d’une plainte après le suicide d’une adolescente
L’annonce intervient aussi trois semaines avant le témoignage de Mark Zuckerberg, le patron de Meta, prévu le 31 janvier 2024. Ce dernier devra répondre aux questions du sénat américain sur la protection des mineurs en ligne – les dirigeants de TikTok, Snapchat, X et Discord seront aussi interrogés. En Europe aussi, les autorités demandent des comptes au géant du numérique, notamment sous l’égide du Digital Services Act, entré en vigueur en août dernier pour les grandes plateformes comme Meta. Ces sociétés doivent mener régulièrement des évaluations des risques et adopter des mesures d’atténuation visant à protéger les mineurs en ligne. Fin 2023, la Commission européenne avait demandé à Meta de lui indiquer quelles mesures ont été prises pour protéger « la santé physique et mentale » des mineurs. Il pourrait s’agir d’une première étape conduisant à des poursuites officielles.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.