En 2021, une enquête du Wall Street Journal dévoile des recherches internes commandées par Meta, indiquant que sa plateforme Instagram exacerbe les problèmes de santé mentale chez les adolescents. Le réseau social est depuis sous le feu des critiques en raison de ses liens présumés avec l’augmentation des troubles alimentaires, de la dépression et de l’automutilation chez ses jeunes utilisateurs.
Le PDG de Meta, Mark Zuckerberg, a donc été contraint de trouver des solutions qui renforcent la sécurité des enfants et des adolescents sur ses plateformes.
Des limitations pour les mineurs
C’est pourquoi Meta a lancé des « comptes adolescents » pour les utilisateurs de moins de 18 ans. Ces comptes sont privés par défaut et comportent un ensemble de restrictions adaptées aux mineurs. Les utilisateurs de 16 ans et plus peuvent assouplir certains paramètres, mais uniquement avec l’autorisation de leurs parents. L’objectif étant de modifier la manière dont les jeunes interagissent avec les réseaux sociaux.
Les nouvelles protections et limitations intégrées visent à répondre aux « principales préoccupations des parents concernant leurs enfants en ligne, notamment en limitant les contacts inappropriés, les contenus inappropriés et le temps d’écran excessif », a déclaré Adam Mosseri, directeur d’Instagram, au New York Times.
Selon Meta Newsroom, les comptes pour adolescents sont conçus « pour aider les parents » et « leur donner le contrôle » en leur permettant de superviser les profils de leurs enfants, notamment ceux de moins de 16 ans. Toutefois, Meta précise que si les parents souhaitent exercer davantage de contrôle, ils peuvent activer la supervision parentale. Cela leur permettra d’approuver toute modification des paramètres, quel que soit l’âge de leur adolescent.
Quelles sont les protections ?
Parmi les nouvelles protections figurent les « restrictions de messagerie », qui imposent les paramètres les plus stricts aux comptes des jeunes utilisateurs. Cela signifie qu’ils ne peuvent recevoir des messages que des personnes qu’ils suivent ou avec lesquelles ils sont déjà connectés.
Les « restrictions de contenu sensible » limiteront automatiquement le type de contenu que les adolescents verront dans Explore et Reels, en excluant les contenus violents ou ceux faisant la promotion de procédures cosmétiques, entre autres. Les comptes avertiront également les utilisateurs avec des rappels de limite de temps qui « leur diront de quitter l’application après 60 minutes chaque jour ». En outre, un nouveau « mode veille » désactivera les notifications et enverra des réponses automatiques entre 22 heures et 7 heures du matin.
Meta a annoncé que la version la plus restrictive de sa fonction anti-intimidation sera automatiquement activée pour les utilisateurs adolescents, masquant les mots et expressions offensants dans leurs sections de commentaires.
Meta a également annoncé qu’il déploiera des outils d’intelligence artificielle (IA) pour identifier les utilisateurs qui mentent sur leur âge. Ces outils de prédiction de l’âge, actuellement en phase de test et prévus pour être déployés aux États-Unis au début de l’année prochaine, analyseront divers signaux comportementaux tels que la date de création du compte, le type de contenu et de comptes avec lesquels l’utilisateur interagit, ainsi que le style d’écriture. Les utilisateurs que Meta considère comme des adolescents seront alors invités à vérifier leur âge.
Le déploiement ne sera pas immédiat pour tous les utilisateurs : les nouveaux inscrits de moins de 18 ans seront automatiquement dirigés vers des comptes pour adolescents dès leur inscription, tandis que les utilisateurs existants pourraient ne pas voir de changements immédiats. En France, toutes ces modifications ne sont pas attendues avant 2025.