L’algorithme de Meta ne réduira plus la portée des posts contenant de fausses informations aux Etats-Unis

L’algorithme de Meta ne réduira plus la portée des posts contenant de fausses informations aux Etats-Unis


C’est un aspect technique un peu passé inaperçu, dans le flot des dernières annonces de Meta, mais qui pourrait avoir un impact majeur. En plus des virages à 180 degrés effectués par Mark Zuckerberg concernant la politique de contenus et la culture de son entreprise, un récent changement d’algorithme risque d’avoir des conséquences importantes sur la qualité de ce que voient, sur leurs fils, les utilisateurs américains de Facebook et d’Instagram.

Le média américain spécialisé Platformer, qui a eu accès à des documents internes de Meta, a révélé, mardi 14 janvier, que les restrictions de diffusion qui touchaient jusqu’ici les fausses informations et les messages potentiellement trompeurs étaient désormais levées aux Etats-Unis. L’information était évoquée succinctement dans le communiqué publié le 7 janvier par Joel Kaplan, le nouveau responsable de la politique de modération chez Meta.

« Nous rétrogradons trop souvent la visibilité de contenus qui, selon nos systèmes, pourraient enfreindre nos normes », regrette-t-il dans ce texte. Avant de poursuivre : « Nous nous débarrassons actuellement de la plupart de ces rétrogradations [automatiques] et allons exiger, pour les rétrogradations qui le méritent, davantage de certitude dans le fait qu’elles enfreignent nos normes. »

Des outils déployés depuis près de dix ans

Contacté, Meta n’a pas pour l’heure donné suite à nos demandes de précisions. Mais ce communiqué a rapidement été suivi d’effets techniques concrets, révèle Platformer, puisque les outils de rétrogradation automatique ont été rendus inactifs sur les réseaux sociaux de Meta aux Etats-Unis, dans les jours qui ont suivi. De nombreux types de messages sont concernés, et parmi eux, ceux pouvant relever de la désinformation et être considérés comme des fake news.

Depuis 2016 et la mise en place du vaste programme de fact-checking international de Facebook, ces outils de modération automatique (appelés « classifiers », classificateurs) avaient été déployés pour détecter des contenus potentiellement douteux sur le plan éditorial et en réduire la portée dans les fils d’actualité des utilisateurs.

Il vous reste 57.29% de cet article à lire. La suite est réservée aux abonnés.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.