Priver de publicité les sites diffusant des infox, mieux coopérer avec les fact-checkers, assurer plus de transparence : les plates-formes numériques se sont engagées à muscler leur lutte contre la désinformation, dans un nouveau code européen de bonnes pratiques présenté jeudi.
Cette version révisée du code lancé en 2018, dont l’AFP a obtenu une copie, devait être dévoilée lors d’une conférence de presse, jeudi, de la vice-présidente de la Commission chargée de la transparence, Vera Jourova, et du commissaire européen au marché intérieur Thierry Breton.
Elle doit être signée par un nombre élargi d’acteurs, une trentaine au total : des plates-formes et réseaux sociaux comme Meta, Google, Twitter, Microsoft, TikTok, ainsi que des professionnels de la publicité qui participaient déjà au précédent code, rejoints cette fois par des fact-checkers et des ONG comme Reporters sans frontières (RSF) et Avaaz, selon une source européenne.
Jusqu’à 6 % du chiffre d’affaires mondial d’amende
Les signataires ont eux-mêmes participé à la rédaction du texte, qui contient une quarantaine d’engagements – soit le double du précédent code – et des indicateurs permettant d’en mesurer le respect.
Le code précédent ne reposait que sur l’autorégulation, pour des résultats jugés insuffisants par la Commission. Cette fois, l’adhésion au code reste volontaire, mais pour les « très grandes plates-formes » (atteignant 45 millions d’utilisateurs dans l’UE), il permet de répondre aux obligations fixées par le règlement sur les services numériques (Digital Services Act, DSA).
Le DSA, qui est en voie d’adoption, contraint ces plates-formes à déployer des efforts pour « réduire les risques » de désinformation et prévoit des amendes pouvant aller jusqu’à 6 % de leur chiffre d’affaires mondial.
« Plus un euro issu de la désinformation »
L’un des engagements principaux consiste à assécher les revenus de la désinformation. « Du Brexit à la guerre russe en Ukraine, ces dernières années, des réseaux sociaux bien connus ont permis à la désinformation et aux stratégies de déstabilisation de se répandre sans retenue, et en ont même tiré profit financièrement », a dénoncé Thierry Breton.
« Les plates-formes ne devraient plus recevoir un seul euro issu de la diffusion de la désinformation », a souligné le commissaire français.
Dans le code, les plates-formes qui font du placement publicitaire, comme Google, s’engagent à éviter de diffuser ces annonces près de contenus conspirationnistes et à vérifier les sites sur lesquels elles s’affichent. Elles s’engagent aussi à s’attaquer aux publicités contenant des infox.
Les signataires doivent fournir aux utilisateurs des outils pour identifier et réagir aux informations fausses ou trompeuses, et coopérer plus étroitement avec les fact-checkers, dans toutes les langues des pays de l’UE. Ils doivent aussi soutenir le travail des chercheurs sur la désinformation, en leur permettant l’accès à des données anonymisées et agrégées.
A la différence des contenus illégaux, il ne s’agit pas de retirer des infox – ce qui se heurterait au principe de liberté d’expression –, mais de promouvoir les sources d’information fiables. Le code mentionne notamment la norme mise en place par la Journalism Trust Initiative (JTI), à l’initiative de RSF, et dont l’AFP est notamment partenaire.
Faux comptes, « bots », et « deepfakes »
Les plates-formes s’engagent aussi à être plus transparentes sur les publicités politiques, en les identifiant clairement comme telles, et en permettant à l’utilisateur de savoir pourquoi il en est le destinataire.
Les signataires promettent de mieux lutter contre les faux comptes, l’amplification de la désinformation par des « bots » – programmes informatiques qui envoient automatiquement des messages –, les usurpations d’identité et les « deepfakes » malveillants. Le « deepfake », ou « hypertrucage », est une technologie d’intelligence artificielle consistant à remplacer un visage par un autre. Une task force sera chargée d’évaluer les engagements pris.