La Commission européenne a lancé un appel d’offres pour mieux contrôler la bonne application du DSA, la loi européenne sur les services numériques qui impose une plus grande modération des contenus en ligne. Elle recommande aussi de rendre le code de bonnes conduites sur la désinformation obligatoire, en l’intégrant totalement au DSA.
Après la loi, place à son application : la Commission européenne souhaite mettre en place des outils pour davantage contrôler et améliorer l’application du DSA, le règlement européen sur les services numériques, par les très grandes plateformes du Web, selon un appel d’offres publié le lundi 29 juillet et repéré par Euractiv, ce mardi 30 juillet. Cette loi, qui vise à modérer les contenus en ligne, et à mieux protéger les consommateurs (dont les mineurs), est entrée en vigueur le 25 août dernier pour la vingtaine de géants du numérique dont font partie Google, TikTok, Meta, Amazon, Apple ou encore Temu.
Et en cas de non-respect du texte, la sanction est salée : les amendes peuvent aller jusqu’à 6 % de leur chiffre d’affaires annuel. En cas de violation répétée, les plateformes peuvent même être exclues du marché de l’Union européenne. Mais encore faut-il pouvoir contrôler la bonne application du texte, qui impose aux plateformes de davantage réguler leurs contenus, de mieux lutter contre la haine et la manipulation de l’information, et de ne plus recourir aux « dark patterns » – des interfaces destinées à manipuler l’utilisateur au moment de faire un choix.
À lire aussi : Contenus haineux, désinformation… Sur ces deux plateformes, vous pouvez « signaler » les mauvaises pratiques des géants du numérique
Des outils de contrôle et d’application du DSA à créer
C’est pourquoi la direction générale de la Commission chargée des réseaux de communication, du contenu et de la technologie vient de lancer un appel d’offres, d’une valeur de 12 millions d’euros. L’objectif est de trouver une entreprise qui créera des outils de contrôle et d’application du DSA, en soutien aux équipes de la Commission européenne chargées de l’application de cette législation.
La société qui remportera l’appel d’offres aura 36 mois pour mettre en place un système d’alerte qui surveillera en temps réel « les évolutions technologiques » et l’émergence de « nouveaux risques systémiques » posés par ces plateformes. L’entreprise devra concrètement « effectuer [une analyse sur] le risque de dépendance ou d’utilisation compulsive de ces plateformes de réseaux sociaux », selon les spécifications techniques. Elle aura aussi pour mission d’analyser « le rôle des influenceurs dans la vente et la publicité de produits illégaux ». Dans un autre registre, elle devra aider la Commission à « cartographier et évaluer l’efficacité » des dispositions relatives à la protection des mineurs, à charge pour elle de « recueillir des informations sur l’expérience des mineurs en ligne ».
Le code de conduite contre la désinformation à intégrer dans le DSA
Parallèlement, la Commission européenne a demandé, dans un rapport sur la désinformation publié le lundi 29 juillet, que le « code de conduite de lutte contre la désinformation », jusqu’ici non contraignant, devienne un véritable code intégré au DSA. Pour rappel, ce code de conduite est un ensemble de règles que les géants du numérique comme Google, Meta, Microsoft, TikTok avaient volontairement accepté de respecter à partir de 2018. On y trouve par exemple des obligations en matière de transparence, de modération de contenus, de suppression des « contenus de propagande »… En somme, des garde-fous pour ne pas que les réseaux sociaux ne deviennent (davantage) des caisses de résonance de fake news.
À lire aussi : Twitter est le champion de la désinformation, selon l’Union européenne
Dans ce rapport, on apprend qu’aucun incident de désinformation majeur ou systémique qui aurait perturbé les élections européennes de juin n’a été relevé. L’exécutif recommande toutefois de transformer le code de pratique sur la désinformation – aujourd’hui non contraignant – en un code de conduite du DSA : le texte deviendrait alors obligatoire pour les très grandes plateformes. Ce qui renforcerait, de fait, la modération des contenus en ligne, et la lutte contre les fausses informations.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.