Au début de janvier, le groupe Meta (Facebook, Instagram), a été contraint par le tribunal de Paris de retirer trente-sept publications d’influenceurs sur Instagram. Celles-ci ont été jugées non conformes à la loi Evin, qui encadre depuis plus de trente ans les publicités pour boissons alcoolisées. Cette « petite » victoire « contre la sponsorisation de l’alcool en ligne » dont s’est félicitée l’association Addictions France cache pourtant un problème de fond : la masse de contenus créés par des influenceurs pour promouvoir des marques d’alcools est très difficile à évaluer et à contrôler.
En 2009, la loi Evin a vu son périmètre évoluer avec la loi HPST (hôpital, patients, santé, territoires), qui autorise la publicité en ligne pour l’alcool, mais avec des restrictions précises : interdite sur les sites destinés aux mineurs, celle-ci doit rester objective et ne pas mettre en valeur l’alcool dans un contexte attractif comme la fête. Un message de prévention est également obligatoire sur chaque publication. Lorsque la pratique des partenariats rémunérés a commencé a émergé chez les influenceurs, le cadre légal était donc très clair. Pourtant, des infractions ont vite été constatées. En 2018, la marque Cubanisto créait ainsi la polémique en nouant un partenariat avec deux influenceurs mineurs sur Instagram. Depuis, les associations, organismes de régulation et alcooliers confrontent, devant les tribunaux et en coulisse, leur vision de la loi Evin chez les influenceurs.
Une quantité impossible à contrôler
Aujourd’hui, les associations habilitées, au même titre que la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), à se saisir de ces sujets manquent de moyens pour contrôler la masse de contenus disponibles en ligne. « On est obligés de se concentrer sur les gros influenceurs, sur les cas les plus graves, note Franck Lecas, responsable du pôle loi Evin chez Addictions France. Depuis le début, on a pu se pencher sur le cas de deux cents influenceurs pour à peu près cinq cents contenus. On a pu faire retirer la moitié des contenus permanents. »
L’association en appelle ainsi à la responsabilité des plates-formes pour qu’elles se chargent de supprimer, automatiquement ou avec plus de moyens humains, les contenus illégaux. Contactés par Le Monde, TikTok, Meta et YouTube assurent suivre les lois locales, et renvoient à leurs règles de communauté. « Nos équipes restent très attentives à ce sujet, nous avons une grille de règles très claires que nous pouvons appliquer, déclare YouTube France, surtout si nous sommes sollicités pour vérifier un contenu en particulier, que des associations nous auraient signalé par exemple. »
Il vous reste 66.34% de cet article à lire. La suite est réservée aux abonnés.