Des hommes politiques qui prononcent des phrases qu’ils n’ont jamais dites, des scènes qui n’ont jamais eu lieu et qui servent à prouver des théories conspirationnistes… Pendant les prochaines campagnes électorales, les fausses images et vidéos générées par l’IA vont se multiplier sur les réseaux sociaux. Si rien n’est fait, comment allons-nous différencier le vrai du faux ? Pour le CEPS, le Centre de Politique Européenne qui a publié une étude mardi 10 octobre 2023, les outils d’intelligence artificielle (IA) générative vont fortement bousculer les prochaines élections en Europe, et le débat démocratique va s’en trouver fortement altérer. Ce think tank basé en France, en Allemagne et en Italie vient définitivement tirer la sonnette d’alarme. « Si nous pensons aux élections européennes de l’année prochaine, les règles existantes sur la modération des contenus, telles qu’elles sont prévues par le règlement sur les services numériques (DSA), sont déjà dépassées, à l’ère de l’IA générative », écrivent les auteurs de l’étude.
Parmi eux : Victor Warhem, économiste français et représentant du think tank en France, pour qui tout serait parti de l’observation, en Allemagne, de certaines pratiques de l’AFD, explique-t-il à 01net. L’extrême droite allemande a utilisé, ces derniers mois, des images très fortes générées par Midjourney de migrants semblant être menaçants, auxquelles ont été accolés leurs messages politiques. Les quatre chercheurs se seraient posés la question de « l’impact des nouveaux outils d’intelligence artificielle sur le discours politique en ligne ». Ces derniers ne vont-ils pas davantage polariser un débat déjà fortement… polarisé ?
Des « bulles de filtres » à l’IA
Avec les « des bulles de filtres » des réseaux sociaux, écrivent les chercheurs, les individus sont face à des « réalités filtrées distinctes de notre réalité commune ». Ces derniers ne vont alors plus croire « aux informations qui émergent d’autres filtres », relève l’étude. Mais avec l’IA, on change littéralement d’échelle. Grâce à ChatGPT, MidJourney, Dall-E, Bard et tous les autres, il est désormais facile, rapide et bon marché de créer des contenus « de désinformation personnalisée. Les “deep fakes” générés par l’IA déforment même notre compréhension de la “vérité” et d’une réalité commune et objectivement partagée ». Ainsi, un candidat à une élection peut reprendre l’image de son concurrent et lui faire dire ou faire tout et n’importe quoi – ce qu’a déjà fait le candidat républicain à l’élection américaine Ron DeSantis avec son adversaire, Donald Trump.
À lire aussi : L’adversaire de Trump à la primaire républicaine utilise l’IA pour simuler la voix de l’ex-président
Comment alors « maintenir un débat rationnel » dans un tel contexte ?, s’interrogent les chercheurs. Selon ces derniers, les « populistes » (un terme qu’ils reconnaissent être « controversé » et « caméléon », désignant le fait d’opposer « le “peuple” à l’”élite corrompue” ») qui s’appuyaient jusque-là sur les réseaux sociaux pour leurs campagnes, sont désormais en train d’adopter l’intelligence artificielle (IA). Ces systèmes vont venir amplifier leur force de frappe, leur donnant le pouvoir de se démultiplier, souligne Victor Warhem.
L’écosystème numérique couplé à l’IA « augmente les chances de succès des mouvements populistes »
« L’IA rend la politique “plus facile, moins chère et plus dangereuse” », écrivaient déjà il y a plusieurs mois nos confrères de Bloomberg. Or, « le danger des campagnes de désinformation amplifiées par l’intelligence artificielle est bien réel », puisque l’écosystème numérique couplé à l’IA « augmente finalement les chances de succès des mouvements politiques populistes », prévient Camille Réau, une des co-auteurs citée dans l’étude. De quoi constituer un véritable danger pour la démocratie.
L’étude, qui s’est focalisée pour la France sur le RN, LFI et le parti d’Eric Zemmour, Reconquête !, montre que leur utilisation de l’IA reste pour l’instant marginale. Notamment parce qu’il n’y a pas encore eu de véritable campagne à l’ère de l’IA, explique Victor Warhem. Le parti Reconquête a, par exemple, utilisé une réplique de ChatGPT (ChatZ), un militant virtuel d’Eric Zemmour qui répond à toutes vos questions et tente de vous convaincre de voter pour son champion.
Le parti de Marine Le Pen a, de son côté, utilisé des bots sur les réseaux sociaux, qui ont permis de simuler une certaine notoriété sur les réseaux sociaux comme sur X, anciennement Twitter. « En produisant automatiquement des tweets et en interagissant avec les autres utilisateurs, le bot identifie les sujets tendance, les influenceurs et agit comme un mégaphone pour faire passer un message ou un sujet souvent controversé », écrivent-ils.
Diffamation et modération sont inefficaces contre les contenus de fake news générés par l’IA
Le problème est qu’aujourd’hui, il n’existerait pas d’armes juridiques réellement efficaces pour contrer les discours haineux ou tout simplement faux et destinés à nous manipuler. « Si demain, Vladimir Poutine décide de lancer une attaque massive de désinformation dans le cadre des élections européennes, ou dans le cadre des élections américaines : son armée de bots va générer des fausses vidéos et des fausses audios en permanence. Or, on n’a pas d’outils à disposition pour empêcher que ces contenus arrivent dans le fil de tout le monde. Ça va nous arriver très rapidement, et on ne pourra rien faire contre ça », s’alarme Victor Warhem. De nombreuses mesures prévues par le DSA ne seront pas toutes mises en œuvre avant les élections européennes de 2024.
Pour lutter contre le « populisme numérique sur les plateformes », les auteurs de l’étude recommandent de mettre en place une approche « ex-ante », c’est-à-dire en amont, avant que le contenu généré par l’IA ne soit diffusé. Les mesures actuelles, comme la détection et suppression automatique de contenus reconnus comme étant problématiques, ne suffiront plus, estiment les auteurs. Il en est de même pour « la modération manuelle des contenus et la création de nouvelles agences de régulation ». Car une fois que le contenu est diffusé, le mal est fait. La fake news a été diffusée, et elle ne sera retirée, au mieux, qu’après avoir été diffusée massivement.
Mention obligatoire, transmission lente du contenu, armée de citoyens, consentement…
Les auteurs mettent en avant différentes mesures pour y remédier. L’étiquetage ou la mention obligatoire « généré par l’IA », clairement visible, pour les contenus générés par l’IA permettrait de distinguer, d’un coup d’œil, le vrai discours du faux, la vidéo authentique de la deepfake. Mais encore faut-il que ce moyen technique existe – ce qui n’est pas encore le cas. Cette mesure a été ajoutée, en juin dernier, à la liste du code européen de bonne conduite – un corpus de règles non contraignant. L’exécutif européen demandait alors à tous les signataires de signaler clairement et immédiatement tous les contenus générés par l’IA qui se trouveraient sur leurs plateformes.
À lire aussi : Bientôt des mentions « contenu généré par l’IA » sur les réseaux sociaux ?
Les chercheurs proposent aussi une « transmission lente du contenu », qui limiterait la viralité d’un post par exemple – avec un nombre de likes et de partage limité. « On pourrait aussi obliger les plateformes à introduire dans le feed des utilisateurs des contenus qui sont totalement hors de leur spectre idéologique » – ce qui reviendrait à imposer un changement de l’algorithme, au moins pendant les élections. « Ce qui irait totalement à l’encontre de l’intérêt des plateformes, qui ont intérêt à ce que leurs utilisateurs voient des contenus qui correspondent à leur idéologie, à leurs aspirations » pour qu’ils restent plus longtemps sur leur plateforme.
Pour Victor Warhor, la France propose des mesures supplémentaires dans son projet de loi pour sécuriser le numérique. Un article, déposé mardi 10 octobre par le Gouvernement, prévoit « une sorte d’armée de citoyens qui ont été sélectionnés, entre guillemets, par une équipe gouvernementale pour “flaguer” les contenus, qui seront ensuite gérés par les modérateurs de contenus sur les plateformes », explique l’économiste. Ce système pourrait être calqué sur les modérateurs de contenus bénévoles de Wikipédia. Une autre mesure proposée pénaliserait le fait de diffuser des deepfakes concernant des personnes qui n’ont pas consenti à cette diffusion, ajoute l’expert. L’objectif serait de limiter l’utilisation de deepfakes à des fins nocives, poursuit-il.
Pour les auteurs, les élections de 2024 auront l’effet d’un crash test. On risque de s’apercevoir que les outils actuels ne permettent pas de lutter efficacement contre les contenus de désinformation voire de manipulation générés par l’IA ou diffusés massivement grâce à l’IA. Il faudrait donc agir dès maintenant, plaident-ils. Car dans un tel contexte, s’interrogent-ils, peut-il encore « exister une “société” européenne – et, par conséquent, un débat collectif, à l’échelle de la société, qui est essentiel à la survie à long terme d’une démocratie » ?
Source :
Etude du CEP « Les populistes européens s’appuient de plus en plus sur l’IA »