Mistral AI mis en cause pour avoir propagé une campagne de désinf …

Mistral AI mis en cause pour avoir propagé une campagne de désinf ...


C’est une véritable plongée dans les arcanes des opérations d’influence russe contre la France que propose NewsGuard, une start-up spécialisée dans la vérification des faits publiés en ligne. Une entité baptisée Storm-1516 a déployé récemment une vaste campagne de désinformation ciblant la France. Conséquence, des récits mensongers générés à l’aide d’intelligence artificielle ont été diffusés sur les réseaux sociaux. Et même repris par certains chatbots.

Dont le fameux « Le Chat » de la pépite d’IA française Mistral AI. Le chatbot a notamment relayé sans vérification de fausses informations issues d’une vidéo publiée en ligne et prétendant qu’un militant antillais accusait Emmanuel Macron d’avoir eu une liaison avec son frère, mort du sida.

Or, cette vidéo, diffusée sur YouTube fin mars, a été montée à l’aide d’une technologie de “face swap”, selon les experts consultés par NewsGuard. « Le face swap permet d’échanger les visages entre deux personnes sur une image numérique » note Adobe, qui présente cette fonctionnalité comme « ludique ». Ici, elle a été utilisée à des fins malveillantes.

Réaulf Fleming, le militant antillais mis en cause, n’a jamais tenu ces propos. Et les informations biographiques utilisées dans la vidéo ont été partiellement inventées.

NewsGuard

Dans près d’un tiers des cas, les outils ont répété les mensonges

Et Mistral AI n’est pas le seul mis en cause. NewsGuard a testé 11 des principaux chatbots avec ces affirmations fausses. Résultat : dans près d’un tiers des cas, les outils ont répété les mensonges, souvent en citant des sources douteuses ou en s’appuyant sur des contenus vidéos manipulés.

Une analyse récente de l’Anssi citait l’empoisonnement des IA par des données corrompues comme l’un des risques actuels.

Faute des bonnes mesures de sécurité, “des acteurs malveillants pourraient exploiter les vulnérabilités des technologies d’IA et à l’avenir compromettre leur usage”, avertit-elle.

« L’intelligence artificielle permet à ces campagnes d’atteindre une ampleur sans précédent”

Les chatbots d’IA ne sont évidemment pas les seuls à être cibles et victimes de ces campagnes de désinformation.

Entre décembre 2024 et mars 2025, NewsGuard a retrouvé cinq récits mensongers propagés par Storm-1516. Des récits qui ont circulé dans près de 39 000 publications en ligne, et générant plus de 55 millions de vues.

Les autorités françaises confirment une accélération des attaques informationnelles. Le Premier ministre François Bayrou a déclaré lors d’un forum organisé par l’agence gouvernementale Viginum : “Après l’Ukraine, la France est aujourd’hui le pays le plus visé par les tentatives de manipulation venues de l’étranger. L’intelligence artificielle permet à ces campagnes d’atteindre une ampleur sans précédent.”

Blanchiment de contenu

Ce type de mise en scène n’est pas inédit. En 2024, une vidéo truquée accusait le candidat à la vice-présidence américaine Tim Walz d’agression sexuelle.

En Allemagne, en décembre dernier, une autre vidéo prétendait que l’ancien candidat écologiste Robert Habeck avait abusé sexuellement d’une jeune femme en 2017. Aucune de ces allégations n’a été vérifiée, et les “témoins” impliqués ont démenti leur implication.

Le mode opératoire de Storm-1516 – que NewsGuard relie à des activités d’ingérence au profit de la Russie – est désormais bien connu. Il s’agit d’utiliser de vraies personnes ou des éléments vérifiables pour donner du crédit à une fausse histoire, la diffuser sur des plateformes alternatives (Rumble, BitChute), puis s’appuyer sur des comptes automatisés ou des médias tiers pour relayer le récit. Cette stratégie dite de blanchiment de contenu permet de contourner les systèmes de modération.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.