Image : Meta.
Grâce à l’intelligence artificielle générative, il est devenu très simple de créer des images réalistes, vraisemblables même, qui pourraient avoir été prises par un être humain. Différencier les images réelles des images générées par IA devient donc de plus en plus difficile, ce qui favorise la diffusion de fake news.
C’est dans ce contexte que Meta a annoncé mardi plusieurs initiatives pour lutter contre la désinformation. Sur son blog, l’entreprise a notamment indiqué que dans les mois à venir, des étiquettes indiqueraient sur ses réseaux – Instagram, Facebook et Threads – quand une image a été générée par une IA.
Lutter contre la désinformation
Meta travaille actuellement avec des partenaires du secteur de l’IA pour déterminer des normes techniques communes qui indiqueraient qu’un contenu a été créé à l’aide de l’IA générative. Grâce à ces signaux, le géant des réseaux sociaux sera ensuite capable de générer automatiquement des étiquettes – compréhensibles dans toutes les langues – sur les articles publiés sur ses plateformes. A l’instar de ce qu’on peut voir sur l’image ci-dessus, les étiquettes indiqueront qu’une image a été créée par une IA.
« A mesure que la différence entre le contenu créé par des humains et le contenu synthétique s’estompe, on veut de plus en plus savoir où se situe la limite », souligne Nick Clegg, président des affaires internationales de Meta. « Il est donc important pour nous d’aider les personnes à savoir si le contenu photoréaliste qu’elles voient a été créé à l’aide d’une IA. »
La nouvelle fonctionnalité d’étiquetage de Meta fonctionnerait comme celle déjà mise en place par TikTok en septembre : sur le réseau social chinois, des étiquettes apparaissent sur les vidéos contenant des images, des sons ou des vidéos réalistes générés par une IA.
Métadonnées et étiquetage
Chaque image générée par Meta AI, le générateur d’images par IA de la marque, inclut déjà des marqueurs visibles, des filigranes invisibles et des métadonnées IPTC. L’entreprise appose ensuite sur ces images une étiquette « imaginée avec l’IA » pour indiquer qu’elles ont été créées artificiellement.
Meta a également fait savoir qu’elle travaillait sur des outils de pointe capables de détecter les filigranes invisibles, comme les métadonnées IPTC, qui auraient été mises en place par d’autres entreprises – OpenAI, Google, Microsoft, Adobe, Midjourney ou encore Shutterstock – pour leurs générateurs d’images par IA. L’objectif est d’ajouter aux images pour lesquelles ce type de filigrane a été détecté une étiquette similaire.
Cette façon de procéder laisse bien sûr de la marge pour les actes malveillants : en effet, si une entreprise propose un générateur d’images par IA qui génère des images sans ces métadonnées, Meta n’aura aucun moyen de détecter que l’image a été créée par une IA. Néanmoins, même si cette technique a des failles, on peut dire que l’entreprise avance dans la bonne direction.
Par ailleurs, Meta avertit que, si des efforts sont faits par de nombreuses entreprises pour inclure des signaux dans les images générées par leurs IA, il n’en va pas de même pour les outils d’IA qui génèrent du son et de la vidéo – du moins pas à la même échelle. Ainsi, l’entreprise ne garantit pas ce type de contenu, plus difficile à détecter – et donc à étiqueter – pour l’instant.
Un étiquetage volontaire obligatoire
En attendant de pouvoir les détecter automatiquement, Meta a ajouté une fonctionnalité permettant aux utilisatrices et utilisateurs d’indiquer qu’ils ont utilisé l’IA pour générer une image. Le réseau social ajoute alors une étiquette de type « imaginée avec l’IA » à l’image.
« Nous exigerons des utilisateurs qu’ils utilisent cet outil d’identification et de référencement lorsqu’ils publieront du contenu organique avec une vidéo photoréaliste ou un son réaliste qui a été créé ou modifié numériquement. Nous pourrons appliquer des sanctions s’ils ne le font pas », souligne Nick Clegg.
Le dirigeant ajoute qu’une étiquette plus visible pourra être ajoutée par le réseau social s’il détermine qu’une image, une vidéo ou un son modifié ou généré artificiellement « présente un risque particulièrement élevé de tromper le public sur un sujet important ».
Un outil d’influence politique
Ce dernier point revêt une importance cruciale pour cette année exceptionnelle en matière d’élections : pour rappel, plus d’une personne sur deux sera appelée à voter sur la planète cette année. En particulier, la France sera attentive à une élection qui se déroulera outre-Atlantique dans quelques mois : l’élection présidentielle aux Etats-Unis.
Les progrès de l’intelligence artificielle, en particulier de l’IA générative, rendant plus faciles la création et la diffusion de fausses informations, son influence sur l’opinion publique – et donc potentiellement sur les élections – est non négligeable. Cette technologie pourrait bien entraver le processus démocratique.
C’est pourquoi certaines entreprises, dont OpenAI, ont déjà pris des mesures pour mettre en place des garde-fous, notamment avant le début de la présidentielle américaine.
Source : ZDNet.com