A défaut de mesures concrètes, Meta affiche clairement ses intentions : le géant américain des réseaux sociaux a déclaré vouloir identifier « dans les prochains mois » toute image générée par l’intelligence artificielle (IA) qui sera publiée sur ses plates-formes. « Nous étiquetterons les images que les utilisateurs publient sur Facebook, Instagram et Threads lorsque nous pourrons détecter des signaux conformes aux normes de l’industrie montrant qu’elles sont générées par l’IA », a ainsi annoncé Nick Clegg, le responsable des affaires internationales de Meta, dans une note de blog publiée mardi 6 février.
Une telle labélisation s’appliquerait théoriquement à tous les outils permettant de générer de tels contenus, qu’il s’agisse de ceux de Google, OpenAI, Microsoft, Adobe, Midjourney ou encore Shutterstock, a-t-il précisé. Meta s’appuierait pour cela sur les métadonnées que ces entreprises entendent elles-mêmes ajouter aux images créées à l’aide de leurs outils.
Le responsable reconnaît néanmoins que de tels watermarks (« tatouages numériques »), s’ils commencent à être déployés sur les images générées par IA, sont encore absents des contenus sonores ou vidéo, ce qui empêche Meta de « détecter ces signaux et [d’]étiqueter ce type de contenu provenant d’autres entreprises ». « Pendant que l’industrie travaille pour mettre en place cette fonctionnalité, nous ajoutons une fonction permettant aux utilisateurs lorsqu’ils partagent des vidéos ou des sons générés par l’IA de l’indiquer afin que nous puissions les étiqueter », ajoute-t-il toutefois. A charge donc, pour l’heure, aux utilisateurs eux-mêmes d’assurer la modération dans ces cas-là.
Nick Clegg admet que cet étiquetage à grande échelle annoncé mardi par Meta « n’éliminera pas » totalement le risque de production de fausses images. Il imagine néanmoins que cela permettra tout de même de « minimiser » leur prolifération. « J’espère vraiment que, en faisant cela et en prenant les devants, nous inciterons le reste de l’industrie à travailler ensemble et à essayer de développer les normes (techniques) communes dont nous avons besoin », a ajouté auprès de l’Agence France-Presse le dirigeant de Meta, qui se dit prêt à « partager » sa technologie ouverte « le plus largement possible ».
Des outils déjà en place mais pas infaillibles
Cette annonce intervient au lendemain d’un avis rendu par le conseil de surveillance de Meta (oversight board) au sujet des contenus manipulés. Appelé à se prononcer sur le cas d’un montage vidéo grossier mettant en scène le président américain, Joe Biden, le conseil a intimé à la société de reformuler son règlement de manière à ce que les images et les sons modifiés, que ce soit avec ou sans IA, soient clairement identifiables en tant que tels par les utilisateurs.
De nombreuses élections majeures vont avoir lieu dans le monde en 2024, notamment la présidentielle américaine, et les autorités craignent un déferlement de deepfakes, des montages visuels et/ou sonores de plus en plus sophistiqués grâce à l’IA. La vidéo en ligne de Joe Biden – manipulée de façon à laisser croire que le chef d’Etat touche la poitrine de sa petite-fille adulte de façon répétée – avait été largement relayée l’année dernière. Plus récemment, le déferlement d’images manipulées mettant en scène la chanteuse Taylor Swift a prouvé une fois de plus la facilité avec laquelle ces contenus peuvent être générés et diffusés.
Dans son post de blog, Nick Clegg fait valoir que Meta a déjà mis en place un étiquetage automatique sur les images photoréalistes créées à partir de son propre outil d’images génératives, Meta AI, depuis son lancement au mois de décembre, de façon à ce que « les utilisateurs sachent que l’IA est impliquée ». Or, une étude menée par Tech Transparency Project, publiée le 30 janvier, a montré que ce dispositif était loin d’être infaillible : avec Meta AI, l’ONG a pu générer sept images au contenu problématique ou interdit aux mineurs (promotion d’une application de rencontre, de l’anorexie, de la consommation d’alcool, de drogues ou même du suprémacisme blanc…) et les faire valider par la plate-forme comme des publicités à destination des 13-17 ans.