Nous sommes aujourd’hui inondés de photos « deep-fake » qu’il est pratiquement impossible de distinguer des vraies (à l’exception des doigts supplémentaires). Pire, des articles générés par IA semblent réalistes (bien qu’ils paraissent toujours guindés). On trouve aussi désormais des critiques générées par IA.
En outre, les systèmes d’IA peuvent récupérer des documents protégés par le droit d’auteur comme données d’entraînement. Ce qui expose les utilisateurs à des violations potentielles du droit d’auteur.
Et par ailleurs, le contenu de l’IA ne cesse de s’améliorer.
Un moyen infaillible d’identifier les contenus générés par l’IA
Existera-t-il donc un jour un moyen infaillible d’identifier les contenus générés par l’IA ?
« L’IA générative a d’abord été utilisée à des fins ludiques et éducatives. Mais nous voyons désormais de nombreux acteurs utiliser l’IA à des fins malveillantes » indique Andy Thurai, vice-président et analyste principal chez Constellation Research, à ZDNET.
Le contenu des médias – images, vidéos, fichiers audio – est particulièrement susceptible d’être « mal crédité, plagié, volé ou de ne pas être crédité du tout », ajoute M. Thurai. Cela signifie que « les créateurs n’obtiendront pas les crédits ou les revenus appropriés ». Un danger supplémentaire, dit-il, est la « propagation de la désinformation qui peut influencer les décisions ».
Des filigranes multi-utilisateurs
Du point de vue du texte, l’un des principaux problèmes est que les multiples prompts et itérations utilisés avec les modèles de langage ont tendance à effacer les filigranes ou à n’offrir que des informations minimales. C’est le sujet d’un article récent rédigé par des chercheurs de l’université de Chicago.
Les chercheurs préconisent donc une nouvelle approche. Des filigranes multi-utilisateurs. Ils « permettent de tracer le texte généré par le modèle jusqu’à des utilisateurs individuels ou des groupes d’utilisateurs, même en cas d’incitation adaptative ».
Le défi, tant pour les textes que pour les médias, est d’implanter des signaux détectables qui ne peuvent être ni modifiés ni supprimés. L’idée étant d’apposer un filigrane numérique sur les modèles de langage et les résultats de l’intelligence artificielle.
La difficulté de la vérification
Des initiatives sectorielles sont en cours pour mettre au point des filigranes d’IA infaillibles.
Par exemple, la Coalition for Content Provenance and Authenticity (C2PA) – une alliance entre Adobe, Arm, Intel, Microsoft et Truepic – développe une norme technique ouverte destinée à fournir aux éditeurs, aux créateurs et aux consommateurs « la capacité de retracer l’origine de différents types de médias ».
La C2PA réunit :
- L’initiative CAI (Content Authenticity Initiative), dirigée par Adobe, qui se concentre sur les systèmes permettant de fournir un contexte et un historique aux médias numériques
- Et le projet Origin, une initiative dirigée par Microsoft et la BBC qui s’attaque à la désinformation dans l’écosystème de l’information numérique
Selon Alessandra Sala, de Shutterstock, dans un rapport publié par l’Union internationale des télécommunications (ITU) – l’agence des Nations unies pour les technologies numériques – « Sans un accès normalisé aux outils de détection, vérifier si le contenu est généré par l’IA devient un processus coûteux, inefficace et ad hoc ».
« En effet, cela implique d’essayer tous les outils de détection de l’IA disponibles, un par un, et de ne toujours pas être sûr que certains contenus sont générés par l’IA. »
« Un registre public de modèles en filigrane »
La prolifération des plateformes d’IA générative « nécessite un registre public de modèles en filigrane, ainsi que des outils de détection universels », insiste Alessandra Sala. « En attendant, les utilisateurs éthiques de l’IA doivent interroger le service de filigrane de chaque entreprise pour vérifier si un contenu est filigrané ».
L’initiative C2PA encourage de son côté « l’adoption des références de contenu, des métadonnées inviolables qui peuvent être attachées au contenu numérique ». Les références de contenu sont en quelques sortes comme une « étiquette nutritionnelle » que les créateurs peuvent attacher à leur contenu numérique. Elles peuvent être utilisées ensuite pour suivre la provenance du contenu. Grâce à cette norme ouverte, les éditeurs, les créateurs et les consommateurs pourront « retracer l’origine et l’évolution d’un média, qu’il s’agisse d’images, de vidéos, de sons ou de documents ».
Les créateurs de contenu peuvent ainsi « faire reconnaître leur travail en ligne en joignant des informations telles que leur nom ou leurs comptes de médias sociaux directement au contenu qu’ils créent ». Pour ce faire, il suffit de cliquer sur une épingle attachée à un élément de contenu ou de se rendre sur un site web pour en vérifier la provenance. De tels outils « valident les informations pertinentes et fournissent un historique détaillé des changements au fil du temps ».
Source : « ZDNet.com«