L’essor des contenus générés par l’IA met l’innovation et l’inquiétude au premier plan du paysage médiatique. Des images, des vidéos et des enregistrements vocaux hyperréalistes peuvent désormais être créés par toute personne ayant accès à des outils tels que DALL-E, Midjourney et Sora.
Ces technologies ont démocratisé la création de contenu, permettant aux artistes et aux spécialistes du marketing de repousser les limites de la créativité.
Toutefois, cette accessibilité s’accompagne d’un aspect plus sombre. Des acteurs malveillants peuvent utiliser ces outils pour usurper l’identité de personnalités publiques, diffuser des fausses nouvelles ou manipuler le public à des fins politiques ou financières.
La décision de Disney de recréer numériquement la voix de James Earl Jones pour les futurs films Star Wars est un exemple frappant de l’entrée de cette technologie dans l’usage courant. Si cette décision démontre le potentiel de l’IA dans le domaine du divertissement, elle rappelle également les risques que pose la technologie de reproduction vocale lorsqu’elle est exploitée à des fins préjudiciables.
Face à cette situation, les géants de la technologie comme Google, Apple et Microsoft travaillent à préserver l’authenticité et l’intégrité des contenus.
Le rôle de C2PA dans l’authenticité des contenus
La Coalition for Content Provenance and Authenticity, dirigée par la Fondation Linux, est un organisme de normalisation. En intégrant des métadonnées et des filigranes dans les images, les vidéos et les fichiers audio, la spécification C2PA permet de suivre et de vérifier l’origine, la création et toute modification du contenu numérique.
Au cours des derniers mois, Google a considérablement accru sa participation à la C2PA, en rejoignant le comité de pilotage. Cette étape fait suite à la décision de Meta de rejoindre le même comité au début du mois de septembre 2024.
Google intègre désormais les C2PA Content Credentials dans ses principaux services. Notamment Google Search, Ads et, à terme, YouTube. En permettant aux utilisateurs de consulter les métadonnées et d’identifier si une image a été créée ou modifiée à l’aide de l’IA, Google vise à lutter contre la diffusion de contenus manipulés.
Apple, le grand absent
Microsoft a également intégré C2PA dans ses outils phares, tels que Designer et CoPilot. Cette étape complète le travail de Microsoft sur le Projet Origin, qui utilise des signatures cryptographiques pour vérifier l’intégrité du contenu numérique.
Mais l’absence d’Apple dans ces initiatives soulève des inquiétudes. Apple a toujours accordé la priorité à la protection de la vie privée et à la sécurité dans des programmes, tels que Apple Intelligence. Son manque d’implication publique dans le C2PA ou dans des technologies similaires pose problème.
En collaborant avec Google et Microsoft, Apple pourrait contribuer à créer un front plus uni dans la lutte contre la désinformation.
Les autres membres de la C2PA
Un groupe d’organisations soutient la C2PA, élargissant la portée et l’application de ces normes dans tous les secteurs. Les membres sont les suivants :
- Amazon : Par l’intermédiaire d’AWS, Amazon veille à ce que la C2PA soit intégrée dans les services de cloud computing, ce qui a un impact sur les entreprises de tous les secteurs.
- Intel : En tant que leader dans le domaine du hardware, Intel intègre les normes C2PA au niveau de l’infrastructure.
- Truepic : Connu pour sa capture d’images sécurisée, Truepic assure l’authenticité du contenu dès la création du média.
- Arm : Étend la norme C2PA aux systèmes IoT et embarqués, élargissant ainsi le champ d’application de la vérification du contenu.
- BBC : soutient la C2PA pour vérifier les médias d’information, contribuant ainsi à lutter contre la désinformation dans le domaine du journalisme.
- Sony : Veille à ce que la C2PA soit appliquée aux appareils de divertissement, en soutenant la vérification du contenu dans les médias.
Créer un écosystème de bout en bout pour la vérification du contenu
Vue d’ensemble de l’architecture de C2PA. C2PA
Pour que les deepfakes et les contenus générés par l’IA soient correctement gérés, un écosystème complet de bout en bout pour la vérification des contenus doit être mis en place.
Cet écosystème engloberait les systèmes d’exploitation, les outils de création de contenu, les services de cloud computing et les plateformes sociales afin de garantir que les médias numériques sont vérifiables à chaque étape de leur cycle de vie.
Quelles sont les briques de technologies qui doivent embarquer le C2PA ?
- Les systèmes d’exploitation tels que Windows, macOS, iOS, Android, et les systèmes embarqués pour les appareils IoT et les caméras doivent intégrer le C2PA. Cela garantit que tout fichier multimédia créé, enregistré ou modifié sur ces systèmes porte automatiquement les métadonnées nécessaires à l’authentification.
- Les systèmes d’exploitation intégrés sont particulièrement importants pour les appareils tels que les caméras et les enregistreurs vocaux, qui génèrent d’importants volumes de médias. Par exemple, les images de sécurité ou les enregistrements vocaux capturés par ces appareils doivent être marqués d’un filigrane. L’intégration de la C2PA à ce niveau garantit la traçabilité du contenu, quelle que soit l’application utilisée.
- Les plateformes comme Adobe Creative Cloud, Microsoft Office et Final Cut Pro doivent intégrer les normes C2PA dans leurs services et leurs produits. Les outils open source comme GIMP devraient également adopter ces normes afin de créer un processus de vérification du contenu cohérent sur les plateformes professionnelles.
- Les plateformes de cloud computing, notamment Google Cloud, Azure, AWS, Oracle Cloud et iCloud d’Apple, doivent adopter la C2PA pour garantir la traçabilité et l’authenticité des contenus générés par l’IA et hébergés dans le cloud dès leur création. Les outils d’IA basés sur le cloud génèrent de grandes quantités de médias numériques.
- Les kits de développement (SDK) d’applications mobiles permettant la création ou la modification de contenu doivent intégrer la C2PA dans leurs API. Le but ? Garantir que tous les médias générés sur les smartphones et les tablettes soient immédiatement filigranés et vérifiables.
L’écosystème des médias sociaux et des applications
Les plateformes de médias sociaux telles que Meta, TikTok, X et YouTube comptent parmi les plus grands canaux de distribution de contenu numérique. Leur rôle dans la vérification du contenu devient encore plus critique.
X et Meta ont tous deux introduit des outils GenAI pour la génération d’images. Grok 2 de xAI récemment mis à disposition des utilisateurs, permet de créer des images très réalistes à partir de prompts. Cependant, il manque des garde-fous pour empêcher la création de contenus trompeurs, tels que des représentations réalistes de personnalités publiques. Ce manque de surveillance soulève des inquiétudes quant à la capacité de X à gérer la désinformation, surtout si l’on considère la réticence d’Elon Musk à mettre en œuvre une modération robuste du contenu.
De même, l’outil Imagine with Meta de Meta, alimenté par son modèle de génération d’images Emu et l’IA Llama 3, intègre la GenAI directement dans des plateformes telles que Facebook, WhatsApp, Instagram et Threads. Compte tenu de la position dominante de X et de Meta dans la création de contenu basée sur l’IA, elles devraient être considérées comme responsables de la mise en œuvre d’outils de gestion de la provenance du contenu qui garantissent la transparence et l’authenticité.
X ne s’est pas du tout engagé dans la C2PA
Bien que Meta ait rejoint le comité de pilotage de la C2PA, elle n’a pas encore pleinement mis en œuvre les normes de la C2PA. Meta a fait des progrès en étiquetant les images générées par l’IA avec des balises « Imaginé avec l’IA » et en intégrant des filigranes et des métadonnées C2PA au contenu généré sur sa plateforme. Ces progrès doivent encore s’étendre à toutes ses applications.
En revanche, X ne s’est pas du tout engagé dans la C2PA. Le fait que la plateforme n’ait pas adopté de normes de vérification du contenu et que Grok puisse générer des images sans restriction expose les utilisateurs à des médias réalistes mais trompeurs. Cette lacune fait de X une cible facile pour la désinformation.
En adoptant les normes C2PA, Meta et X pourraient mieux protéger leurs utilisateurs et l’écosystème numérique contre les risques de manipulation des médias générés par l’IA.
Introduire une blockchain de traçabilité pour les actifs numériques
Une blockchain de traçabilité peut établir un système de suivi des actifs numériques. Chaque modification apportée à un média est enregistrée dans un registre blockchain. Ce système permettrait de vérifier l’intégrité des médias numériques, quel que soit le nombre de fois où ils ont été partagés ou modifiés.
- Hachage cryptographiques : Chaque élément de contenu se verrait attribuer un hachage cryptographique unique lors de sa création. Chaque modification ultérieure met à jour le hachage, qui est ensuite enregistré sur la blockchain.
- Enregistrements immuables : Le grand livre de la blockchain, tenu par des membres de la C2PA tels que Google, Microsoft et d’autres acteurs clés, garantirait que toutes les modifications apportées aux médias restent visibles et vérifiables. Cela permettrait de créer un historique permanent et inaltérable du cycle de vie du contenu.
- Chaîne de conservation : Chaque modification apportée à un élément de contenu serait enregistrée, formant ainsi une chaîne de conservation ininterrompue. Ainsi, même si un contenu est partagé, copié ou modifié, son authenticité et ses origines pourront toujours être retracées jusqu’à la source. En associant les normes C2PA à la technologie blockchain, l’écosystème numérique gagnerait en transparence, ce qui faciliterait le suivi des médias générés et modifiés par l’IA. Ce système constituerait une protection essentielle contre les deepfakes et la désinformation, et contribuerait à garantir que les contenus numériques restent dignes de confiance et authentiques.
L’annonce récente par la Fondation Linux de la création d’une initiative Decentralized Trust, qui compte plus de 100 membres fondateurs, renforce encore ce modèle. Ce système créerait un cadre pour la vérification des identités numériques à travers les plateformes. Les créateurs, les éditeurs et les distributeurs de contenu seraient ainsi authentifiés tout au long du cycle de vie du contenu.