Apposer un filigrane sur les contenus générés par l’intelligence artificielle : c’est la solution proposée par les entreprises du secteur pour limiter la désinformation et les deepfakes. Google vient de présenter une solution encore incomplète.
Les intelligences artificielles capables de créer du contenu sont de plus en plus performantes, à tel point qu’il est souvent impossible de discerner le vrai du bidonné. Et cela peut avoir des conséquences dans la réalité, on l’a encore vu au printemps dernier avec cette vraie-fausse image d’explosion au Pentagone qui a fait vriller Wall Street.
Un filigrane invisible à l’œil
La solution avancée par les géants des technologies : un filigrane sur les contenus générés par IA. C’est ce que l’industrie a préconisé pendant une réunion à la Maison Blanche sur le sujet. La mise en œuvre s’annonce cependant très complexe, comme le montre la dernière initiative de Google.
Lire Un watermark pour repérer les contenus générés par l’intelligence artificielle
DeepMind, la branche spécialisée IA de Google, a ainsi dévoilé un nouvel outil baptisé SynthID qui appose un filigrane sur les images IA. Un filigrane invisible à l’œil, mais qui s’intègre directement dans les pixels du visuel — par conséquent, le watermark reste détectable par les systèmes qui savent où chercher.
SynthID n’est pour le moment disponible qu’à une poignée de clients de DeepMind, et surtout cette technologie de filigrane se limite aux visuels générés avec Imagen, le modèle de création d’images photoréalistes de Google. Voilà qui va limiter fortement la portée de la technologie, confinée à l’écosystème du moteur de recherche. Au vu de la prolifération des outils IA de génération d’images, SynthID risque de n’être qu’un coup d’épée dans l’eau.
DeepMind ne donne pas de détails techniques sur son filigrane pour éviter que des petits malins trouvent le moyen de le contourner. Ce n’est cependant qu’une question de temps : les secrets de SynthID finiront bien par être découverts, ce d’autant que l’entreprise a l’intention de les partager avec des partenaires si le système s’avère efficace. Gare aux fuites !
Ce type de filigrane ne sera réellement pertinent que si l’ensemble de l’industrie se met autour de la table pour concevoir un watermark commun, et aussi impénétrable que possible. Google indique d’ailleurs que SynthID peut s’adapter à d’autres modèles IA. L’autre écueil, c’est que tous les filigranes du monde n’empêcheront pas la viralité d’une image spectaculaire générée par intelligence artificielle.
DeepMind ne se fait pas d’illusion : la méthode proposée n’est pas un rempart contre les manipulations extrêmes des images. Il s’agit plutôt d’un outil permettant aux organisations de travailler de manière responsable sur le contenu généré par l’IA.
Source :
Deepmind