Avez-vous déjà été trompé par une fausse image générée par une intelligence artificielle comme Midjourney ou Dall-E ? Peut-être la photo du pape François en doudoune de luxe ? Ou l’arrestation de Donald Trump en plein New York ?
Si oui, une simple astuce aurait pu vous alerter : les mains. Car sur ces images générées par les IA, les doigts sont souvent trop nombreux ou pliés de manière improbable. Ce n’est pas tout, d’autres aberrations anatomiques ou des textes incohérents trahissent ces programmes. Grâce à ces indices, on peut détecter la duperie.
Mais ces lacunes techniques peuvent-elles protéger durablement des risques de désinformation ? Et comment appréhender les nombreuses questions soulevées par ces nouveaux outils ? Pour y répondre, il faut s’intéresser au fonctionnement de ces logiciels, capables de générer des images en quelques clics.
Explication dans cette vidéo, avec l’aide de ChatGPT.
Sources :
- « Deep unsupervised learning using nonequilibrium thermodynamics », Jascha Sohl-Dickstein, Eric A. Weiss, Niru Maheswaranathany, Surya Ganguli (2015).
- « DALL·E 2 pre-training mitigations », OpenAI (2022).
- « Photorealistic text-to-image diffusion models with deep language understanding », Google Research (2022).
- « Denoising diffusion probabilistic models », Jonathan Ho, Ajay Jain, Pieter Abbeel (2020)
- « Point·E : a system for generating 3D point clouds from complex prompts », Alex Nichol, Heewoo Jun, Prafulla Dhariwal, Pamela Mishkin, Mark Chen (2022).
- Exemple de bases de données utilisées par ces algorithmes.
Contribuer
L’espace des contributions est réservé aux abonnés.
Abonnez-vous pour accéder à cet espace d’échange et contribuer à la discussion.