Sur Internet, la prolifération de « deepfakes » pornographiques embarrasse professionnels et régulateurs

Sur Internet, la prolifération de « deepfakes » pornographiques embarrasse professionnels et régulateurs


Au 21e jour de la guerre en Ukraine, une vidéo, montée de toutes pièces et diffusée massivement en ligne, montrait Volodymyr Zelensky appelant ses troupes à « rendre les armes ». Si elle a été très vite démentie par le président ukrainien, elle a mis un nouveau coup de projecteur sur le deepfake, une technologie exploitant l’intelligence artificielle (IA) pour, par exemple, substituer dans une vidéo un visage par un autre. Cette technologie intéresse désormais les pouvoirs publics, qui redoutent la propagation virale de fausses nouvelles de plus en plus difficiles à repérer.

Pourtant, cet usage est largement minoritaire. Il faut, pour le comprendre, se pencher sur une autre tendance en ligne liée au deepfake : le remplacement, dans une vidéo pornographique, du visage de l’actrice par celui d’une autre femme. Cette pratique, parfois appelée « deep-porn », a gagné en popularité depuis son émergence, en 2017, et correspondait deux ans plus tard à 96 % des deepfakes trouvables sur Internet, d’après l’étude d’une entreprise néerlandaise de cybersécurité.

Une technologie intrinsèquement liée à la pornographie

DeepFaceLab est un outil de création de deepfakes. Ses concepteurs, qui ont publié en libre accès leur code sur la plate-forme GitHub, estiment que la quasi-totalité des vidéos deepfakes créées le sont aujourd’hui avec ce logiciel. Sur leur page, on y trouve de nombreux exemples : le visage du milliardaire Elon Musk intégré au film Interstellar, l’acteur Arnold Schwarzenegger rajeuni, le chef de l’Etat nord-coréen Kim Jong-un en plein laïus sur la préservation de la démocratie… Mais aussi, plus bas, un lien vers MrDeepFakes, un site pornographique.

On y trouve des milliers de vidéos et de photos détournées, représentant, pour la plupart, des femmes influentes, comme la comédienne britannique Emma Watson ou l’actrice israélienne Gal Gadot. Celle-ci, interprète de Wonder Woman, a été parmi les premières victimes de cette pratique, à laquelle elle n’a évidemment jamais consenti. Autre cible de choix, l’actrice américaine Scarlett Johansson avait réagi en 2018 auprès du Washington Post pour dénoncer un trucage humiliant et sexiste face auquel beaucoup de femmes, parfois sans notoriété publique, sont impuissantes : « Rien ne peut empêcher quiconque de découper et de coller mon image sur celle de quelqu’un d’autre et de la rendre étrangement réaliste. »

Lire le récit : On a essayé de fabriquer un deepfake (et on est passé à autre chose)

La forte fréquentation de ce site (13,6 millions de visites en juin, d’après l’outil SimilarWeb) et de dizaines d’autres espaces en ligne dédiés à ces fausses vidéos montre à quel point la technologie deepfake est liée à la pornographie. Comme l’a démontré une longue enquête du média américain Vice publiée le 17 mai, le logiciel DeepFaceLab et MrDeepFakes se renvoient régulièrement la balle : le premier encourage à s’entraîner à la manipulation de son code en détournant des films pornographiques, tandis que l’autre propose un guide détaillé d’utilisation du logiciel. Un article scientifique publié en 2020 sur la plate-forme de prépublication arXiv a même été cosigné à la fois par les développeurs de l’outil gratuit et par l’un des gestionnaires du site pornographique.

Il vous reste 62.07% de cet article à lire. La suite est réservée aux abonnés.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.