Plusieurs images à caractère pornographique, mettant en scène la chanteuse Taylor Swift, ont été diffusées cette semaine sur le réseau social X. Ces images, générées à l’aide d’intelligence artificielle, ont généré des millions de vues : plus de 45 millions pour l’une d’entre elles, et 24 000 partages. « Taylor Swift AI » est rapidement devenu l’un des sujets les plus discutés sur la plateforme – notamment par des personnes critiquant ces publications… mais contribuant ainsi a leur offrir davantage de publicité.
Les fans de l’artiste américaine, surnommés les « Swifties », ont contre-attaqué en diffusant un maximum de contenus légitimes à son sujet, dans le but de « noyer » les images pornographiques dans ce flot et de les rendre plus difficiles à trouver. « Arrêtez de chercher les images Taylor Swift AI, regardez plutôt cette performance iconique », écrit ainsi un internaute, en proposant un extrait de concert en vidéo. Des messages qui se terminent souvent par le même cri de ralliement : « Protégez Taylor Swift ». La superstar de 34 ans, « personnalité de l’année 2023 » pour le magazine Time, dispose d’une énorme communauté de fans, très actifs en ligne.
Explosion des deepfakes
X a fini par fermer plusieurs comptes qui avaient diffusé ces contenus pornographiques. « Publier des images de nudité non consensuelle est strictement interdit sur X, nous avons une politique de tolérance zéro sur ce type de contenus », a déclaré l’entreprise vendredi 26 janvier, en réponse à cet emballement. « Nos équipes sont en train de retirer toutes les images identifiées et de prendre les dispositions appropriées à l’encontre des comptes qui les ont publiées. »
Vendredi après-midi, certaines de ces images étaient toutefois toujours disponibles sur le réseau social, a pu constater Le Monde, ainsi que sur d’autres plateformes. X est notoirement connue pour ses défaillances en termes de modération, qui ont empiré après son rachat par Elon Musk en 2022.
Selon le site spécialisé 404 Media, ces fausses images de Taylor Swift ont d’abord circulé au sein d’un groupe restreint sur Telegram, messagerie également réputée pour son approche très laxiste de la modération. Fait notable : elles n’auraient pas été réalisées comme la plupart des « deepfakes » pornographiques, dont le nombre a explosé ces dernières années, en remplaçant le visage d’une actrice de film X par celui de la chanteuse. Selon le média américain, elles auraient plutôt été produites à l’aide d’outils grand public de Microsoft, dont l’usage a été détourné.
Les progrès de l’intelligence artificielle, qui permettent de mettre en scène des personnes réelles dans de fausses images ou vidéos, sont source d’inquiétude. Outre la réalisation de montages pornographiques, qui concernent dans une écrasante majorité les femmes, ces technologies sont aussi régulièrement utilisées pour des arnaques. Taylor Swift est par exemple récemment apparue dans une fausse publicité pour la marque française Le Creuset, qui visait en fait à escroquer les internautes. Cette fois, ce n’était pas son image qui avait été trafiquée par IA, mais sa voix.