Face à l’explosion de deepfakes de célébrités sur Sora 2, OpenAI durcit ses règles. Désormais, l’exploitation de la voix et du visage des artistes nécessitera leur accord explicite. Pour renforcer ses restrictions contre les deepfakes interdits, OpenAI a noué un partenariat avec des agences et des syndicats phares de Hollywood.
Le mois dernier, OpenAI a présenté Sora 2, son générateur de vidéos par IA, disponible pour l’instant uniquement aux États-Unis. Couplé à un réseau social composé exclusivement de vidéos générées par l’IA, Sora 2 crée des contenus si réalistes qu’il devient difficile de distinguer fiction et réalité. Les vidéos sont tellement réalistes qu’elles ont provoqué une vague d’inquiétudes sur les réseaux sociaux.
Peu après la mise en ligne de Sora 2, la plateforme a été inondée de deepfakes montrant des célébrités, comme des personnages historiques. Des internautes sont même servis de l’intelligence artificielle pour concevoir des vidéos à connotation raciste de Martin Luther King Jr. Ces vidéos factices ont vivement fait réagir la famille du pasteur.
Celle-ci a demandé à OpenAI d’agir et d’interdire les représentations de Luther King sur Sora. La start-up a promptement accepté d’agir, estimant que « que les personnalités publiques et leurs familles devraient pouvoir contrôler l’utilisation de leur image » et que « les représentants autorisés ou les ayants droit peuvent demander que leur image ne soit pas utilisée ».
À lire aussi : Vous pourrez bientôt parler de sexe avec ChatGPT, mais à une condition
Les deepfakes de célébrités sur Sora, c’est fini
Dans le sillage de cette décision, OpenAI a publié un communiqué en partenariat avec le syndicat américain des acteurs, des artistes et des professionnels de la télévision, du cinéma, de la radio et du doublage, l’acteur Bryan Cranston et plusieurs agences de défense des comédiens.
SAG-AFTRA, OpenAI, Bryan Cranston, United Talent Agency, Creative Artists Agency and the Association of Talent Agents are collaborating to ensure voice and likeness protections in Sora 2. pic.twitter.com/XPinJLNbJo
— SAG-AFTRA (@sagaftra) October 20, 2025
Face aux plaintes émanant de célébrités, comme Bryan Cranston, OpenAI a décidé de lutter plus fermement contre les créations de vidéo avec le visage ou la voix de célébrités sans leur accord. La start-up rappelle avoir mis en place une politique d’adhésion volontaire pour les artistes et les personnes connues. En clair, le visage et la voix des artistes ne sont exploitées que s’ils donnent leur accord explicite. Cette politique « reflète l’engagement de l’entreprise en faveur des droits des artistes, de la transparence et d’un déploiement éthique des technologies génératives », assure OpenAI.
Pour les figures historiques, comme Luther King, OpenAI autorise encore certains usages au nom de la liberté d’expression. Néanmoins, les héritiers peuvent demander à ce que leur image soit bloquée de la plateforme. Tout dépend de la demande réalisée par gestionnaires des droits.
OpenAI durcit le ton contre les deepfakes
La firme se dit consciente que des vidéos montrant Bryan Cranston sont apparues sur le réseau social, alors que l’acteur de Breaking Bad n’a jamais donné son consentement. C’est pourquoi OpenAI promet par ailleurs des réponses plus rapides aux signalements de contenu abusif, et un renforcement des garde-fous techniques pour empêcher les internautes de créer des vidéos interdites.
Dans le cadre de ces restrictions, OpenAI va recevoir l’appui des agences et des syndicats de défense des comédiens, qui jouent un rôle majeur à Hollywood. Les agences United Talent Agency, Creative Artists Agency et Association of Talent Agents veilleront à renforcer les protections contre l’utilisation non autorisée de l’IA. Certaines agences américaines avaient déjà demandé début octobre à OpenAI de respecter leur propriété intellectuelle. La start-up semble avoir pris le temps de trouver un accord.
Avec cette série de mesures, OpenAI indique se mettre au diapason du projet de loi américain NO FAKES Act (« Nurture Originals, Foster Art and Keep Entertainment Safe »). Celui-ci doit venir protéger les artistes contre les répliques numériques non autorisées créées par l’IA.
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google Actualités, abonnez-vous à notre canal WhatsApp ou suivez-nous en vidéo sur TikTok.