Des deepfakes « consenties » en amont : coup de génie ou balle dans le pied ? Le mois dernier, Tibo InShape, l’influenceur le plus suivi de France, ouvrait son « caméo », son avatar numérique, sur Sora 2, l’application de vidéos créées par l’IA d’OpenAI. Résultat : des deepfakes du Youtubeur français, ces vidéos hyperréalistes générées par l’intelligence artificielle, se sont multipliées sur les réseaux sociaux. Sora 2, sorte de TikTok de vidéos générées par l’IA, n’est pourtant pas encore disponible en France. Mais il suffit de passer par un VPN pour y accéder.
Et les internautes français ne s’en sont pas privés, s’amusant à faire faire et à faire dire au trentenaire tout et n’importe quoi, y compris des propos racistes, misogynes ou « problématiques ». L’« expérimentation », très commentée dans les médias et sur les réseaux sociaux, soulève de nombreuses questions sociétales et juridiques. « C’est d’abord un énorme coup de pub, mais qui me parait très dangereux et qui n’a pas l’air d’avoir été pensé jusqu’au bout », analyse Mathilde Croze du cabinet Lerins, avocate spécialisée en droit des nouvelles technologies.
Au commencement, un coup marketing
Car jusqu’à présent, les deepfakes, ces vidéos hyperréalistes générées par l’IA, mettaient en scène des personnes qui n’avaient pas consenti à ce que l’on « joue » avec leurs images ou leurs voix – à l’image de Taylor Swift, ou de deux opposants politiques de Donald Trump qui apparaissent à genoux devant le locataire de la Maison-Blanche, une mise en scène du vice-président américain J.D. Vance. Or ici, la personne visée – Tibo InShape – a consenti, en amont, à n’importe quelle utilisation de son avatar numérique.
Et « au début, ça m’a vraiment amusé », a reconnu l’influenceur, de son vrai nom Thibaud Delapart, dans une vidéo publiée dimanche 2 novembre sur YouTube. L’influenceur, que nous avons contacté, n’avait pas répondu à notre sollicitation, à l’heure de la publication de cet article. Mais dans sa vidéo , intitulée « Je réagis à mes pires vidéos IA », le youtubeur explique : « Je vous ai permis d’utiliser ma tête », et « quand j’ai vu toutes les têtes en IA qu’il y avait sur moi, sur TikTok, je me suis dit, c’est bon, je peux prendre ma retraite tranquille ».
« Il y a des gens qui créent du contenu pour moi. Je gagne en visibilité alors que je ne travaille pas et que je ne publie rien. Dans l’idéal j’aurais aimé dire ça. Surtout si les personnes m’avaient fait dire des choses intelligentes comme des conseils de musculation, des mouvements de sport et pas des propos problématiques », poursuit-il.
« Il faut le dire, ça a complètement dérapé »
Car si les utilisateurs de Sora ont utilisé l’image de Tibo InShape pour lui faire manger des burgers ou incarner un tutoriel de maquillage, « ça a rapidement dérivé ». Et « ça a même, il faut le dire, complètement dérapé », regrette-t-il. Car « des personnes me font dire des mots problématiques que je ne valide pas », rapporte l’influenceur dans un short TikTok, publié cette fois jeudi 30 octobre.
À côté des vidéos racistes et misogynes, d’autres deepfakes pourraient à l’avenir le mettre en scène « tout nu » dans des contenus pornographiques, voire le transformer en promoteur de produits qu’il n’a pas validés, à l’image des « ceintures abdominales ou crèmes pour maigrir », liste-t-il.

Sans compter l’apologie possible d’arnaques en tout genre, à l’image de la mésaventure d’un autre youtubeur français, Cyprien, vécue l’année dernière. En 2024, le trentenaire a été victime d’une deepfake dans laquelle on le voyait promouvoir une application mobile de casino qu’il aurait lui-même créée (ce qui était faux), et qui était présentée comme permettant de gagner des milliers d’euros chaque jour (même constat). Mais contrairement à Cyprien en 2024, Tibo InShape a, lui, donné en amont son consentement à n’importe quelle utilisation de son avatar numérique.
Sans revenir en arrière, et sans regretter son geste, le premier influenceur français concède : « Je n’aurais jamais cru devoir m’excuser pour un truc qui n’est pas moi ». Il ajoute : « Il faut faire attention, car avec ce genre de propos, il ne faut pas non plus banaliser le racisme ou encore la misogynie. Mais alors, jusqu’où cette IA générative peut-elle aller avant que nous perdions totalement le contrôle de notre image ? », poursuit-il, sans se rendre compte que le fait d’avoir donné son avatar rend, de fait, possible cette perte de contrôle.
Aux États-Unis, un autre youtubeur, IshowSpeed, est passé par la même expérience. Mais après avoir visionné des deepfakes dans lesquelles on le voit courser des animaux ou faire son coming out, le jeune homme de 20 ans, aux 45 millions d’abonnés, a finalement décidé « de mettre fin à cette merde ».
🚨| WATCH: Speed had to shut down his Sora AI account after fans created AI videos of him coming out as gay and claiming he’s visiting countries he isn’t 💀😭😭 pic.twitter.com/hGGHopYu4V
— Speedy HQ (@IShowSpeedHQ) October 19, 2025
Selon les conditions générales d’utilisation, une fois le consentement retiré, les deepfakes ne sont plus possibles, mais cela n’élimine pas les vidéos déjà générées. Résultat : le jeune homme devra supprimer une par une chaque vidéo hypertruquée qui le met en scène, en les signalant au cas par cas à OpenAI.
« Une fois que votre image est dans la nature, pour faire le ménage après, c’est quand même très compliqué »
Pour l’avocate Mathilde Croze, qui a étudié de près les conditions générales d’utilisation de Sora, « l’utilisation d’un caméo se base sur le consentement de la personne physique concernée. Et il y a, en effet, une possibilité de le retirer, à tout moment ». Mais en pratique, « c’est un peu comme le droit à l’image, c’est une fois que votre image est dans la nature, il est très compliqué voire impossible d’obtenir la suppression des contenus créés avec votre caméo ».
Sur Sora, « tout » n’est pas, non plus, permis. Les CGU listent des « garde-fous techniques avec intégration des filigranes dans les vidéos, des protections renforcées concernant les mineurs, du filtrage de contenus dangereux multi-niveaux, une vérification des comptes, une analyse des images et de la transcription audio, un blocage de contenu à caractère sexuel, violent ou terroriste, avec des équipes dédiées de contrôle humain en complément des systèmes automatisés ». Ces garde-fous fonctionnent-ils ? Difficile à dire.

Si le filigrane « Sora » est censé avertir les internautes qu’il s’agit d’une vidéo générée par l’IA, Tibo InShape reconnait que chez ses 26,9 millions d’abonnés, il y a une certaine « confusion pour certains qui ne décèlent pas l’utilisation de l’IA ». D’autant que parfois, un simple montage suffit de faire disparaître « le filigrane Sora ». Le premier influenceur français explique être « entré en contact avec Sora et OpenAI pour essayer de comprendre les mesures qu’ils allaient mettre en place pour lutter contre les dérives. Il faut savoir qu’on est à l’aube d’une nouvelle ère de la vidéo et de la création. Et je vois cette Trend comme une expérience sociale, avec du positif et du négatif », poursuit l’homme de 33 ans.
Fait-on face à un véritable vide juridique ?
Fait-on face à un véritable vide juridique ? Pas tout à fait. « Le dispositif juridique pour appréhender cette situation est principalement le droit à l’image fondé sur l’article 9 du code civil », répond Mathilde Croze. Il s’agit d’un « droit prétorien développé par la jurisprudence et dont les contours sont flous ». Dans les « clauses de cession de droit à l’image, on va venir préciser le territoire, le lieu, la durée, les types d’utilisation, de supports, etc. Mais aujourd’hui, avec Sora 2, on est face à des outils accessibles à tous qui rendent ce droit à l’image désuet et difficile, puisque vous autorisez la réutilisation d’attributs de votre personnalité dans un environnement sans aucune limite, si vous avez donné votre consentement. Et donc, aujourd’hui, le droit en place ne permet pas d’aborder toutes les problématiques ».
Face à ce constat, l’avocate évoque plusieurs options : « On pourrait envisager de se raccrocher à l’article 16 du Code civil (l’interdiction de l’atteinte à la dignité humaine) à défaut d’invoquer d’autres dispositifs aujourd’hui ». Parce qu’ici, « Tibo InShape a donné son consentement pour tout faire. Mais quelle est la portée de son consentement ? Dans quelle mesure ne va-t-on pas considérer que donner son consentement sans aucune limite est contraire à la dignité humaine », questionne la spécialiste. L’article 16 a, toutefois, un inconvénient : « à un moment donné, on finit par dire qu’on n’a pas le droit de monétiser le corps humain. Or, la réalité, c’est qu’il y a une justification à la monétisation de son double digital, compte tenu du contexte actuel ».
On pourrait aussi penser à la réglementation sur les influenceurs, avance l’avocate spécialisée en droit des nouvelles technologies : « aujourd’hui, la réglementation les oblige à préciser s’il y a des effets spéciaux, ou s’il s’agit d’images générées par l’IA (…). Mais force est de constater que cette réglementation n’a pas été pensé pour le cas où un influenceur laisserait à autrui la main sur son double digital. Et que ce double serait utilisé par des tiers pour faire de l’influence. La loi n’appréhende pas cette situation ».
Une validation pour chaque deepfake, avant diffusion ?
Dans sa vidéo, Tibo InShape propose de faire valider chaque utilisation de son double numérique, par un membre de son équipe. « C’est ce que je recommanderai », tranche Maître Croze. « Dès lors qu’on peut donner des droits sur son double numérique, il faudrait prévoir un droit d’approuver les utilisations qui sont faites. Soit pré-approuver certains usages, soit mettre en place un système qui permet d’approuver un certain volume de contenus générés. Mais dès lors que Tibo Inshape introduirait un contrôle a posteriori, ce n’est plus l’expérimentation décidée au départ ».
Les CGU prévoient d’ailleurs cette possibilité, avec « un contrôle total sur nos possibilités de décider de la publication, de supprimer tout contenu à tout moment, signaler ou bloquer des utilisateurs, et puis à disposer d’un processus clair de recours en cas de violation des politiques ». Comprenez : oui, on pourrait donner son avatar, mais avec plein de conditions, et dans un vrai contrôle.
« Le consentement ne devrait pas être absolu, il faut prévoir des garde-fous pour protéger les individus d’eux-même »
Mais dans tous les cas, « de mon point de vue, le consentement ne devrait pas être absolu, il faudrait prévoir des garde-fous pour protéger les individus d’eux-même ».
C’est pourquoi Maître Croze plaide pour la création d’« un droit sui generis, inspiré du droit d’auteur, avec un monopole d’exploitation et une forme de droit moral ». Les contrats devraient alors « contenir des mentions obligatoires à titre de validité interdisant les utilisations globales futures. L’objectif serait d’éviter que des personnes qui ont cédé leurs droits sur leurs répliques digitales pour quelques euros le regrettent, parce qu’ils se retrouvent à faire l’apologie de sectes ou de produits illicites ». « On pourrait donc interdire le fait que les personnes puissent consentir à une utilisation sans limites de leurs doubles numériques, pour les protéger d’eux-même », poursuit Maître Croze.
A lire aussi : Scandale sur Sora 2 : OpenAI réagit suite à des vidéos racistes de Martin Luther King
Une deepfake de l’influenceur qui promeut une arnaque : qui est responsable ?
Reste l’épineuse question de la responsabilité des éventuels dommages causés par ces vidéos. Imaginons que le caméo de Tibo InShape soit utilisé pour promouvoir une arnaque : les éventuelles victimes de cette escroquerie pourraient-elles se retourner contre l’influenceur ?
Premier constat : « on entre ici dans la responsabilité limitée des plateformes où sont diffusées les vidéos : ce sont bien elles qui laissent diffuser ce contenu. Et elles se retrancheront derrière leur statut d’hébergeur et leurs obligations limitées à retirer le contenu ». Et « compte tenu des difficultés rencontrées pour obtenir le retrait des contenus constaté aujourd’hui, on peut s’interroger sur l’opportunité de laisser à la libre disposition des internautes ces outils d’IA génératives (donc Sora d’OpenAI). Est-ce qu’on ne pourrait pas retenir chez ces dernières une forme de complicité dans la création de contenus illicites », parce qu’elles ont mis à disposition des outils permettant de générer les vidéos contestées, s’interroge l’avocate Mathilde Croze.
Dans tous les cas, on est « sur des enjeux éthiques et sociétaux du même niveau que la bioéthique », estime la juriste. « Ces IA génératives, d’images et de voix, parce qu’elles permettent de faire des deepfakes très facilement et qu’elles concourent de façon massive à la désinformation, et qu’elles soulèvent des questions de respect de la dignité humaine, sous couvert de divertissement, ne devraient pas être des outils qui sont à la libre disposition du public », tranche-t-elle. Ne faudrait-il pas, alors, les considérer, questionne-t-elle, « comme des outils dangereux, des biens à double usage, voire les qualifier d’IA à risque systémique » ?
A lire aussi : « La fin d’Internet » : pourquoi les vidéos générées par Sora terrifient les internautes
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google Actualités, abonnez-vous à notre canal WhatsApp ou suivez-nous en vidéo sur TikTok.