Après Taylor Swift, Elise Lucet : les victimes de deepfakes pornographiques, politiques ou destinées à escroquer ou tromper, peinent à faire disparaître ces contenus modifiés ou générés par l’IA. Aux États-Unis, l’absence de loi fédérale complique les demandes de retraits de ces vidéos ou images, une fois diffusées sur les réseaux sociaux ou sur le Web. En France, la lenteur de la justice et le manque de moyens des enquêteurs compliquent la tâche des victimes de ce type de contenus.
Après Joe Biden et Taylor Swift, qui échappe encore aux deepfakes ? En France, la journaliste Elise Lucet et le journal Le Monde viennent de porter plainte, après la diffusion de fausses vidéos générées grâce à l’intelligence artificielle. Dans ces dernières, on peut voir la journaliste de Cash investigation promouvoir, fausse interview du Monde à l’appui, des plateformes de cryptomonnaies frauduleuses – des propos qui n’ont, évidemment, jamais été tenus.
De quoi constituer un énième exemple de ce que certains experts en cybercriminalité appellent « l’épidémie » de deepfakes, ces images, vidéos ou bandes sons plus vraies que nature, créées par des outils d’intelligence artificielle et diffusées en masse sur les réseaux sociaux. Et justement, depuis le lancement de ces IA accessibles et faciles à utiliser, les victimes auraient le plus grand mal à faire disparaître ces deepfakes du Web. Un problème lié au droit, mais pas seulement.
Aux États-Unis, rapporte Wired le lundi 11 mars, le nombre de deepfakes pornographiques diffusées sur le Web a pourtant explosé depuis 2017. Google aurait reçu près de 13 000 demandes de retraits visant près de 30 000 URL – des demandes accordées dans la majorité des cas. Mais comme l’expliquent des avocats interrogés par nos confrères, les personnes visées par ces deepfakes se heurtent à deux difficultés. D’abord, Google supprimerait bien les URL en question de ses résultats de recherche, mais pas les sites de deepfakes vers lesquels les internautes s’orientent.
Aux États-Unis, pas de loi fédérale contre les deepfakes
Un problème pour Dan Purcell, fondateur et PDG de Ceartas, une société d’aide aux créateurs de contenus. « Si vous retirez 12 000 URL d’un site Web pour violation », pourquoi ne pas prendre des mesures contre le site Web en question, demande-t-il en substance, interrogé par le média américain. « Ces sites Web ne devraient tout simplement pas être indexés », estime-t-il.
Second problème auquel doivent faire face les victimes de deepfakes aux États-Unis : le droit américain. Il n’existe en effet aucune loi au niveau fédéral qui permettrait de combattre efficacement ce type de contenus, bien qu’un texte soit actuellement en discussion au Congrès – le « DEFIANCE Act », qui vise uniquement les deepfakes pornographiques. Depuis l’année dernière, dix États américains ont adopté, en parallèle, de nouvelles mesures, qui ciblent la création et la diffusion de deepfakes. Mais le fait d’avoir une législation aussi fragmentée ne permettrait pas de lutter efficacement contre la prolifération de ces fausses vidéos ou images, explique un autre média américain, Cryptopolitan.
Outre Atlantique, les victimes ont, jusqu’à présent, contourné ce problème en basant leur demande de retrait sur le « Digital Millennium Copyright Act » (DMCA), une loi américaine qui protège les droits d’auteur en ligne et qui s’applique aux plateformes du Web. Historiquement, cette loi « a été un moyen important pour les victimes d’images ou de vidéos pornographiques de supprimer ce type de contenu », explique Carrie Goldberg, avocate défendant régulièrement des victimes de revenge porn, interrogée par Wired.
Google aurait mis en place une procédure spécifique aux deepfakes pornographiques
Mais il faudrait que les réseaux sociaux, les plateformes en ligne et les géants de l’IA luttent davantage contre ce fléau, avancent certains observateurs. Pour Ned Adriance, le porte-parole de Google interrogé par nos confrères, cet appel a bien été entendu : à côté du processus DMCA, une autre procédure a bien été mise en place par Google, ayant trait spécifiquement aux deepfakes pornographiques.
« Nous avons des politiques contre (ces contenus) pornographiques, permettant aux victimes de les supprimer des résultats de recherche lorsqu’elles incluent leur image. Et nous développons activement des mesures de protection supplémentaires pour aider les personnes touchées », ajoute le porte-parole. Google aurait aussi créé un système pour supprimer les doublons de deepfakes pornographiques, une fois qu’un contenu a été identifié et supprimé, poursuit-il. Les résultats de recherche seraient également mis à jour pour limiter la visibilité des deepfakes.
Des promesses des entreprises du numérique et de l’IA… insuffisantes ?
La lutte contre ce type de contenus a aussi fait l’objet de différentes « promesses » des entreprises de la tech, via des articles de blog, ou un « accord technologique » signé en février dernier. Dans ce texte, qui vise seulement les deepfakes politiques, Microsoft, Google, Meta et OpenAI se sont engagés à travailler ensemble pour créer des outils permettant de repérer, d’étiqueter et de contrer ces contenus. Si toutes ces déclarations vont dans la bonne direction, cela serait loin d’être suffisant, taclent certains observateurs, qui militent pour que ces entreprises, qui permettent la création ou la diffusion de ces contenus, aillent beaucoup plus loin.
L’année dernière, le Centre de Politique Européenne, un think tank basé en Allemagne, en France et en Italie, tirait déjà la sonnette d’alarme dans une étude publiée en octobre dernier, à propos cette fois des deepfakes politiques. « Si nous pensons aux élections européennes de l’année prochaine, les règles existantes sur la modération des contenus, telles qu’elles sont prévues par le règlement sur les services numériques (DSA), sont déjà dépassées, à l’ère de l’IA générative », écrivaient-ils. Ces derniers proposaient par exemple d’imposer aux réseaux sociaux une « transmission lente du contenu », qui limiterait la viralité d’un post – avec un nombre de likes et de partage limité.
D’autres propositions sont bien plus radicales, à l’image de celle formulée par l’avocate Carrie Goldberg, interrogée cette fois par The Mark Up. Pour cette dernière, la prochaine étape consisterait à engager des poursuites contre les sociétés qui fournissent ces outils d’IA, et contre les plateformes qui diffusent ces contenus. L’avis est partagé par les fondateurs de #MyImageMyChoice, une organisation aidant les victimes de contenus pornographiques aux États-Unis. « Les entreprises technologiques ont le pouvoir de bloquer, de désindexer ou de refuser leur service à ces sites – des sites dont l’existence entière est fondée sur la violation du consentement (…) Or, elles ont choisi de ne pas le faire », ont déploré ces derniers, dans un communiqué dont nos confrères se font l’écho.
En France, les lois sont là, mais…
En France, les victimes de deepfakes sont mieux loties – en termes de lois – qu’aux États-Unis. Elles peuvent s’orienter vers des plaintes pour cyberharcèlement, pour usurpation d’identité et montage frauduleux de photos et de vidéos – un délit qui existe déjà, défini par l’article 226-8 du code pénal. Ce sont d’ailleurs sur ces bases que France Télévisions, qui emploie Elise Lucet, et le journal Le Monde, porteraient plainte, suite à la diffusion des faux reportages promouvant des sites de cryptomonnaies frauduleux, précise Franceinfo, lundi 11 mars. Des actions basées sur le respect du droit à la vie privée sont aussi possibles.
La loi visant à sécuriser et à réguler l’espace numérique (SREN) a prévu, en parallèle, de compléter ces dispositifs, en particulier pour les deepfakes pornographiques. La diffusion de ce type de contenus est désormais punie d’une peine pouvant aller jusqu’à deux ans d’emprisonnement et 60 000 euros d’amende. « On a, en plus, créé une circonstance aggravante », soulignait l’avocat Arnaud Touati, interrogé par 01net.com le mois dernier : « si la publication a lieu sur un service de communication au public en ligne (comme un réseau social, ndlr), le délit est sanctionné de trois ans d’emprisonnement et 75 000 euros d’amende ». Reste qu’en pratique, le manque de moyens des enquêteurs et la lenteur de la justice française font durer les procédures... au détriment des victimes et du débat collectif.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source :
Wired