Les très nombreuses fausses images pornographiques ayant ciblé la star américaine de la pop Taylor Swift, en janvier, ont déclenché ces derniers mois de multiples réactions à l’étranger. A l’échelon légal, de nombreux pays cherchent à se doter d’arsenaux législatifs pour lutter contre les deepfakes. Et du côté des acteurs du numérique, on se dit aussi préoccupés par ce violent phénomène en ligne.
Mercredi 31 juillet, la société Google, qui opère l’un des moteurs de recherche les plus utilisés au monde, a elle-même intégré des changements dans sa façon de gérer ces images mensongères. Dans un communiqué, la filiale d’Alphabet annonce par la voix de sa cheffe de produit, Emma Higham, avoir déployé « quelques mises à jour importantes, élaborées sur la base des commentaires d’experts et de victimes, afin de mieux protéger les personnes ».
Déclassement et retrait des contenus
Concrètement, Google dit avoir modifié dans un premier temps ses systèmes de classement des contenus vers lesquels son moteur de recherche renvoie en fonction des mots-clés renseignés par ses utilisateurs. Objectif : reléguer le plus loin possible dans ses résultats les fausses images pornographiques et les nombreux sites web spécialisés dans leur partage. « Pour les requêtes qui recherchent spécifiquement ce contenu et incluent des noms de personnes, nous tendrons à faire apparaître du contenu non explicite de haute qualité – comme des articles d’actualité pertinents – lorsqu’il est disponible », détaille la firme californienne.
Suivant cette même idée, les sites comportant un grand nombre de pages retirées par Google de son moteur de recherche, notamment à la demande de personnes ciblées par ces deepfakes pornographiques, se verront rétrogradés dans les résultats. L’entreprise ne précise pas à partir de quel seuil un site verrait son classement revu à la baisse.
À ces modifications des systèmes de classement vient s’ajouter une simplification, pour les victimes, du processus de retrait de ces images mensongères explicites. Google ne donne pas plus de détails à ce sujet mais affirme que, désormais, lorsqu’une personne obtient la suppression d’un contenu la concernant, le moteur « s’efforce également de filtrer tous les résultats explicites obtenus lors de recherches similaires portant sur cette personne ». « En outre, poursuit Emma Higham, lorsqu’une personne réussit à retirer une image du moteur de recherche conformément à nos règles, nos systèmes recherchent et suppriment tous les doublons de cette image que nous trouvons. »
« Il reste encore du travail »
Si Google ne communique que maintenant sur ces mises à jour, celles-ci ont manifestement d’ores et déjà été déployées. « Les mises à jour que nous avons effectuées cette année ont permis de réduire de plus de 70 % l’exposition aux résultats d’images explicites pour ce type de requêtes », avance l’entreprise.
Ces dernières années, nombre de spécialistes des cyberviolences sexistes n’ont eu de cesse d’alerter sur la propension des moteurs de recherche à participer à la diffusion de ces images pornographiques fabriquées. La réaction de Google, bien que tardive à ce sujet, apparaît donc comme bienvenue. Certaines voix en ligne lui demandaient toutefois de déréférencer complètement les sites Web spécialisés dans le partage de deepfakes, au lieu de les déclasser.
Les modifications opérées sur les systèmes de classement ne sont d’ailleurs à ce stade pas infaillibles. Le Monde a rapidement pu constater, jeudi 1er août, que des dizaines de deepfakes pornographiques sont encore affichées en tête des résultats de Google, pour certaines recherches. « Il reste encore du travail à faire pour résoudre ce problème et nous continuerons à développer de nouvelles solutions pour aider les personnes affectées par ce contenu », reconnaît l’entreprise dans son communiqué.