Au cours des derniers mois, Google Photos a ajouté plusieurs fonctions d’édition basées sur l’intelligence artificielle (IA). Et voici que l’entreprise souhaite s’assurer que les utilisateurs utilisent cette puissance de manière responsable.
Dans un billet de blog, Google a annoncé l’ajout d’une note aux photos modifiées à l’aide d’outils d’IA tels que Zoom Enhance, Magic Eraser et Magic Editor. « Nous mettons ces outils à la disposition d’un plus grand nombre de personnes », écrit Google, « IL EST IMPORTANT de le faire de manière responsable, en nous appuyant sur nos principes d’IA. »
Les métadonnées d’une photo contiennent déjà des informations qui permettent de savoir si quelqu’un a utilisé les outils d’IA de Google pour la modifier. Désormais, la mention « Modifié avec Google AI », plus visible et plus facile à trouver, apparaîtra à côté du nom du fichier de la photo, de l’état de la sauvegarde et des informations relatives à l’appareil photo.
Une possibilité pour les plateformes de réseau social
Toutefois, il n’y aura pas de filigrane (comme c’est le cas chez Amazon) sur la photo, de sorte que si quelqu’un la partage sur les médias sociaux ou par SMS, la personne qui la verra ne saura pas que le créateur a eu recours à l’IA.
Même dans Google Photos, la recherche de ce label demande un peu d’effort. Un effort que la plupart des gens ne font pas habituellement. Bien entendu, si vous cherchez à contourner ce problème à des fins malveillantes, il est facile de supprimer les métadonnées.
Il est toutefois possible que les plateformes de médias sociaux utilisent ces métadonnées pour fournir leurs propres étiquettes. Facebook et Instagram le font déjà, tout comme Google Search.
« Le travail n’est pas terminé »
En plus de ce nouveau label, Google indique utiliser les métadonnées du Conseil international des télécommunications de presse (IPTC) pour indiquer si une personne a créé une image avec des outils d’édition non automatisés tels que Best Take ou Add Me.
John Fisher, directeur de l’ingénierie pour Google Photos et Google One, a ajouté que « le travail n’est pas terminé » en ce qui concerne la transparence de l’IA. Il affirme que Google évalue d’autres solutions pour rendre public les modifications apportées par l’IA.
Cette méthode est loin d’être infaillible. Et il semble qu’elle soit plus favorable à la personne qui a pris la photo. Mais c’est au moins un début.