Google, Meta, OpenAI et X (anciennement Twitter) font partie des 20 entreprises technologiques qui se sont engagées à éliminer les contenus frauduleux générés par l’intelligence artificielle (IA), et ce dans le cadre des efforts visant à protéger les élections mondiales qui devraient avoir lieu cette année.
Le groupe d’entreprises a signé le Accord technologique pour lutter contre l’utilisation trompeuse de l’IA dans les élections de 2024 lors de la Conférence sur la sécurité de Munich qui s’est tenue le weekend dernier. Il décrit un « cadre volontaire de principes et d’actions » couvrant la prévention, la détection, la réponse, l’évaluation et l’identification de la source des contenus électoraux trompeurs générés par l’IA.
Il prévoit également des efforts pour sensibiliser le public à la manière de se protéger contre la manipulation par ce type de contenu. La déclaration commune publiée par les signataires de l’accord technologique, comprend la griffe de TikTok, Amazon, IBM, Anthropic ou encore Microsoft.
8 engagements
Avec cet accord, les 20 organisations promettent de respecter huit points, dont :
- Chercher à détecter et à prévenir la diffusion de contenus électoraux trompeurs liés à l’IA
- Faire preuve de transparence à l’égard du public sur la manière dont elles traitent ces contenus
- Elles travailleront également ensemble à l’élaboration et à la mise en œuvre d’outils permettant d’identifier et de freiner la diffusion de ces contenus, ainsi que d’en retracer l’origine.
Ces efforts peuvent inclure l’élaboration de classificateurs ou de méthodes et de normes de provenance, telles que le filigrane ou les métadonnées signées, et l’ajout d’informations lisibles par machine au contenu généré par l’IA. Les huit engagements s’appliqueront aux services fournis par chaque entreprise.
Les modèles de recherche ne sont pas couverts par
l’accord
L’accord porte sur des contenus définis comme des sons, des vidéos et des images « convaincants » générés par l’IA qui « simulent ou modifient de manière trompeuse l’apparence, la voix ou les actions » de candidats politiques, d’agents électoraux et d’autres acteurs clés d’une élection, ou qui diffusent des informations frauduleuses au public sur le lieu, le moment et la manière de voter.
« En 2024, il y aura plus d’élections que jamais auparavant, avec plus de 40 pays et plus de quatre milliards de personnes qui choisiront leurs dirigeants et leurs représentants », indique l’accord technologique. « Dans le même temps, le développement rapide de l’IA crée de nouvelles opportunités ainsi que des défis pour le processus démocratique. L’ensemble de la société devra tirer parti des possibilités offertes par l’IA et prendre ensemble de nouvelles mesures pour protéger les élections et le processus électoral au cours de cette année exceptionnelle. »
L’accord vise à définir les attentes concernant la manière dont les signataires gèreront les risques découlant de contenus électoraux d’IA trompeurs créés par l’intermédiaire de leurs plateformes publiques ou de leurs modèles fondateurs ouverts, ou distribués sur leurs plateformes sociales et de publication. Ces attentes sont conformes aux politiques et pratiques des signataires.
Les modèles ou démonstrations destinés à des fins de recherche ou principalement à un usage professionnel ne sont pas couverts par l’accord.
« Pas seulement un défi technique »
Les signataires ont ajouté que l’IA peut être utilisée pour contrer les acteurs malveillants et permettre une détection plus rapide des campagnes trompeuses. Les outils d’IA peuvent également réduire considérablement le coût global de la défense, ce qui permet aux petites entreprises de mettre en œuvre des protections solides.
« Nous nous engageons à faire notre part en tant qu’entreprises technologiques, tout en reconnaissant que l’utilisation trompeuse de l’IA n’est pas seulement un défi technique, mais aussi une question politique, sociale et éthique, et nous espérons que d’autres s’engageront de la même manière à agir dans l’ensemble de la société », ont déclaré les signataires. « Nous affirmons que la protection de l’intégrité électorale et de la confiance du public est une responsabilité partagée et un bien commun qui transcende les intérêts partisans et les frontières nationales. »
Christoph Heusgen, président de la Conférence de Munich sur la sécurité, a déclaré que l’accord constituait une « étape cruciale » dans la promotion de l’intégrité électorale et de la résilience de la société. Il contribuera également à créer des « pratiques technologiques dignes de confiance ».
Selon le Global Risks Report 2024 publié le mois dernier par le Forum économique mondial (WEF), les risques associés à la désinformation alimentée par l’IA sur la cohésion sociétale domineront le paysage cette année. Le rapport cite la désinformation comme le principal risque mondial au cours des deux prochaines années, avertissant que son utilisation généralisée ainsi que les outils permettant de la diffuser pourraient saper la légitimité des nouveaux gouvernements.
Source : « ZDNet.com »