Eviter les biais de l’intelligence artificielle sans pour autant sacrifier la véracité historique : c’est, en substance, le problème auquel est confrontée depuis quelques jours l’intelligence artificielle générative Gemini et qui a poussé sa conceptrice, l’entreprise Google, à annoncer la suspension temporaire de toute création d’images représentant des personnes avec cet outil, jeudi 22 février.
Le géant de l’informatique a lancé ce nouveau logiciel, qui n’est pas encore disponible en Europe, au début du mois aux Etats-Unis. Des critiques ont, depuis, émergé sur les réseaux sociaux en faisant remarquer des inexactitudes concernant certaines images créées, notamment en matière de genre et de diversité pour des sujets historiques.
On a ainsi pu voir des images, présentées comme issues de Gemini, mettant en scène des personnes noires pour incarner des soldats allemands de la seconde guerre mondiale ou les pères fondateurs des Etats-Unis. Des résultats historiquement inexacts, probablement liés à la volonté des concepteurs de Gemini d’éviter les stéréotypes et les biais maintes fois constatés dans les résultats produits par les outils d’intelligence artificielle.
« Nous nous efforçons de résoudre les problèmes récents liés à la fonctionnalité “génération d’images” de Gemini. Dans l’intervalle, nous allons suspendre la génération d’images de personnes et nous rendrons bientôt disponible une version améliorée de cette fonctionnalité », a expliqué Jack Krawczyk, directeur de produit chez Google chargé de Gemini, dans une déclaration transmise à l’Agence France-Presse. Des « problèmes » dont nombre de personnalités de droite et d’extrême droite se sont empressées de faire l’écho, dénonçant ce qui constitue, à leurs yeux, une discrimination envers les personnes blanches.
Mise en place de garde-fous
Depuis la fin de l’année 2022 et le succès de ChatGPT, l’IA générative, capable de produire toutes sortes de contenus (textes, sons, images ou vidéos) sur simple requête en langage courant, a suscité un engouement massif. Start-up comme groupes majeurs de la tech se sont engagés dans une course au déploiement d’outils pour les organisations et les particuliers.
De plus en plus bluffante, jusqu’à la possibilité de créer des vidéos d’une minute grâce au logiciel Sora d’OpenAI, présenté à la mi-février, cette technologie fait régulièrement l’objet d’appels à mettre en place des garde-fous. La semaine passée, vingt des entreprises les plus avancées dans ce domaine, dont Meta, Microsoft, Google et OpenAI, ont ainsi annoncé s’engager à développer de nouvelles techniques pour identifier les contenus de désinformation utilisant l’IA.
Mercredi, dans une lettre ouverte, plusieurs centaines d’experts en intelligence artificielle et patrons de sociétés ont également appelé à une régulation renforcée des contrôles auxquels doivent être soumis les outils d’intelligence artificielle pour endiguer la prolifération des deep fakes, aussi appelés « hypertrucages », ces fausses photos ou vidéos mettant en scène des personnes sans leur consentement.