un rapport sur l’IA responsable qui efface son engagemen …

un rapport sur l'IA responsable qui efface son engagemen ...


La partie la plus remarquable du dernier rapport de Google sur l’IA responsable pourrait être ce qu’il ne mentionne pas. (Spoiler : aucun mot sur les armes et la surveillance).

Mardi, Google a publié son sixième rapport annuel Responsible AI Progress Report, qui détaille les « méthodes de gouvernance, de cartographie, de mesure et de gestion des risques liés à l’IA », ainsi que des « mises à jour sur la manière dont nous mettons en œuvre l’innovation en matière d’IA responsable dans l’ensemble de Google ».

Dans ce rapport, Google souligne :

  • Les nombreux documents de recherche sur la sécurité publiés en 2024 (plus de 300)
  • Les dépenses d’éducation et de formation en matière d’IA (120 millions de dollars)
  • Et divers points de référence en matière de gouvernance, notamment son Cloud AI

Sécurité de l’utilisateur final, confidentialité des données et sécurité

Le rapport se concentre en grande partie sur la sécurité et le contenu, en approfondissant des projets tels que Gemini, AlphaFold et Gemma, et sur la manière dont l’entreprise protège les modèles de la génération ou de la diffusion de contenus nuisibles. Il vante également les mérites d’outils tels que SynthID, un outil de tatouage de contenu conçu pour mieux suivre les fausses informations générées par l’IA. Google l’a mis en libre accès.

Google a également mis à jour son Frontier Safety Framework, en ajoutant de nouvelles recommandations de sécurité, des procédures d’atténuation des abus et un « risque d’alignement trompeur », qui concerne « le risque qu’un système autonome sape délibérément le contrôle humain ». La simulation d’alignement, c’est à dire le processus par lequel un système d’IA trompe ses créateurs pour conserver son autonomie, a récemment été observée dans des modèles tels que OpenAI o1 et Claude 3 Opus.

Dans l’ensemble, le rapport s’en tient donc à la sécurité de l’utilisateur final, à la confidentialité des données et à la sécurité.

Qu’est-ce qu’une IA responsable ?

Dans le même temps, l’entreprise a supprimé de son site web son engagement à ne pas utiliser l’IA pour fabriquer des armes ou surveiller les citoyens, comme l’a rapporté Bloomberg. La section intitulée « applications que nous ne poursuivrons pas », qui, selon Bloomberg, était visible depuis la semaine dernière, a été supprimée.

Ce décalage, entre l’accent mis par le rapport sur les consommateurs et la suppression de l’engagement en matière d’armement et de surveillance, met en lumière une question récurrente : Qu’est-ce qu’une IA responsable ?

Une section désormais supprimée des principes de Google en matière d’IA, qui précisait que ses produits ne seraient pas utilisés pour créer des armes ou « causer un préjudice général ». Capture d’écran par Radhika Rajkumar/ZDNET

Google dit avoir renouvelé ses principes d’IA autour de « trois principes fondamentaux » :

  • L’innovation
  • Le progrès collaboratif
  • Le développement et le déploiement responsables

Montée en puissance du sujet militaire chez les géants de l’IA

Ces principes d’IA font référence à un déploiement responsable qui s’aligne sur « les objectifs des utilisateurs, la responsabilité sociale et les principes largement acceptés du droit international et des droits de l’homme ». Tout cela semble suffisamment vague pour permettre de réévaluer les cas d’utilisation des armes sans sembler contredire ses propres orientations.

Ce changement vient s’ajouter à la mosaïque des géants de la technologie qui modifient lentement leur attitude à l’égard des applications militaires de l’IA. La semaine dernière, OpenAI a signé un partenariat avec les laboratoires nationaux américains, après un partenariat avec l’entreprise de défense Anduril à la fin de l’année dernière.

En avril 2024, Microsoft a proposé DALL-E au ministère de la défense. OpenAI avait alors maintenu sa position de ne pas développer d’armes.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.