Le Royaume-Uni et les tats-Unis, ainsi que des partenaires internationaux de 16 autres pays, ont publi de nouvelles lignes directrices pour le dveloppement de systmes d’intelligence artificielle (IA) scuriss.
« L’approche privilgie l’appropriation des rsultats en matire de scurit pour les clients, adopte une transparence et une responsabilit radicales et tablit des structures organisationnelles o la conception scurise est une priorit absolue« , a dclar l’Agence amricaine de cyberscurit et de scurit des infrastructures (CISA).
L’objectif est d’accrotre les niveaux de cyberscurit de l’IA et de veiller ce que la technologie soit conue, dveloppe et dploye de manire scurise, a ajout le Centre national de cyberscurit (NCSC).
Les lignes directrices s’appuient galement sur les efforts continus du gouvernement amricain pour grer les risques poss par l’IA en veillant ce que les nouveaux outils soient tests de manire adquate avant d’tre rendus publics, ce que des garde-fous soient mis en place pour remdier aux prjudices socitaux, tels que les prjugs et la discrimination, et aux problmes de protection de la vie prive, et ce que des mthodes robustes soient mises en place pour permettre aux consommateurs d’identifier le matriel gnr par l’IA.
Les engagements exigent galement que les entreprises s’engagent faciliter la dcouverte et le signalement par des tiers des vulnrabilits de leurs systmes d’IA par le biais d’un systme de primes la dtection de bogues, afin qu’elles puissent tre trouves et corriges rapidement.
Les dernires lignes directrices « aident les dveloppeurs s’assurer que la cyberscurit est la fois une condition pralable essentielle la scurit des systmes d’IA et qu’elle fait partie intgrante du processus de dveloppement ds le dbut et tout au long, ce que l’on appelle une approche « scurise ds la conception »« , a dclar le NCSC.
Cette approche englobe la conception scurise, le dveloppement scuris, le dploiement scuris, ainsi que l’exploitation et la maintenance scurises, couvrant tous les domaines importants du cycle de vie du systme d’IA, et exigeant des organisations qu’elles modlisent les menaces pesant sur leurs systmes et qu’elles protgent leurs chanes d’approvisionnement et leurs infrastructures.
L’objectif, notent les agences, est galement de lutter contre les attaques adverses ciblant les systmes d’IA et d’apprentissage machine (ML) qui visent provoquer un comportement involontaire de diffrentes manires, y compris en affectant la classification d’un modle, en permettant aux utilisateurs d’effectuer des actions non autorises, et en extrayant des informations sensibles.
Il existe de nombreuses faons d’obtenir ces effets, comme les attaques par injection rapide dans le domaine des grands modles de langage (LLM), ou la corruption dlibre des donnes d’apprentissage ou des commentaires des utilisateurs (connue sous le nom d' »empoisonnement des donnes ») », a fait remarquer le NCSC.
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous cette initiative pertinente et cohrente ?
Voir aussi