Singapour élabore des règles techniques pour sécuriser les systèm …

Singapour élabore des règles techniques pour sécuriser les systèm ...



L’État de Singapour publiera bientôt des « mesures pratiques » pour renforcer la sécurité des outils et des systèmes d’intelligence artificielle (IA).

Des lignes directrices pour sécuriser l’IA

L’Agence de cybersécurité (CSA) devrait publier son projet pour la sécurisation des systèmes d’IA en vue d’une consultation publique dans le courant du mois, a déclaré Janil Puthucheary, ministre d’État en charge des communications et de l’information.

Ces lignes directrices peuvent être adoptées parallèlement aux processus de sécurité existants que les organisations mettent en œuvre pour faire face aux risques potentiels des systèmes d’IA, a déclaré M. Puthucheary lors de son discours d’ouverture du sommet sur la sécurité de l’IA organisé par l’Association of Information Security Professionals (AiSP), qui s’est tenu mercredi.

Grâce à ces lignes directrices techniques, l’Agence de cybersécurité espère offrir une référence utile aux professionnels de la cybersécurité qui cherchent à améliorer la sécurité de leurs outils d’IA, a déclaré le ministre. Il a en outre exhorté l’industrie et la communauté à faire leur part pour garantir que les outils et les systèmes d’IA restent sûrs et sécurisés contre les menaces malveillantes, même si les techniques continuent d’évoluer .

« Au cours des deux dernières années, l’IA a proliféré rapidement et a été déployée dans une grande variété d’espaces« , a-t-il déclaré. « Cela a eu un impact significatif sur le paysage des menaces. Nous savons que ce développement et cette adoption rapides de l’IA nous ont exposés à de nombreux nouveaux risques, notamment à l’apprentissage automatique contradictoire, qui permet aux pirates de compromettre la fonction de base du modèle.« 

À lire également : IA et cybersécurité : l’appel au calme de Cybermalveillance

De nouveaux risques de sécurité

Il a expliqué comment l’éditeur McAfee a réussi à compromettre les systèmes Mobileye en modifiant les panneaux de limitation de vitesse que les modèles d’IA avaient été formés à reconnaître.

L’IA alimente de nouveaux risques de sécurité, et les organisations des secteurs public et privé doivent s’efforcer de comprendre ce paysage  en constante évolution, a déclaré M. Puthucheary.

Il a indiqué que le DSI du gouvernement de Singapour, l’Agence technologique du gouvernement (GovTech), développe des capacités pour simuler des attaques potentielles sur les systèmes d’IA afin de comprendre comment elles peuvent avoir un impact sur la sécurité de ces plates-formes.

« Cela nous aidera à mettre en place les mesures de protection adéquates« , a-t-il déclaré.

Se prémunir contre des menaces

Il a ajouté que les efforts visant à mieux se prémunir contre les menaces existantes doivent se poursuivre, car l’IA est vulnérable aux cybermenaces « classiques », telles que celles qui visent la confidentialité des données.

M. Puthucheary a également fait remarquer que l’adoption croissante de l’IA élargira la surface d’attaque par laquelle les données peuvent être exposées, compromises ou divulguées. Et il a indiqué que l’IA peut être exploitée pour créer des logiciels malveillants de plus en plus sophistiqués, tels que WormGPT, qui peuvent être difficiles à détecter par les systèmes de sécurité existants.

Dans le même temps, l’IA peut être utilisée pour améliorer la cyberdéfense et donner aux professionnels la capacité d’identifier les risques plus rapidement, à grande échelle et avec une meilleure précision, a déclaré le ministre. Il a ajouté que les outils de sécurité alimentés par l’apprentissage automatique peuvent aider à détecter les anomalies et à lancer des actions autonomes pour atténuer les menaces potentielles.

Les meilleures pratiques pour déployer des systèmes d’IA

En avril, le Centre de sécurité de l’IA de l’Agence nationale de sécurité des États-Unis a publié une fiche d’information, Deploying AI Systems Securely, qui, selon elle, présente les meilleures pratiques en matière de déploiement et d’exploitation des systèmes d’IA.

Élaborées conjointement avec l’agence américaine de cybersécurité et de sécurité de l’information, ces lignes directrices visent à renforcer l’intégrité et la disponibilité des systèmes d’IA et à atténuer les vulnérabilités connues de ces systèmes. Le document présente également des méthodes et des contrôles permettant de détecter les activités malveillantes visant les systèmes d’IA et les données correspondantes, et d’y répondre.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.