Les failles de scurit dans les applications d’IA et de ML montent en flche, le nombre de vulnrabilits Zero Day lies l’IA a tripl depuis novembre 2023 Selon les dernires conclusions de Protect AI

Les textes gnrs par l'IA pourraient accrotre l'exposition aux menaces L'identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes



Le nombre de vulnrabilits Zero Day lies l’IA a tripl depuis novembre 2023, selon les dernires conclusions de la communaut huntr de Protect AI, qui compte plus de 15 000 mainteneurs et chercheurs en scurit.

Rien qu’en avril 2024, 48 vulnrabilits ont dj t dcouvertes dans des projets de logiciels libres largement utiliss, tels que MLFlow, Ray et Triton Inference Server.

Ce chiffre reprsente une augmentation de 220 % par rapport aux 15 vulnrabilits signales pour la premire fois en novembre.

Parmi ces vulnrabilits, le rapport met en vidence une menace particulirement rpandue : l’excution de code distance (RCE), qui permet un pirate d’excuter des commandes ou des programmes sur l’ordinateur ou le serveur d’une victime sans avoir besoin d’y accder physiquement. Le pirate peut prendre le contrle total du systme compromis, ce qui peut entraner des accs non autoriss, des violations de donnes, la compromission du systme, voire la prise de contrle totale du systme.

Les statistiques inquitantes de Protect AI soulignent l’acclration de l’ampleur et de la rapidit du problme Zero Day de l’IA/ML, et suggrent un besoin croissant de mesures de scurit renforces dans les environnements de dveloppement de l’IA.

Anciennes vulnrabilits, nouvelles pratiques

Du point de vue de Marcello Salvati, chercheur principal en menaces chez Protect AI, le rapport fait tat de plusieurs vulnrabilits intressantes lies aux outils d’IA/ML.

« Si je devais en citer deux qui sortent du lot, ce serait probablement le PyTorch Serve RCE et le BentoML RCE« , a dclar Salvati. Les deux permettent aux attaquants d’obtenir un RCE sur le serveur qui excute ces projets populaires.

PyTorch et BentoML sont galement des serveurs d’infrence, ce qui signifie qu’ils sont conus pour tre exposs aux utilisateurs afin qu’ils puissent utiliser des modles d’IA/ML. « Ce facteur rend ces vulnrabilits extrmement faciles et prcieuses exploiter pour un attaquant« , a expliqu M. Salvati.

La quantit de vulnrabilits d’applications web de base dcouvertes dans ces projets d’IA/ML est la plus grande surprise du rapport. « Ces types de vulnrabilits sont rarement observs dans la majorit des applications web de nos jours en raison de la prvalence de pratiques de codage scurises et de frameworks web dots de garde-fous de scurit ‘intgrs’« , a dclar M. Salvati.

La rsurgence de ces types de vulnrabilits indique que la scurit n’est pas prise en compte dans les outils lis l’IA/ML, a dclar M. Salvati. Cela va l’encontre de toutes les leons qui ont t tires au cours de la dernire dcennie.

L’outil LLM, une faille de scurit

Du point de vue de Protect AI, les outils LLM devenant de plus en plus populaires, les projets immatures en matire de scurit sont dploys un rythme lev. Les organisations peuvent se sentir obliges d’adopter des projets de scurit bass sur le LLM en raison de pressions concurrentielles ou du dsir de rester en tte dans le paysage des menaces en constante volution.

Cependant, l’adoption rapide de ces projets soulve des inquitudes quant la maturit de la scurit. Dans leur hte de dployer des outils LLM, les organisations peuvent ngliger des aspects cruciaux de la scurit, tels que des valuations compltes des risques, des protocoles de test robustes et l’adhsion aux meilleures pratiques de l’industrie.

En consquence, le risque existe de dployer des solutions qui ne sont pas suffisamment renforces contre les menaces mergentes ou qui n’offrent pas les garanties ncessaires pour protger les donnes et les actifs sensibles. Les organisations doivent donner la priorit la maturit de la scurit en mme temps qu’ l’innovation.

Adopter le principe du moindre privilge et du Zero Trust

L’adoption de l’IA se fait une vitesse fulgurante (certains diraient mme imprudente). Pour que les organisations et les quipes de scurit se protgent contre une menace qui se dveloppe et mrit rapidement, M. Salvati a dclar que l’adoption d’une scurit standard pour les applications web est un enjeu de taille.

« Le concept du moindre privilge s’applique ici, tout comme l’adoption de modles de scurit tels que la confiance zro« , explique M. Salvati. « Plus important encore, formez vos dveloppeurs et vos ingnieurs en IA aux pratiques de codage scurises et aux principes de scurit de base. » Les audits de scurit internes des nouveaux outils et bibliothques d’IA/ML avant leur dploiement rduisent galement les risques.

Compte tenu du rythme d’acclration de l’espace IA/ML, il est extrmement difficile de faire des prvisions 12-24 mois. « La seule chose dont je suis certain, c’est que les entreprises seront plus souvent victimes d’atteintes la scurit parce qu’elles auront adopt ces outils toute vapeur« , prvient M. Salvati.

Source : « Protect AI’s April 2024 Vulnerability Report » (Protect AI)

Et vous ?

Quelle lecture faites-vous de cette situation ?

Trouvez-vous les rsultats de ce rapport de Protect AI crdibles ou pertinents ?

Voir aussi :

Gartner identifie les principales tendances en matire de cyberscurit pour 2024 : les responsables de la scurit doivent se prparer l’volution rapide de la GenAI

ChatGPT : une faille de scurit expose 24 adresses e-mail malgr les dispositions prises par OpenAI, tandis que des experts alertent sur le risque de cration de jardins clos d’IA

Les tats-Unis vont lancer leur propre institut de scurit de l’IA, afin d’valuer les risques mergents des modles d’IA avancs et de traiter les impacts connus



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.