L’intelligence artificielle GPT-4 d’OpenAI peut exploiter de manire autonome les vulnrabilits dans les systmes du monde rel en lisant les avis de scurit dcrivant les failles

OpenAI s'engage remdier la vulnrabilit de fuite de donnes dans ChatGPT, Tandis que DeepMind et des universits mettent en lumire une faille exposant des donnes d'entranement



Des agents d’IA, qui combinent de grands modles de langage avec des logiciels d’automatisation, peuvent exploiter avec succs des vulnrabilits de scurit dans le monde rel en lisant des avis de scurit.

Dans un article rcemment publi, quatre informaticiens de l’Universit de l’Illinois Urbana-Champaign (UIUC) – Richard Fang, Rohan Bindu, Akul Gupta et Daniel Kang – rapportent que le grand modle de langage (LLM) GPT-4 d’OpenAI peut exploiter de manire autonome des vulnrabilits dans des systmes rels s’il reoit un avis CVE dcrivant la faille.

« Pour le dmontrer, nous avons collect un ensemble de donnes de 15 vulnrabilits d’un jour qui comprennent celles classes comme critiques dans la description du CVE« , expliquent les auteurs bass aux tats-Unis dans leur article. « Lorsqu’il reoit la description CVE, GPT-4 est capable d’exploiter 87 % de ces vulnrabilits, contre 0 % pour tous les autres modles que nous avons tests (GPT-3.5, LLM open-source) et les scanners de vulnrabilits open-source (ZAP et Metasploit).« 

Les travaux des chercheurs s’appuient sur des rsultats antrieurs montrant que les LLM peuvent tre utiliss pour automatiser des attaques contre des sites web dans un environnement sandbox. Selon Daniel Kang, professeur adjoint l’UIUC, GPT-4 « peut en fait excuter de manire autonome les tapes permettant de raliser certains exploits que les scanners de vulnrabilits open-source ne peuvent pas trouver« .

Les chercheurs ont crit que « nos vulnrabilits couvrent les vulnrabilits des sites web, les vulnrabilits des conteneurs et les paquets Python vulnrables. Plus de la moiti d’entre elles sont classes comme tant de gravit « leve » ou « critique » par la description CVE.« 

Kang et ses collgues ont calcul le cot d’une attaque russie par un agent LLM et sont arrivs un chiffre de 8,80 dollars par exploit.

Les agents LLM peuvent exploiter de manire autonome les vulnrabilits

Les LLM sont de plus en plus puissants, tant dans leurs utilisations bnignes que malveillantes. Avec l’augmentation des capacits, les chercheurs s’intressent de plus en plus leur capacit exploiter les vulnrabilits en matire de cyberscurit. En particulier, des travaux rcents ont men des tudes prliminaires sur la capacit des agents LLM pirater des sites web de manire autonome.

Toutefois, ces tudes se limitent des vulnrabilits simples. Dans cette tude, les chercheurs montrent que les agents LLM peuvent exploiter de manire autonome des vulnrabilits d’un jour dans des systmes du monde rel. Pour ce faire, ils ont collect un ensemble de donnes de 15 vulnrabilits d’un jour qui comprennent celles classes comme critiques dans la description du CVE.

Lorsqu’il reoit la description CVE, GPT-4 est capable d’exploiter 87 % de ces vulnrabilits, contre 0 % pour tous les autres modles tests (GPT-3.5, LLMs open-source) et les scanners de vulnrabilits open-source (ZAP et Metasploit). Heureusement, l’agent GPT-4 a besoin de la description du CVE pour tre performant : sans la description, GPT-4 ne peut exploiter que 7 % des vulnrabilits. Ces rsultats soulvent des questions quant au dploiement grande chelle d’agents LLM hautement performants.

Conclusions

La recherche montre que les agents LLM sont capables d’exploiter de manire autonome les vulnrabilits d’un jour du monde rel. Actuellement, seul GPT-4 avec la description CVE est capable d’exploiter ces vulnrabilits. Ces rsultats montrent la fois la possibilit d’une capacit mergente et le fait qu’il est plus difficile de dcouvrir une vulnrabilit que de l’exploiter.

Nanmoins, ces rsultats soulignent la ncessit pour l’ensemble de la communaut de la cyberscurit et les fournisseurs de LLM de rflchir attentivement la manire d’intgrer les agents LLM dans les mesures dfensives et leur dploiement grande chelle.

Source : « LLM Agents can Autonomously Exploit One-day Vulnerabilities »

Et vous ?

Pensez-vous que cette tude est crdible ou pertinente ?

Quel est votre avis sur le sujet ?

Voir aussi :

Des chercheurs ont dcouvert que le modle d’IA GPT-4 d’OpenAI est capable de pirater des sites web et de voler des informations dans des bases de donnes en ligne sans aide humaine

88 % des professionnels de la cyberscurit estiment que l’IA aura un impact significatif sur leur travail, aujourd’hui ou dans un avenir proche, selon une enqute de l’ISC2

L’utilisation de l’IA par les pirates informatiques a entran une hausse considrable de la cybercriminalit, dont le cot pour les internautes devrait atteindre 9 220 milliards de dollars en 2024



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.