Des quipes d’agents LLM peuvent exploiter de manire autonome des vulnrabilits de type « zero-day » Les acteurs « black-hat » peuvent dsormais utiliser des agents d’IA pour pirater des sites Web

Les textes gnrs par l'IA pourraient accrotre l'exposition aux menaces L'identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes



Des quipes d’agents LLM peuvent exploiter de manire autonome des vulnrabilits de type zero-day , rsolvant ainsi une question ouverte pose par des travaux antrieurs. Cela signifie que les acteurs black-hat peuvent dsormais utiliser des agents d’IA pour pirater des sites Web.

Les capacits des agents d’intelligence artificielle augmentent rapidement. Ils peuvent dsormais rsoudre des tches aussi complexes que les problmes de GitHub dans le monde rel et les tches d’organisation des courriels dans le monde rel. Cependant, l’amlioration de leurs capacits pour des applications bnignes s’accompagne d’une augmentation de leur potentiel dans des contextes double usage.

Parmi les applications double usage, le piratage est l’une des proccupations majeures. C’est pourquoi des travaux rcents ont explor la capacit des agents d’IA exploiter les vulnrabilits de la cyberscurit. Ces travaux ont montr que de simples agents d’intelligence artificielle peuvent pirater de manire autonome des sites web fictifs de type « capture du drapeau » et peuvent pirater des vulnrabilits du monde rel lorsqu’on leur donne la description de la vulnrabilit. Cependant, ils chouent en grande partie lorsque la description de la vulnrabilit est exclue, ce qui correspond la configuration de l’exploit « zero-day ».

Cela soulve une question naturelle : des agents d’IA plus complexes peuvent-ils exploiter les vulnrabilits « zero-day » dans le monde rel ? Cette nouvelle tude rpond cette question par l’affirmative, en montrant que des quipes d’agents d’intelligence artificielle peuvent exploiter les vulnrabilits « zero-day » dans le monde rel. Pour ce faire, les chercheurs ont dvelopp un nouveau cadre multi-agents pour les exploits de cyberscurit, en largissant les travaux antrieurs dans le cadre multi-agents. Ils ont appel la technique HPTSA, qui serait le premier systme multi-agent russir des exploits de cyberscurit significatifs.

Les travaux antrieurs utilisent un seul agent d’intelligence artificielle qui explore le systme informatique (c’est–dire le site web), planifie l’attaque et l’excute. tant donn que tous les agents d’intelligence artificielle hautement comptents dans le domaine de la cyberscurit sont bass sur de grands modles de langage (LLM), l’exploration, la planification et l’excution conjointes sont difficiles raliser en raison de la longueur limite du contexte dont disposent ces agents.

Les chercheurs ont conu des agents experts spcifiques une tche pour rsoudre ce problme. Le premier agent, l’agent de planification hirarchique, explore le site web pour dterminer les types de vulnrabilits rechercher et les pages du site. Aprs avoir tabli un plan, l’agent de planification envoie un agent gestionnaire d’quipe qui dtermine les agents chargs de tches spcifiques envoyer. Ces agents spcifiques tentent alors d’exploiter des formes spcifiques de vulnrabilits.

Pour tester HPTSA, ils ont dvelopp une nouvelle rfrence de vulnrabilits rcentes dans le monde rel qui ont dpass la date limite de connaissance dclare du LLM test, GPT-4. Pour construire la rfrence, ils ont suivi les travaux antrieurs et ont recherch des vulnrabilits dans les logiciels open-source qui sont reproductibles. Ces vulnrabilits varient en type et en gravit.

Sur ce benchmark, HPTSA obtient un succs 5 de 53%, moins de 1,4 d’un agent GPT-4 connaissant la vulnrabilit. En outre, il surpasse les scanners de vulnrabilits open-source (qui obtiennent 0 % sur ce benchmark) et un seul agent GPT-4 sans description. Les rsultats montrent que les agents experts sont ncessaires pour obtenir des performances leves.

En outre, l’tude prsente le contexte de la cyberscurit et des agents d’intelligence artificielle. Elle dcrit la HPTSA, une analyse comparative des vulnrabilits du monde rel et l’valuation de la HPTSA. L’tude prsente galement des tudes de cas et une analyse des cots.

Les chercheurs commentent l’tude :

Dans ce travail, nous montrons que des quipes d’agents LLM peuvent exploiter de manire autonome des vulnrabilits de type zero-day , rsolvant ainsi une question ouverte pose par des travaux antrieurs. Nos rsultats suggrent que la cyberscurit, tant du ct offensif que dfensif, va s’acclrer. Aujourd’hui, les pirates informatiques peuvent utiliser des agents d’intelligence artificielle pour pirater des sites web. D’autre part, les testeurs de pntration peuvent utiliser des agents d’intelligence artificielle pour effectuer des tests de pntration plus frquents.

Il est difficile de savoir si les agents d’intelligence artificielle contribueront davantage l’offensive ou la dfense en matire de cyberscurit, et nous esprons que des travaux futurs permettront de rpondre cette question. Au-del de l’impact immdiat de nos travaux, nous esprons qu’ils inciteront les fournisseurs de LLM rflchir soigneusement leurs dploiements.

Bien que notre travail montre des amliorations substantielles de la performance dans le cadre du jour zro, il reste encore beaucoup de travail faire pour comprendre pleinement les implications des agents d’IA dans la cyberscurit. Par exemple, nous nous sommes concentrs sur les vulnrabilits du web et des sources ouvertes, ce qui peut donner lieu un chantillon biais de vulnrabilits. Nous esprons que les travaux futurs aborderont ce problme de manire plus approfondie.

Conclusion

Les agents LLM sont devenus de plus en plus sophistiqus, en particulier dans le domaine de la cyberscurit. Les chercheurs ont montr que les agents LLM peuvent exploiter les vulnrabilits du monde rel lorsqu’on leur donne une description de la vulnrabilit et qu’ils jouent les problmes de capture du drapeau. Toutefois, ces agents sont encore peu performants lorsqu’il s’agit de vulnrabilits du monde rel qui sont inconnues de l’agent l’avance (vulnrabilits de type zero-day ).

Cette tude montre que des quipes d’agents LLM peuvent exploiter des vulnrabilits zero-day dans le monde rel. Les agents antrieurs ont du mal explorer de nombreuses vulnrabilits diffrentes et planifier long terme lorsqu’ils sont utiliss seuls. Pour rsoudre ce problme, l’tude prsente HPTSA, un systme d’agents avec un agent de planification qui peut lancer des sous-agents. L’agent de planification explore le systme et dtermine quels sous-agents appeler, ce qui rsout les problmes de planification long terme lors de l’essai de diffrentes vulnrabilits. Les chercheurs ont galement construit un benchmark de 15 vulnrabilits du monde rel et montrent que l’quipe d’agents amliore les travaux antrieurs jusqu’ 4,5.

Source :

Et vous ?

Pensez-vous que cette tude est crdible ou pertinente ?

Voir aussi :

Des chercheurs ont dcouvert que le modle d’IA GPT-4 d’OpenAI est capable de pirater des sites web et de voler des informations dans des bases de donnes en ligne sans aide humaine

L’IA va accrotre le nombre et l’impact des cyberattaques, les ransomwares tant susceptibles d’en tre les plus grands bnficiaires au cours des deux prochaines annes

L’intelligence artificielle GPT-4 d’OpenAI peut exploiter de manire autonome les vulnrabilits dans les systmes du monde rel en lisant les avis de scurit dcrivant les failles



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.