Des experts en scurit sont parvenus crer un logiciel malveillant polymorphe « hautement vasif » l’aide de ChatGPT, Le logiciel malveillant serait capable d’chapper aux produits de scurit

LinkedIn est la marque la plus usurpe par les cybercriminels et reprsente 52 % de toutes les attaques de phishing mondiales Il s'agit d'une hausse de 44 % par rapport au trimestre prcdent



Des chercheurs de la socit de cyberscurit CyberArk affirment avoir mis au point une mthode pour gnrer un logiciel malveillant polymorphe l’aide de ChatGPT, le chatbot d’IA d’OpenAI. Les chercheurs affirment que le logiciel malveillant gnr par ChatGPT peut facilement chapper aux produits de scurit et rendre les mesures d’attnuation fastidieuses ; tout ceci avec trs peu d’efforts ou d’investissements de la part de l’adversaire. Les chercheurs ont mis en garde contre ce qu’ils appellent « une nouvelle vague de logiciels malveillants polymorphes faciles et bon march capables d’chapper certains produits de scurit ».

Jusqu’ prsent, le battage mdiatique autour de ChatGPT a tourn autour de ses capacits remarquables rpondre aux diffrentes questions des utilisateurs. ChatGPT semble tre dou pour tout, notamment pour crire des essais, des vers et du code pour rsoudre certains problmes de programmation. Cependant, des chercheurs ont commenc mettre en garde contre les capacits du chatbot gnrer du code fonctionnel. En effet, si ChatGPT peut gnrer du code fonctionnel, cette capacit peut tre dtourne par des acteurs de la menace pour crer des logiciels malveillants. Plusieurs rapports de ce type ont t publis depuis le mois de dcembre.

Rcemment, c’est une quipe de chercheurs en scurit, Eran Shimony et Omer Tsarfati, de CyberArk qui a apport des preuves de cela. Les chercheurs disent avoir mis au point une mthode pour gnrer un logiciel malveillant partir des invites fournies ChatGPT. Dans un rapport, l’quipe a expliqu comment le chatbot d’OpenAI peut tre utilis pour gnrer du code d’injection et le faire muter. La premire tape de la cration du logiciel malveillant a consist contourner les filtres de contenu empchant ChatGPT de crer des outils nuisibles. Pour ce faire, les chercheurs ont simplement insist, en posant la mme question de manire plus autoritaire.

Il est intressant de noter qu’en demandant ChatGPT de faire la mme chose en utilisant plusieurs contraintes et en lui lui demandant d’obir, nous avons reu un code fonctionnel , a dclar l’quipe. En outre, les chercheurs ont not que lorsqu’il utilise la version API de ChatGPT (par opposition la version Web), le systme ne semble pas utiliser son filtre de contenu. La raison n’en est pas claire, mais cela nous a facilit la tche, car la version Web a tendance s’enliser dans des requtes plus complexes , ont-ils dclar. Les chercheurs ont ensuite utilis ChatGPT pour muter le code original, crant ainsi de multiples variations du logiciel malveillant.

En d’autres termes, nous pouvons muter le rsultat sur un coup de tte, en le rendant unique chaque fois. De plus, l’ajout de contraintes telles que la modification de l’utilisation d’un appel d’API spcifique rend la vie des produits de scurit plus difficile , explique le rapport de l’tude. Grce la capacit de ChatGPT crer et muter continuellement des injecteurs, les chercheurs ont pu crer un programme polymorphe trs insaisissable et difficile dtecter. Pour rappel, un logiciel malveillant polymorphe est un type de logiciel malveillant qui a la capacit de changer constamment ses caractristiques identifiables afin d’chapper la dtection.

De nombreuses formes courantes de logiciels malveillants peuvent tre polymorphes, notamment les virus, les vers, les bots, les chevaux de Troie ou les enregistreurs de frappe. Les techniques polymorphes consistent modifier frquemment les caractristiques identifiables, comme les noms et les types de fichiers ou les cls de chiffrement, afin de rendre le maliciel mconnaissable plusieurs mthodes de dtection. Le polymorphisme est utilis pour chapper la dtection par reconnaissance de motifs sur laquelle s’appuient les solutions de scurit comme les logiciels antivirus. Leur objectif fonctionnel du programme reste toutefois le mme.


En utilisant la capacit de ChatGPT gnrer des techniques de persistance, des modules Anti-VM [Anti Virtual Machine] et d’autres charges utiles malveillantes, les possibilits de dveloppement de logiciels malveillants sont vastes. Bien que nous n’ayons pas approfondi les dtails de la communication avec le serveur C&C, il existe plusieurs faons de le faire discrtement sans veiller les soupons , expliquent-ils. Selon le rapport, ils ont mis des semaines crer une preuve de concept pour ce logiciel malveillant trs vasif, mais ils ont finalement mis au point un moyen d’excuter des charges utiles l’aide d’invites textuelles sur le PC d’une victime.

En testant la mthode sur Windows, les chercheurs ont indiqu qu’il tait possible de crer un paquet de logiciels malveillants contenant un interprteur Python, qui peut tre programm pour demander priodiquement ChatGPT de nouveaux modules. Ces modules pourraient contenir du code – sous forme de texte – dfinissant la fonctionnalit du logiciel malveillant, comme l’injection de code, le chiffrement de fichiers ou la persistance. Le logiciel malveillant serait alors charg de vrifier si le code fonctionne comme prvu sur le systme cible. Cela pourrait tre ralis par une interaction entre le logiciel et un serveur de commande et de contrle (C&C).

Comme le logiciel malveillant dtecte les charges utiles entrantes sous forme de texte plutt que du binaire, les chercheurs de CyberArk ont dclar que le logiciel malveillant ne contient pas de logique suspecte en mmoire, ce qui signifie qu’il peut chapper la plupart des produits de scurit tests. Il chappe particulirement aux produits qui s’appuient sur la dtection par signature et contourne les mesures de l’interface d’analyse des logiciels malveillants (AMSI). Le maliciel ne contient aucun code malveillant sur le disque, car il reoit le code de ChatGPT, puis le valide et l’excute sans laisser aucune trace en mmoire , a dclar Shimony.

Les logiciels malveillants polymorphes sont trs difficiles grer pour les produits de scurit, car vous ne pouvez pas vraiment les signer. En outre, ils ne laissent gnralement aucune trace sur le systme de fichiers, car leur code malveillant n’est manipul qu’en mmoire. De plus, si l’on visualise l’excutable, il a probablement l’air bnin , a ajout le chercheur. L’quipe de chercheurs a dclar qu’une cyberattaque utilisant cette mthode de diffusion de logiciels malveillants « n’est pas seulement un scnario hypothtique, mais une proccupation trs relle ». Shimony a cit les problmes de dtection comme principale proccupation.

La plupart des produits contre les logiciels malveillants ne sont pas conscients de ce logiciel malveillant. Des recherches supplmentaires sont ncessaires pour que les solutions contre logiciels malveillants soient plus efficaces contre lui , a-t-il dclar. Les chercheurs ont dclar qu’ils dvelopperont et laboreront davantage cette recherche et visent galement publier une partie du code source du logiciel malveillant des fins d’apprentissage. Leur rapport intervient quelques semaines aprs que Check Point Research a dcouvert que ChatGPT tait utilis pour dvelopper de nouveaux outils malveillants, notamment des voleurs d’informations.

Source : CyberArk

Et vous ?

Quel est votre avis sur le sujet ?

Que pensez-vous de la capacit de ChatGPT gnrer du code malveillant fonctionnel ?

votre avis, ChatGPT reprsente-t-il une menace de scurit pour les organisations ?

Selon vous, comment peut-on empcher ChatGPT de gnrer du code malveillant fonctionnel ?

Pensez-vous qu’OpenAI puisse le faire tout en fournissant un outil comme GitHub Copilot ?

Ou l’entreprise doit-elle simplement empcher son chatbot d’IA de gnrer du code ?

Voir aussi

Des cybercriminels testent le chatbot ChatGPT pour crer des logiciels malveillants, et ravivent des craintes sur un futur o l’intelligence artificielle pourra surpasser l’humanit

Le chatbot d’IA ChatGPT est capable de lancer des attaques de phishing dangereuses et de concevoir des codes de tlchargement malveillant d’une efficacit redoutable

90% du contenu en ligne pourrait tre gnr par l’IA d’ici 2025 , selon une confrencire en IA. Les choses qui nous merveillent dbut 2023 vont sembler pittoresques d’ici la fin de l’anne

Les conservateurs affirment que ChatGPT est devenu « woke » et s’inquitent propos de la partialit du chatbot d’OpenAI, ils accusent galement le chatbot de dfendre les « valeurs de gauche »



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.