Un hacker a cr sa propre version de ChatGPT, mais avec un penchant malveillant : voici WormGPT, un chatbot conu pour aider les cybercriminels. Le dveloppeur de WormGPT vend l’accs au programme dans un forum de piratage populaire, selon le fournisseur de scurit de messagerie SlashNext, qui a essay le chatbot. Nous constatons que des acteurs malveillants crent dsormais leurs propres modules personnaliss similaires ChatGPT, mais plus faciles utiliser des fins nfastes , a dclar la socit dans un article de blog.
Au dbut de l’anne, l’entreprise spcialise en cyberscurit CheckPoint a not que ChatGPT peut gnrer le code dun logiciel malveillant capable de voler des fichiers prcis sur un PC, de les compresser et de les envoyer sur un ordinateur distant. L’IA d’OpenAI pouvait galement produire du code pour un outil logiciel qui installe une porte drobe sur un ordinateur et ensuite tlcharge dautres logiciels malveillants partir de cette dernire. La firme a rapport en sus que les cybercriminels peuvent sen servir pour la mise sur pied de logiciels capables de chiffrer les fichiers du PC dune cible. CheckPoint a estim que ChatGPT ouvrait ces possibilits des individus avec de trs faibles connaissances techniques.
Puis OpenAI a amlior son chatbot IA, lui imposant des limites thiques et restreignant certaines fonctionnalits. C’tait sans compter sur l’ingniosit des hackers.
WormGPT, le cousin sans limites thiques de ChatGPT
Considrez la premire image ci-dessus, o un fil de discussion rcent s’est droul sur un forum sur la cybercriminalit. Dans cet change, le cybercriminel a prsent le potentiel d’exploiter l’IA gnrative pour affiner un e-mail qui pourrait tre utilis dans une attaque de phishing ou BEC. Il a ensuite recommand de composer l’e-mail dans sa langue maternelle, de le traduire, puis de l’introduire dans une interface comme ChatGPT pour amliorer sa sophistication et sa formalit. Cette mthode introduit une forte implication : les attaquants, mme ceux qui ne matrisent pas une langue particulire, sont dsormais plus capables que jamais de fabriquer des e-mails persuasifs pour les attaques de phishing ou BEC.
Passant la deuxime image ci-dessus, nous constatons maintenant une tendance troublante parmi les cybercriminels sur les forums, vidente dans les fils de discussion proposant des « jailbreaks » pour des interfaces comme ChatGPT. Ces « jailbreaks » sont des invites spcialises qui deviennent de plus en plus courantes. Ils font rfrence des entres soigneusement conues pour manipuler des interfaces telles que ChatGPT afin de gnrer une sortie pouvant impliquer la divulgation d’informations sensibles, la production de contenu inappropri ou mme l’excution de code nuisible. La prolifration de telles pratiques souligne les dfis croissants pour maintenir la scurit de l’IA face des cybercriminels dtermins.
Enfin, dans la troisime image ci-dessus, nous voyons que les acteurs malveillants crent dsormais leurs propres modules personnaliss similaires ChatGPT, mais plus faciles utiliser des fins nfastes. Non seulement ils crent ces modules personnaliss, mais ils en font galement la publicit auprs d’autres acteurs malveillants. Cela montre quel point la cyberscurit devient plus difficile en raison de la complexit et de l’adaptabilit croissantes de ces activits dans un monde faonn par l’IA.
Il semble que le hacker ait prsent le chatbot pour la premire fois en mars avant de le lancer le mois dernier. Contrairement ChatGPT ou Bard de Google, WormGPT n’a pas de garde-fou pour l’empcher de rpondre aux requtes malveillantes.
Ce projet vise fournir une alternative ChatGPT, qui vous permet de faire toutes sortes de choses illgales et de les vendre facilement en ligne l’avenir , a crit le dveloppeur du programme. Tout ce que vous pouvez imaginer li au blackhat peut tre fait avec WormGPT, permettant quiconque d’accder des activits malveillantes sans jamais quitter le confort de sa maison .
Le dveloppeur de WormGPT a galement mis en ligne des captures d’cran montrant que vous pouvez demander au bot de produire des logiciels malveillants crits dans le langage de codage Python et de fournir des conseils sur la cration d’attaques malveillantes. Pour crer le chatbot, le dveloppeur dit avoir utilis un grand modle de langage plus ancien mais open source appel GPT-J de 2021. Le modle a ensuite t form sur des donnes concernant la cration de logiciels malveillants, ce qui a donn WormGPT.
Dcouvrir WormGPT : l’arsenal d’un cybercriminel
Ci-dessous, un extrait du billet de Slashnext :
Notre quipe a rcemment eu accs un outil connu sous le nom de « WormGPT » via un important forum en ligne souvent associ la cybercriminalit. Cet outil se prsente comme une alternative blackhat aux modles GPT, conue spcifiquement pour les activits malveillantes.
WormGPT est un module d’intelligence artificielle bas sur le modle de langage GPTJ, qui a t dvelopp en 2021. Il propose une gamme de fonctionnalits, notamment une prise en charge illimite des caractres, la conservation de la mmoire de discussion et des capacits de formatage de code.
Comme illustr ci-dessus, WormGPT aurait t form sur un large ventail de sources de donnes, en se concentrant en particulier sur les donnes lies aux logiciels malveillants. Cependant, les ensembles de donnes spcifiques utiliss pendant le processus de formation restent confidentiels, comme dcid par l’auteur de l’outil.
Nous avons effectu des tests axs sur les attaques BEC pour valuer de manire exhaustive les dangers potentiels associs WormGPT. Dans une exprience, nous avons demand WormGPT de gnrer un e-mail destin faire pression sur un responsable de compte sans mfiance pour qu’il paie une facture frauduleuse.
Les rsultats taient troublants. WormGPT a produit un e-mail qui tait non seulement remarquablement persuasif mais aussi stratgiquement rus, montrant son potentiel d’attaques de phishing et BEC sophistiques.
En rsum, il est similaire ChatGPT mais n’a pas de limites ou de limites thiques. Cette exprience souligne la menace importante pose par les technologies d’IA gnratives telles que WormGPT, mme entre les mains de cybercriminels novices.
WormGPT est trs convainquant
En effet, le bot a rdig un message en utilisant un langage professionnel qui exhortait la victime vise effectuer un virement. WormGPT a galement crit l’e-mail sans aucune faute d’orthographe ou de grammaire, des signaux d’alarme pouvant indiquer une attaque par e-mail de phishing.
Heureusement, WormGPT n’est pas bon march. Le dveloppeur vend l’accs au bot pour 60 euros par mois ou 550 euros par an. Un acheteur s’est galement plaint que le programme « ne vaut rien », citant de faibles performances. Pourtant, WormGPT est un signe inquitant sur la faon dont les programmes d’IA gnrative pourraient alimenter la cybercriminalit, en particulier mesure que les programmes mrissent.
Quoiqu’il en soit, SlashNext a donn les avantages de l’utilisation de l’IA gnrative pour les attaques BEC :
- Grammaire exceptionnelle : l’IA gnrative peut crer des e-mails avec une grammaire impeccable, les faisant paratre lgitimes et rduisant la probabilit d’tre signals comme suspects.
- Seuil d’entre abaiss : l’utilisation de l’IA gnrative dmocratise l’excution d’attaques BEC sophistiques. Mme les attaquants aux comptences limites peuvent utiliser cette technologie, ce qui en fait un outil accessible un plus large ventail de cybercriminels.
Moyens de protection contre les attaques BEC pilotes par l’IA
En conclusion, la croissance de l’IA, bien que bnfique, apporte de nouveaux vecteurs d’attaque progressifs. La mise en place de mesures prventives fortes est cruciale. Voici quelques stratgies que vous pouvez utiliser :
- Formation spcifique au BEC : les entreprises doivent dvelopper des programmes de formation complets et rgulirement mis jour visant contrer les attaques BEC, en particulier celles amliores par l’IA. De tels programmes devraient duquer les employs sur la nature des menaces BEC, la manire dont l’IA est utilise pour les augmenter et les tactiques employes par les attaquants. Cette formation devrait galement tre intgre comme un aspect continu du dveloppement professionnel des employs.
- Mesures amliores de vrification des e-mails : pour se prmunir contre les attaques BEC pilotes par l’IA, les entreprises doivent appliquer des processus de vrification des e-mails rigoureux. Celles-ci incluent la mise en uvre de systmes qui alertent automatiquement lorsque des e-mails provenant de l’extrieur de l’organisation se font passer pour des cadres internes ou des fournisseurs, et l’utilisation de systmes de messagerie qui signalent les messages contenant des mots cls spcifiques lis aux attaques BEC comme urgent , sensible ou virement bancaire . De telles mesures garantissent que les e-mails potentiellement malveillants sont soumis un examen approfondi avant toute action.
Source : SlashNext
Et vous ?
tes-vous surpris de voir lIA gnrative tre utilise pour crer des logiciels malveillants et des attaques de phishing ?
Quels sont les risques et les dfis que pose des outils comme WormGPT pour la scurit des e-mails et des donnes ?
Comment pouvons-nous nous protger contre les attaques potentielles de WormGPT ou dautres chatbots malveillants ?