Le chatbot d’IA ChatGPT est capable de lancer des attaques de phishing dangereuses Et de concevoir des codes de tlchargement malveillant d’une efficacit redoutable

LinkedIn est la marque la plus usurpe par les cybercriminels et reprsente 52 % de toutes les attaques de phishing mondiales Il s'agit d'une hausse de 44 % par rapport au trimestre prcdent



Les chatbots IA sont devenus trs populaires ces derniers temps, la prcision de leurs rponses tant salue comme le signe d’une industrie en progrs. Malgr cela, ces outils peuvent tre utiliss des fins malveillantes, comme tout autre type d’outil. Le chatbot le plus populaire, ChatGPT, a rcemment commenc tre utilis pour des attaques de phishing. Les acteurs malveillants utilisent le chatbot pour rdiger des e-mails convaincants qui peuvent convaincre les utilisateurs de cliquer sur des liens dangereux.

Les experts en cyberscurit de Check Point Research ont rcemment cherch dmontrer quel point ChatGPT peut tre dangereux s’il est utilis des fins malveillantes. Pour ce faire, ils ont cr, via ChatGPT, un fichier Excel dans lequel a t inject un code malveillant.

Tout ce qu’ils avaient faire tait de demander au chatbot d’crire un code qui excuterait un tlchargement malveillant partir d’une URL une fois le texte saisi dans un fichier Excel. Le code cr par le chatbot tait d’une efficacit redoutable et souligne quel point il peut tre dangereux.

Les chercheurs ont ensuite utilis le chatbot pour rdiger un e-mail de phishing. Ils ont donn des instructions prcises sur la marque que le chatbot devait imiter, et ils ont ensuite reu exactement ce qu’ils avaient demand. Bien qu’ils aient galement reu un message indiquant que leur compte avait t verrouill en raison d’une activit suspecte, il leur a t assez facile de le contourner, de sorte que ces messages sont peut-tre moins utiles.

Tout progrs technologique comporte son lot d’avantages et d’inconvnients. ChatGPT est un pas en avant passionnant dans un secteur qui pourrait rvolutionner le monde entier, mais cela ne change rien aux risques trs rels qu’il peut poser. Il reste encore du travail faire pour protger les utilisateurs, et un consommateur bien inform peut tre capable de reprer un e-mail de phishing un kilomtre de distance. ChatGPT lui-mme doit galement tre optimis pour viter qu’il ne soit utilis pour de telles choses.

Source : Check Point

Et vous ?

Qu’en pensez-vous ?

Selon vous, les utilisateurs sont-ils suffisamment conscients des risques encourus lors de l’utilisation des chatbot base d’IA ?

Voir aussi :

ChatGPT russit l’dition 2022 de l’examen d’informatique pour lves du secondaire dsireux d’obtenir des crdits universitaires US

70 % des consommateurs prfrent utiliser un chatbot pour trouver ce qu’ils cherchent



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.