Comment un débutant en codage de logiciels malveillants a piégé l …

Comment un débutant en codage de logiciels malveillants a piégé l ...



Cato Networks, fournisseur de sécurité d’entreprise, annonce avoir découvert une nouvelle méthode pour manipuler les chatbots IA. Son rapport 2025 Cato CTRL montre comment un chercheur qui, selon Cato, n’avait « aucune expérience préalable en codage de logiciels malveillants » est parvenu à piéger des modèles, notamment DeepSeek R1 et V3, Microsoft Copilot et GPT-4o d’OpenAI, pour créer des infostealers Chrome « entièrement fonctionnels ».

C’est-à-dire des logiciels malveillants capables de voler les informations de connexion enregistrées sur Chrome. Il peut s’agir de mots de passe, d’informations financières et d’autres données sensibles.

« Le chercheur a créé un monde fictif détaillé dans lequel chaque outil d’IA générative jouait un rôle, avec des tâches et des défis assignés », explique Cato. « Grâce à cette ingénierie narrative, le chercheur a contourné les contrôles de sécurité et a effectivement normalisé les opérations restreintes. »

Technique du Monde Immersif

La nouvelle technique de jailbreak, baptisée « Monde Immersif » par Cato, est particulièrement alarmante compte tenu de l’utilisation répandue des chatbots qui exécutent ces modèles. Les modèles DeepSeek sont déjà connus pour leur manque de protection et ont été facilement jailbreakés. Mais Copilot et GPT-4o sont gérés par des entreprises dotées d’équipes de sécurité solides. Si les formes de jailbreaking plus directes peuvent ne pas fonctionner aussi facilement, la technique du Monde Immersif révèle la porosité des voies indirectes.

« Notre nouvelle technique de jailbreak LLM […] aurait dû être bloquée par les garde-fous de l’IA de nouvelle génération. Ce n’est pas le cas », a déclaré Etay Maor, responsable de la stratégie sécurité chez Cato.

Cato indique dans son rapport avoir informé les entreprises concernées de ses conclusions. DeepSeek n’a pas répondu tandis qu’OpenAI et Microsoft en ont accusé réception. Google a également accusé réception, mais a refusé d’examiner le code de Cato lorsque l’entreprise l’a proposé.

Un signal d’alarme

Cato considère que cette technique est un signal d’alarme pour les professionnels de la sécurité. Car elle montre comment n’importe quel individu novice peut devenir un acteur malveillant.

La solution ? Des stratégies de sécurité basées sur l’IA, selon Cato.

En axant la formation à la sécurité sur la prochaine phase du paysage de la cybersécurité, les équipes peuvent anticiper les menaces générées par l’IA à mesure que celles-ci évoluent.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.