Ces 7 failles critiques de ChatGPT peuvent vous mettre en danger

Ces 7 failles critiques de ChatGPT peuvent vous mettre en danger



Sept vulnérabilités critiques ont été découvertes dans ChatGPT. Elles permettent aux pirates de voler des conversations, manipuler les réponses de l’IA ou exécuter du code malveillant sur l’appareil. Baptisées “HackedGPT”, ces failles inquiètent les experts en cybersécurité de Tenable.

Tenable, spécialiste américain de la gestion des risques informatiques, a découvert sept vulnérabilités au sein de ChatGPT. Les failles, considérées comme critiques, ont été identifiées dans ChatGPT-4o et ChatGPT-5. Elles ont été regroupées sous l’appellation équivoque de HackedGPT. ChatGPT 5.1, sorti après la réalisation de l’étude, n’est pas forcément concerné.

Comme l’explique Tenable, les failles exposent les utilisateurs à des risques de fuite de données et de manipulation des réponses de l’IA. Plus concrètement, ces vulnérabilités pourraient permettre à un attaquant de voler des conversations, accéder à l’historique ou manipuler les réponses du chatbot pour diffuser de fausses informations. Bref, c’est la porte ouverte à tous les abus. On fait le point sur les sept failles identifiées par Tenable.

À lire aussi : On a testé ChatGPT Atlas, le navigateur IA qui promet de tout changer – voici notre avis

Les 7 failles qui frappent ChatGPT

La première brèche de sécurité consiste à cacher des instructions malveillantes dans du contenu légitime, comme un article de blog ou un commentaire en ligne. Lorsque ChatGPT consulte ce site sur demande de son interlocuteur, il lit et exécute ces commandes sans s’en rendre compte. L’IA tombe ainsi sous la coupe du pirate. Il peut ainsi manipuler le modèle pour qu’il divulgue des informations privées ou exécute des actions non autorisées. L’attaque repose sur la confiance un peu aveugle que ChatGPT accorde à des sources externes. Pour exploiter la faille, l’internaute doit se rendre sur le site ou partager la page avec l’IA.

La seconde vulnérabilité repose également sur du code malveillant caché. Cette fois, l’attaque ne nécessite pas la moindre action de la part de l’utilisateur. C’est pourquoi elle est considérée comme une faille « zero click ». Il suffit de poser une question à ChatGPT pendant qu’il consulte une page contenant du code dissimulé pour déclencher l’offensive. L’utilisateur ne doit pas demander à ChatGPT de consulter la page. Celle-ci est consultée dans le cadre d’une recherche. En clair, il suffit de poser une simple question à l’IA pour que la cyberattaque démarre. Le mode opératoire est similaire à celui des attaques reposant sur les failles de Gemini. Là encore, les pirates cachaient des instructions malveillantes invisibles.

La faille suivante ne demande qu’un seul clic de la part de la cible. Elle concerne la fonctionnalité de ChatGPT qui permet de partager des liens avec une question préremplie, comme « chatgpt.com/?q=Comment faire un gâteau ». Cette fonction permet d’ouvrir directement une conversation sur le sujet avec le chatbot. Là encore, il suffit de glisser des instructions malveillantes dans le lien. Les pirates n’ont plus qu’à partager le lien et espérer que la victime clique dessus.

La quatrième vulnérabilité critique épinglée permet de contourner certains mécanismes de sécurité de ChatGPT. En théorie, le chatbot vérifie et bloque les liens dangereux. OpenAI a en effet mis en place un système de filtre, qui évite à l’internaute de se retrouver sur un site malveillant. Pour contourner ce filtre, les criminels ont mis au point des « wrapper URLs », des URL d’enrobage en français. Il s’agit par exemple de liens de redirection venant de Bing. Les liens redirigés trompent ChatGPT. Le chatbot pense qu’il s’agit d’une URL fiable et ne bloque pas le site. La faille repose sur la confiance que l’IA accorde aux redirections.

Tenable a aussi identifié un problème de sécurité dans la fonction de recherche de ChatGPT, appelée SearchGPT. Pour exploiter la faille, l’attaquant va glisser des instructions malveillantes dans les résultats de recherche du module. Ces instructions sont taillées pour se faire passer pour des demandes formulées par l’utilisateur. Une fois interprétées par l’IA, elles vont pousser ChatGPT à réaliser des actions malveillantes, comme des vols de données. Pour passer inaperçues, les instructions sont souvent codées ou camouflées.

La sixième brèche permet à un pirate de dissimuler un code ou des instructions cachées dans un bloc de code ou un texte en format Markdown. Pour l’utilisateur, le message affiché semble normal et inoffensif. Lorsque ChatGPT interagit avec le bloc ou le texte, il va être obligé d’obéir et d’exécuter les demandes des cybercriminels.

La dernière vulnérabilité concerne la mémoire persistante de ChatGPT. Cette fonction permet à l’IA de personnaliser ses réponses en se servant des informations accumulées sur son utilisateur. Les chercheurs ont démontré qu’un pirate peut injecter des instructions malveillantes directement dans cette mémoire. Ces commandes restent actives même après la fermeture et la réouverture du chatbot. Chaque nouvelle conversation peut réactiver ces instructions.

À lire aussi : « Un cauchemar pour la vie privée » – ChatGPT Atlas est accusé de collecter des données sensibles

Le danger qui plane sur les utilisateurs de ChatGPT

Pour Moshe Bernstein, ingénieur en charge de la recherche chez Tenable, ces vulnérabilités mettent « en évidence une faiblesse fondamentale dans la manière dont les grands modèles de langage évaluent les informations de confiance ». Pris « séparément, ces défauts semblent mineurs, mais combinés, ils forment une chaîne d’attaque complète, de l’injection à l’exfiltration de données en passant par la persistance ». Cela « prouve que les systèmes d’IA ne sont pas seulement des cibles potentielles, ils peuvent être transformés en outils d’attaque capables de collecter discrètement des informations issues de conversations ou de navigations ordinaires », ajoute le chercheur.

Alerté par Tenable, OpenAI a corrigé plusieurs des failles signalées. Malheureusement, certaines des vulnérabilités sont encore béantes. Les chercheurs de Tenable incitent donc les utilisateurs à la plus grande prudence lorsqu’ils se servent d’outils reposant sur l’IA, comme l’incontournable ChatGPT. Moshe Bernstein estime que « les particuliers comme les organisations doivent désormais partir du principe que les outils d’IA peuvent être manipulés ». 

Pour éviter de mauvaises surprises, évitez de copier-coller des contenus inconnus venant de blogs ou forums dans la conversation avec ChatGPT. On vous recommande aussi de ne jamais enregistrer d’informations trop sensibles ou personnelles dans la mémoire du chatbot. Méfiez-vous des liens, surtout des redirections. Elles peuvent paraître inoffensives, mais elles sont susceptibles de vous emmener sur des sites piégés. C’est le cas sur ChatGPT ou en naviguant sur le web. Sur Internet ou dans vos conversations avec l’IA, il est important de faire preuve de vigilance.

👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google Actualités, abonnez-vous à notre canal WhatsApp ou suivez-nous en vidéo sur TikTok.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.