Une faille permettant de contourner les protections d’Apple Intelligence a été découverte. En fusionnant deux tactiques, des chercheurs ont obligé l’IA d’Apple à insulter l’utilisateur. Explications.
Des chercheurs en sécurité de la RSAC Research, la branche recherche de la RSA Conference, l’un des plus grands rendez-vous mondiaux de la cybersécurité, ont identifié une faille de sécurité dans Apple Intelligence, la suite d’outils IA intégrée dans les iPhone, les iPad et les Mac. La vulnérabilité permet de faire dérailler les protections intégrées par Apple pour contrer les attaques. Au moins 200 millions d’appareils sont potentiellement concernés, ainsi que jusqu’à 1 million d’applications disponibles sur l’App Store, et qui fonctionnent de concert avec Apple Intelligence.
En exploitant la vulnérabilité, les chercheurs ont pu mettre au point une attaque par injection de requête. Ce type de cyberattaque concerne tous les systèmes d’IA. Elle consiste à incorporer des consignes malveillantes dans une requête envoyée à l’IA. Celle-ci traite alors les instructions reçues, et, si les demandes des attaquants sont correctement formulées, elle va y obéir. Le défi général des hackers est de contraindre l’IA à passer outre sa programmation, et, surtout, à ne pas respecter les règles de ses créateurs. L’OWASP (Open Worldwide Application Security Project), une organisation de référence en cybersécurité, estime que ce type d’attaque est la menace numéro 1 qui plane sur l’IA en 2025.
À lire aussi : Il n’y a pas que ChatGPT dans la vie – Apple préparerait un Siri compatible avec toutes les IA
Deux tactiques pour berner Apple Intelligence
Les chercheurs ont combiné deux méthodes pour contourner les défenses d’Apple Intelligence. Baptisée Neural Exe, la première repose sur un algorithme capable de générer automatiquement des chaînes de caractères taillées pour déclencher des comportements précis chez les modèles d’IA d’Apple, qui tournent en local sur l’appareil. Pour l’être humain, ces chaînes de caractères ne veulent absolument rien dire et n’ont pas le moindre sens. Seule une machine peut interpréter les consignes qui y sont dissimulées. Les Neural Execs « ressemblent à du charabia pour les humains », explique RSAC Research. L’algorithme utilisé par les chercheurs est capable de trouver la bonne formulation pour tromper le modèle à tous les coups.
La seconde tactique exploite un caractère spécial Unicode appelé « RIGHT-TO-LEFT OVERRIDE ». Initialement conçu pour les langues comme l’arabe ou l’hébreu, qui se lisent de droite à gauche, ce caractère spécial est utilisé pour dissimuler une instruction malveillante. En fait, la consigne est écrite à l’envers, ce qui lui permet de passer sous le radar des filtres de sécurité d’Apple. Le caractère spécial sert donc à berner les mécanismes de sécurité, tout en s’assurant que l’instruction à l’origine de l’attaque est bien lisible pour l’IA. En clair : ce que voit l’utilisateur et ce que voit le filtre sont deux choses différentes. C’est « un vieux classique des hackers ».
En combinant ces deux techniques, les chercheurs ont obtenu un taux de succès de 76% sur 100 tests aléatoires sur des appareils Apple. Dans leurs démonstrations, l’IA d’Apple a notamment été forcée d’insulter l’utilisateur. En théorie, l’attaquant pourrait aussi se servir des deux astuces ci-dessus pour manipuler les réponses de l’IA dans des applications de messagerie, de notes ou de navigation. Tous ces outils fonctionnent en effet en synergie avec les modèles d’IA d’Apple Intelligence. « À mesure qu’Apple Intelligence « est intégré dans davantage d’applications, il devient aussi séduisant pour les attaquants, qui peuvent potentiellement détourner à la fois ces apps et le système d’exploitation lui‑même », estiment les chercheurs.
Une faille corrigée par Apple
Suivant les procédures habituelles de cybersécurité, les chercheurs ont prévenu Apple le 15 octobre 2025. Le géant de Cupertino n’a pas tardé à réagir en incluant des correctifs dans les mises à jour iOS 26.4 et macOS 26.4, qui ont été déployées récemment. On vous invite évidemment à installer ces deux mises à jour sur vos appareils sans tarder. Fidèle à ses habitudes, Apple n’a pas communiqué sur la nature de la faille.
La vulnérabilité illustre les limites de l’approche d’Apple en matière de sécurité de l’IA. Apple a en effet conçu Apple Intelligence pour que le plus d’actions possible soient réalisées exclusivement en local, directement sur l’iPhone ou le Mac. Dans ce cas-là, aucune information n’est transmise sur des serveurs pour être traitée par l’IA. Seules les tâches plus complexes, qui nécessitent de devoir s’adresser à des modèles de langage plus performants, vont passer par des serveurs à distance.
La démonstration des chercheurs du RSAC Research montre que le traitement local ne garantit pas que l’IA résiste à toutes les offensives. Dès qu’une IA est profondément intégrée au système, elle devient plus difficile à protéger, car il faut sécuriser à la fois le modèle, les filtres, les API et les interactions avec les applications. Les surfaces d’attaque sont particulièrement nombreuses. Il suffit d’un maillon faible pour que toute l’infrastructure tombe sous la coupe d’un attaquant. Pour le moment, rien n’indique que la faille a été activement exploitée. Néanmoins, Apple Intelligence est « déjà une cible de grande valeur », souligne le rapport.
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.
Source :
RSA Conference