Oups ! Un expert en sécurité informatique expatrié aux États-Unis, Philippe Caturegli, vient de repérer une grosse bourde d’xAI, l’entreprise du controversé milliardaire Elon Musk. Cette société spécialisée dans l’intelligence artificielle avait en effet laissé échapper par erreur dans un référentiel GitHub la clé d’une API, une interface de programmation d’application.
Si des fuites de clés API pour ChatGPT ou xAI « sont malheureusement monnaie courante », cette divulgation était toutefois différente, signale à ZDNET.fr Philippe Caturegli.
Outre Grok, l’intelligence artificielle générative du réseau social X, la clé divulguée donnait en effet « accès à des modèles non publics », des modèles de langage internes ou privés liés à xAI, pointe le cofondateur du cabinet de conseil en cybersécurité et de tests d’intrusion Seralys, passé par l’école d’informatique Epita.
Deux mois sans réaction
Au total, l’interface compromise donnait accès à « au moins » 60 modèles de langage, selon un expert de l’entreprise GitGuardian. Interrogée par le journaliste américain Brian Krebs, le premier à avoir signalé le fail d’xAI, cette entreprise spécialisée dans la traque de ce genre de bourde lancée à Paris en 2017 signale même avoir alerté sur cette fuite dès le début du mois de mars.
Le problème n’a finalement résolu qu’à la fin avril, avec la suppression du référentiel qui divulguait les identifiants. D’abord notifiée par GitGuardian, une notification sans doute passée inaperçue, xAI va de nouveau être avertie par un message de Philippe Caturegli.
L’entreprise d’Elon Musk va d’abord rediriger l’expert en sécurité vers son programme de bug bounty, avant finalement de réparer sa bévue.
Manque de sensibilisation
Cet incident « met en lumière un vrai manque de sensibilisation », estime l’expert français, la clé étant restée publique plus de deux mois. Il « illustre également un manque de segmentation des données, puisqu’un développeur semblait avoir accès à des modèles privés appartenant à plusieurs entités distinctes, notamment SpaceX, Tesla et X/Twitter », ajoute-t-il.
Dans son interview à Brian Krebs, GitGuardian rappelle également les dangers liés à ce genre de faille.
Elle peut permettre à des tiers de connaître les projets en cours. Un accès direct aux modèles peut également ouvrir la voie à des tentatives d’empoisonnement du modèle de langage.
Synthèse de l’Anssi
En février dernier, l’Anssi, le cyber-pompier français, avait dévoilé dans un document de quatorze pages son analyse des risques cyber des systèmes basés sur l’intelligence artificielle. L’agence et la vingtaine de partenaires associés y présentait trois scénarios d’attaque.
Soit l’empoisonnement, l’extraction et enfin l’évasion.
Autant de manœuvres malveillantes susceptibles de faire dérailler une intelligence artificielle, ou pouvant conduire au vol ou à la divulgation de données sensibles.