Si les intelligences artificielles génératives suscitent l’engouement, leur essor n’est pas sans risques. Lasso Security, une société israélienne spécialisée dans la sécurité autour des grands modèles de langage (LLM), vient ainsi d’en faire la démonstration.
Elle assure en effet avoir découvert près de 1700 tokens API Hugging Face vulnérables, ces jetons qui permettent de s’authentifier dans un service en ligne. Ces jetons ouvraient l’accès à des attaques par chaîne d’approvisionnement logicielle contre de grandes entreprises telles que Meta, Microsoft, Google ou Vmware.
Comptes vulnérables
Les chercheurs de Lasso Security expliquent qu’ils ont pu accéder aux comptes de plus de 700 organisations, dont 655 avec des autorisations d’écriture. Dans 77 cas, ces derniers ont même pu prendre le contrôle total du référentiel. L’entreprise assure également avoir obtenu les droits nécessaires pour modifier 14 ensembles de données totalisant des dizaines de milliers de téléchargements par mois. De même, ils avaient les droits pour voler plus de 10 000 modèles privés.
Hugging Face, cette pépite fondée par des Français basée à New York, est une sorte de GitHub de l’intelligence artificielle. Ce service open source, véritable boîte à outils de l’IA générative, héberge plus de 500 000 modèles d’IA et 250 000 ensembles de données.
Risques pour les modèles génératifs
En contrôlant le contrôle de comptes à la source de millions de téléchargements, Lasso Security remarque qu’il était possible de “manipuler les modèles existants, les transformant potentiellement en entités malveillantes”. Soit une menace grave pour les entités visées, l’injection de modèles corrompus pouvant “affecter des millions d’utilisateurs qui s’appuient sur ces modèles pour leurs applications”.
Hugging Face, contacté par ZDNET.fr, a indiqué avoir révoqué tous les jetons concernés. Elle a également souligné en creux la responsabilité des utilisateurs, en rappelant qu’elle conseille de ne pas publier de jetons sur une plateforme d’hébergement de code. “Nous travaillons également avec des plateformes externes comme Github pour empêcher la publication de jetons valides dans des référentiels publics”, ajoute-t-elle.
A ce sujet, Lasso Security suggère à Hugging Face, comme le fait GitHub, de rechercher en permanence les jetons API exposés publiquement pour les révoquer ou avertir ses utilisateurs. Les fuites de jetons API sont en effet un problème ancien déjà bien documenté dans la sécurité informatique.