Le Retrieval-Augmented Generation (RAG) s’impose rapidement comme une technique efficace pour les organisations qui cherchent à exploiter toute la puissance de l’IA générative avec leurs données d’entreprise.
De fait, Alors que les entreprises cherchent à dépasser les réponses génériques de l’IA et à exploiter leurs propres bases de connaissances, le RAG fait le lien entre les capacités générales de l’IA et l’expertise spécifique à un domaine.
Conséquence, des centaines, voire des milliers, de sociétés utilisent déjà les services d’IA de RAG. Et l’adoption accélère à mesure que la technologie mûrit.
Voilà pour les bonnes nouvelles. La mauvaise : Selon Bloomberg Research, le RAG peut également augmenter considérablement les chances d’obtenir des réponses dangereuses. Avant de nous pencher sur les dangers, examinons ce qu’est la méthode RAG et ses avantages.
Qu’est-ce que le RAG ?
RAG, que l’on peut traduire en français par Génération Augmentée par méthode de Récupération, est une architecture d’IA qui combine les forces des modèles d’IA génératifs – tels que GPT-4 d’OpenAI, LLaMA 3 de Meta, ou Gemma de Google – avec les informations contenues dans les dossiers de votre entreprise.
Le RAG permet aux grands modèles de langage (LLM) d’accéder à des connaissances externes stockées dans des bases de données, des documents et des flux de données internes en direct.
Et surtout de raisonner sur ces connaissances, plutôt que de s’appuyer uniquement sur la « connaissance du monde » pré-entraînée des LLM.
Pourquoi le RAG est pertinent en entreprise ?
Lorsqu’un utilisateur soumet une requête, un système RAG récupère d’abord les informations les plus pertinentes à partir d’une base de connaissances.
Il transmet ensuite ces informations, ainsi que la requête originale, au LLM.
Maxime Vermeir, directeur principal de la stratégie IA chez ABBYY, décrit le RAG comme un système qui vous permet de « générer des réponses non seulement à partir de ses données d’entraînement, mais aussi à partir des connaissances spécifiques et actualisées que vous fournissez. Il en résulte des réponses plus précises, plus pertinentes et mieux adaptées au contexte de votre entreprise ».
Pourquoi utiliser le RAG ?
Les avantages de l’utilisation du RAG sont évidents. Bien que les LLM soient puissants, ils manquent d’informations spécifiques aux produits, aux services et aux projets de votre entreprise. Par exemple, si votre entreprise opère dans un secteur de niche, vos documents internes et vos connaissances exclusives sont bien plus utiles pour trouver des réponses que ce que l’on peut trouver dans les ensembles de données publiques.
En permettant au LLM d’accéder aux données réelles de votre entreprise – qu’il s’agisse de PDF, de documents Word ou d’une foire aux questions (FAQ) – au moment de l’interrogation, vous obtenez des réponses beaucoup plus précises à vos questions.
En outre, le RAG réduit les hallucinations. Pour ce faire, il fonde les réponses de l’IA sur des sources de données fiables, externes ou internes. Lorsqu’un utilisateur soumet une requête, le système RAG récupère des informations pertinentes dans des bases de données ou des documents. Il fournit ce contexte factuel au modèle de langage, qui génère alors une réponse basée à la fois sur sa formation et sur les preuves récupérées. Grâce à ce processus, l’IA est moins susceptible de fabriquer des informations, car ses réponses peuvent être retracées jusqu’à vos propres sources internes.
Utiliser des données réelles de votre entrerprise
Comme l’a expliqué Pablo Arredondo, vice-président de Thomson Reuters, à WIRED, « au lieu de répondre sur la base des souvenirs encodés lors de l’entraînement initial du modèle, vous utilisez le moteur de recherche pour extraire des documents réels – qu’il s’agisse de jurisprudence, d’articles ou de n’importe quoi d’autre – et vous ancrez ensuite la réponse du modèle à ces documents ».
Les moteurs d’IA dotés de RAG peuvent encore créer des hallucinations, mais c’est moins probable.
Un autre avantage des RAG est qu’ils vous permettent d’extraire des informations utiles de vos années de sources de données non organisées qui seraient autrement difficiles d’accès.
Des problèmes déjà identifiés
Bien que le RAG offre des avantages significatifs, il ne s’agit pas d’une solution miracle.
- Si vos données sont, euh, mauvaises, l’expression « garbage-in, garbage out » vient à l’esprit.
- Un problème connexe : si vos fichiers contiennent des données périmées, le RAG va extraire ces informations et les traiter comme des vérités d’évangile. Cela produira rapidement toutes sortes de maux de tête.
- Enfin, l’IA n’est pas assez intelligente pour nettoyer toutes vos données à votre place. Vous devrez organiser vos fichiers, gérer les bases de données vectorielles de RAG et les intégrer à vos LLM avant qu’un LLM compatible avec RAG ne soit productif.
Les nouveaux dangers de RAG
Voici donc ce que les chercheurs de Bloomberg ont découvert : le RAG peut en fait rendre les modèles moins « sûrs » et leurs résultats moins fiables.
Bloomberg a testé 11 LLM de premier plan, dont GPT-4o, Claude-3.5-Sonnet et Llama-3-8 B, en utilisant plus de 5 000 prompts nuisibles. Les modèles qui rejetaient les requêtes dangereuses dans les paramètres standard (non RAG) ont généré des réponses problématiques lorsque les LLM étaient activés par le RAG.
Ils ont constaté que même les modèles « sûrs » présentaient une augmentation de 15 à 30 % des résultats non sûrs avec le RAG. En outre, la longueur des documents récupérés est en corrélation avec un risque plus élevé. Et ce parceque les LLM ont du mal à donner la priorité à la sécurité. En particulier, Bloomberg a signalé que même les modèles très sûrs, « qui ont refusé de répondre à presque toutes les requêtes nuisibles dans le cadre non RAG, deviennent plus vulnérables dans le cadre de l’utilisation du RAG ».
Point noir sur le secteur de la finance
Quel genre de résultats « problématiques » ? Bloomberg, comme on peut s’y attendre, examinait les résultats financiers. Ils ont constaté que l’IA fuitait les données sensibles des clients, créait des analyses de marché trompeuses et produisait des conseils d’investissement biaisés.
En outre, les modèles activés par le RAG étaient plus susceptibles de produire des réponses dangereuses pouvant être utilisées dans le cadre de logiciels malveillants et de campagnes de désinformation.
En bref, comme l’a expliqué Amanda Stent, responsable de la stratégie AI & research au bureau du CTO de Bloomberg, « cette découverte contre-intuitive a des implications considérables étant donné l’omniprésence des RAG dans les applications d’IA, telles que les agents d’assistance à la clientèle et les systèmes de réponse aux questions. L’internaute moyen interagit quotidiennement avec des systèmes basés sur les RAG. Les praticiens de l’IA doivent réfléchir à la manière d’utiliser les RAG de manière responsable et aux garde-fous mis en place pour s’assurer que les résultats sont appropriés. »
Sebastian Gehrmann, responsable de l’IA responsable chez Bloomberg, a ajouté : « La conception inhérente du RAG – l’extraction dynamique de données externes – crée des surfaces d’attaque imprévisibles. L’atténuation nécessite des mesures de protection à plusieurs niveaux, et pas seulement de se fier aux déclarations des fournisseurs de modèles. »
Que pouvez-vous faire pour lutter contre les dangers du RAG ?
Bloomberg suggère de créer de nouveaux systèmes de classification pour les risques spécifiques à un domaine. Les entreprises qui déploient des RAG devraient également améliorer leurs garde-fous en combinant des vérifications de la logique commerciale, des couches de validation des faits et des tests red team.
Pour le secteur financier, Bloomberg conseille d’examiner et de tester vos IA RAG pour détecter d’éventuels problèmes de divulgation confidentielle, de narration contrefactuelle.
Vous devez prendre ces questions au sérieux. Alors que les régulateurs des États-Unis et de l’Union européenne intensifient l’examen de l’utilisation de l’IA dans la finance, le RAG, bien que puissant, exige des protocoles de sécurité rigoureux et spécifiques au domaine.
Enfin, et ce n’est pas le moins important, je peux facilement imaginer que des entreprises soient poursuivies en justice si leurs systèmes d’IA fournissent à leurs clients des réponses et des conseils non seulement médiocres, mais carrément erronés.