L’IA générative hallucine encore trop pour remplacer votre patron

L’IA générative hallucine encore trop pour remplacer votre patron



Pour taper la discute ou générer des images Ghibli, l’IA générative est bien adaptée, mais il vaut mieux y réfléchir à deux fois avant de lui confier les rênes d’une entreprise. Les conséquences peuvent coûter cher, si jamais le bot hallucine une information ou perd les pédales. Salesforce, qui vend des solutions basées sur cette technologie, a trouvé une solution très simple pour éviter les mauvaises surprises.

Les solutions éprouvées depuis des décennies ont parfois du bon. Depuis un an, Salesforce vante Agentforce, une solution d’« agents » s’appuyant en partie sur les grands modèles de langage (LLM) d’OpenAI, pour assurer le SAV et l’assistance client, remplaçant en grande partie des humains. L’entreprise a d’ailleurs supprimé 4 000 postes sur les 9 000 que comptaient son support client, en utilisant Agentforce à la place. Mais voilà : les LLM ont parfois tendance à raconter n’importe quoi !

Salesforce découvre que l’IA fonctionne mieux avec des règles simples

Le site The Information rapporte que plusieurs clients ont constaté que les agents conversationnels perdaient rapidement de vue leur objectif dès que l’utilisateur s’éloignait du « scénario » prévu. Un dirigeant de Salesforce, Phil Mui, décrivait en octobre dernier des agents qui « dérivent » lorsque les questions partent dans tous les sens. Ce qui aboutit à des réponses hors sujet ou des tâches que le bot oublie d’effectuer tout simplement.

L’exemple de Vivint, spécialiste de la sécurité domestique, est parlant. L’entreprise avait demandé à Agentforce d’envoyer systématiquement un questionnaire de satisfaction à la fin d’un échange. Malgré des consignes claires, l’IA omettait parfois l’envoi, sans raison identifiable. La solution a finalement consisté à remplacer l’IA par un déclencheur qui garantit l’envoi du message à chaque interaction.

Ce déclencheur, c’est simplement une commande de type « if this, then that » qui est utilisée depuis toujours en informatique. Autrement dit, une règle déterministe, qui ne cherche ni à interpréter le contexte ni à « raisonner », mais qui exécute toujours la même action dans les mêmes conditions. C’est certainement moins élégant qu’un agent dopé aux LLM, mais la commande est infiniment plus fiable dès qu’il s’agit d’automatiser des tâches critiques. Et surtout, elle est incapable d’halluciner !

« Nous faisions davantage confiance aux LLM il y a un an », admet Sanjna Parulekar, vice-présidente du marketing produit. Pour limiter les erreurs et les fameuses « hallucinations », Salesforce a donc renforcé l’usage de ces mécanismes, des règles précises, écrites à l’avance, qui exécutent toujours les mêmes actions dans les mêmes conditions.

Muralidhar Krishnaprasad, directeur technologique du groupe, ajoute : « Si vous donnez à un LLM plus de, disons, huit instructions, il commence à en oublier certaines, ce qui n’est vraiment pas idéal ». L’ajout de commandes basiques mais efficaces est tout autant « un moyen de réduire le coût des LLM, [que] de s’assurer que les utilisateurs obtiennent les bonnes réponses. » Chaque requête envoyée à un modèle de langage consommant des ressources et des dollars, mieux vaut dès lors que la réponse soit fiable.

Salesforce assure ne pas faire marche arrière sur l’IA générative, mais plutôt de l’utiliser là où elle apporte une réelle valeur. « Nous utilisons désormais les LLM de façon plus ciblée, là où ils apportent une réelle valeur ajoutée », résume un porte-parole qui évoque un renforcement des garde-fous et un meilleur suivi des performances. Une position plus mesurée, à rebours des discours les plus exaltés de la Silicon Valley qui a tendance à présenter l’IA générative comme une réponse automatique à tous les problèmes.

👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.

Source :

The Information



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.