gare aux hallucinations des chatbots !

trop cher pour les particuliers


Le vif engouement pour ChatGPT a conduit les grands groupes derrière les moteurs de recherche à accélérer leurs plans en matière de robot conversationnel. De réponses aux requêtes sous forme de liste de liens au passage à un texte structuré apportant directement l’information, il n’y a qu’un pas et ce dernier est sur le point d’être franchi, avec des conséquences sur la présentation du résultat fourni comme du modèle économique des moteurs de recherche.

Les grandes firmes du Web en sont plus ou moins conscientes. Microsoft a déjà commencé à montrer l’avenir de son moteur Bing mâtiné d’intelligence artificielle conversationnelle tandis que Google a fait la démonstration de Bard, l’IA qui épaulera son moteur de recherche pour fournir des réponses directes en langage naturel.

En Chine, aussi, les géants Baidou, Alibaba et JD.com ont annoncé vouloir lancer prochainement des agents conversationnels, préparant une transformation profonde dans l’utilisation d’Internet ces prochaines années.

Les chatbots aussi ont des hallucinations

Mais au-delà de l’innovation et des perspectives ouvertes, il va falloir résoudre un certain nombre de problèmes. Le robot conversationnel est un beau parleur mais tout ce qu’il raconte n’est pas forcément pertinent.


L’exemple malheureux du Bard de Google se trompant dans ses affirmations rapppelle la nécessité de pouvoir contrôler et vérifier les assertions des chatbots, ce qui s’annonce compliqué.

Prabhakar Raghavan, responsable de Google Search, a souligné dans une interview au journal allemand Welt am Sonntag que ce type d’intelligence artificielle pouvait avoir des  » hallucinations  » en s’exprimant d’une façon convaincante avec une réponse totalement factice.

En l’absence de sources ou d’indice de pertinence, impossible de savoir si la réponse énoncée avec assurance est vraie ou non, ce qui va très vite poser un grave problème.

Le souci de pertinence des réponses

Parvenir à contrôler ce paramètre est l’une tâches principales du moment et la raison pour laquelle Google avance avec tant de précautions sur ce sujet. Le lancement de ChatGPT par OpenAI a obligé la firme à dévoiler son projet mais sa finalisation pour répondre aux critères des moteurs de recherche n’est pas encore achevée.

En détenant plus de 90% du search, Google doit marcher sur des oeufs et ne peut absolument pas proposer un robot conversationnel qui débiterait de fausses informations trop souvent, sous peine d’une perte de confiance dans les résultats qui détruira son modèle économique.

L’erreur dans la réponse de Bard à une question lors de sa présentation a déjà fait chuter le cours d’Alphabet de 8%, prélevant 100 milliards de dollars de valorisation, ce qui témoigne des risques encourus si l’IA n’est pas suffisamment protégée contre les hallucinations.

Ce mode affirmatif faisant passer de fausses informations pour des vérités risque d’être également très rapidement utilisé pour produire des fake news à foison. Au vu des difficultés pour détecter les textes générés par IA, la diffusion de contre-vérités risque de prendre une ampleur exponentielle. Au point de casser Internet ?





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.