Que faire contre les erreurs factuelles écrites par les intelligences artificielles comme ChatGPT ? Google tente d’apporter une forme de réponse, ce mardi 19 septembre, dans la nouvelle version de Bard, son robot conversationnel concurrent du célèbre logiciel lancé par OpenAI fin 2O22. Le principe consiste à lancer en parallèle une requête sur le moteur de recherche pour « vérifier » si le contenu de la réponse produite par l’intelligence artificielle (IA) semble recoupé − ou non − par des pages de sites Web traitant des mêmes sujets.
« Nous savons que les grands modèles de traitement du langage présentent des défis, notamment parce qu’ils sont capables de présenter avec un ton affirmatif des informations fausses », reconnaît Google dans son communiqué. L’entreprise est bien au courant du problème : Bard s’est fait railler par des internautes pour avoir, dans une des démos présentées à son lancement, attribué à tort au télescope James-Webb la première observation de planète en dehors du système solaire.
Ce genre d’erreurs, souvent appelées « hallucinations » dans la profession, est en fait courant. ChatGPT, comme sa version dérivée intégrée par Microsoft dans son moteur de recherche Bing, s’est aussi souvent trompé sur des dates ou des faits, a inventé des titres de livres, etc.
Du vert ou du rouge
« C’est important que vous puissiez avoir davantage confiance dans les informations générées par des IA », écrit Google. En effet, ce manque de fiabilité factuelle, si elle ne pose pas de problèmes pour certains usages de rédaction créative ou de fiction, est un frein à l’adoption des modèles de traitement du langage par les entreprises. Avec la nouvelle version de Bard, vous pourrez « vérifier les réponses fournies en trouvant du contenu Web similaire ou différent », explique Google.
Bard est accessible depuis juillet en Europe, à travers une page d’accueil séparée de celle de Google. L’utilisateur peut, comme avec ChatGPT, taper une instruction écrite et obtenir une réponse, mais il a ensuite la possibilité d’appuyer sur un bouton « Google it ». Alors, le moteur de recherche va lancer une requête − invisible − sur chaque phrase ou paragraphe de la réponse. Si le contenu des pages Web apparues en résultat lui semble confirmer le contenu d’un passage généré par Bard, celui-ci sera souligné en vert ; si, au contraire, la recherche semble contredire l’IA, l’extrait apparaîtra en rouge. En cliquant sur un paragraphe, l’internaute pourra accéder à un extrait des pages trouvées recoupant les affirmations de Bard.
Il vous reste 42.97% de cet article à lire. La suite est réservée aux abonnés.