Les IA génératives constituent une menace directe pour la science, alertent des chercheurs

ChatGPT Bard


Cessons de faire confiance aux grands modèles de langage, et limitons leurs utilisations dans les recherches scientifiques : voilà le message passé par trois chercheurs de l’Oxford Internet Institute. Ces derniers s’alarment de l’usage des LLMs dans les sciences, conduisant à des travaux qui ne sont pas fiables.

« Les grands modèles de langage (LLM) ne font pas la différence entre les faits et la fiction » : trois chercheurs de l’Oxford Internet Institute s’alarment, dans un article paru dans Nature Human Behaviour lundi 20 novembre, des dangers de l’utilisation des LLMs dans les sciences. L’objet de leur crainte : les « hallucinations de l’intelligence artificielle (IA) », le terme « hallucinations » désignant les erreurs commises par les systèmes d’IA. Les LLMs sont des modèles de langage sur lesquels se basent ChatGPT ou d’autres agents conversationnels, capables de générer du texte, du code ou des images. Or, les internautes feraient trop confiance à ces modèles, les considérant comme une ressource fiable, similaire à un être humain, déplorent ces chercheurs de l’Oxford Internet Institute.

Les erreurs commises par ChatGPT, Bard et les autres sont nombreuses : elles s’expliquent d’abord en raison de la façon dont ces modèles sont entraînés. Ces systèmes se forment en effet grâce à d’immenses jeux de données collectées en ligne. Ces data peuvent être de fausses informations, des opinions ou des éléments de fiction. Autre problème : les LLM sont conçus « pour produire des réponses utiles et convaincantes sans aucune garantie (…) concernant leur exactitude ou leur conformité aux faits ».

Les LLMs ne doivent pas être utilisés comme une source de connaissances par les scientifiques

Ajoutez à cela que nous sommes amenés à leur faire confiance. Nous les considérons comme des « diseurs de vérité », poursuivent-ils. Cela s’explique par le fait que les agents conversationnels répondent à n’importe quelle question avec un texte bien écrit, qui inspire confiance, délivré sur le ton de la conversation, rapporte le professeur Brent Mittelstadt, coauteur de l’article et directeur de recherche à l’Oxford Internet Institute, cité dans le communiqué de presse de l’université d’Oxford.  Résultat : « les utilisateurs peuvent facilement être convaincus que les réponses sont exactes, même si elles ne reposent sur aucun fait ou présentent une version biaisée ou partielle de la vérité », explique-t-il.

De quoi susciter une vive inquiétude pour l’avenir de la science, selon les chercheurs. La communauté scientifique ne doit en aucun cas utiliser les LLMs comme une source de connaissances, ce qui serait parfois le cas, déplorent les professeurs. « Je considère ChatGPT et les modèles de langage comme des assistants de recherche très peu fiables. Tout ce qu’il me donne, je le vérifie toujours et je m’assure que c’est vrai », souligne Brent Mittelstadt, interrogé par Euronews, lundi 20 novembre.

À lire aussi : Des implants, de l’IA et un avatar : voilà comment des chercheurs ont « redonné la voix » à des personnes muettes

Des fausses références inventées

Car ce qui pose problème, ce ne sont pas les hallucinations « grossières » de Bard ou de ChatGPT. Ce sont celles qui paraissent vraies, mais qui ne le sont pas. Parfois, les contenus générés par l’IA sont « légèrement erronés ou légèrement biaisés, ou vous avez besoin d’une expertise spécifique pour dire que c’est faux », rapporte le professeur à nos confrères. Il arrive en effet que les références à des articles ou des thèses scientifiques soient complètement inventées par les agents conversationnels. « Si vous ne revenez pas en arrière pour les chercher, vous ne vous rendrez pas compte qu’il s’agit en fait d’un article complètement fabriqué. Ou bien la référence peut être juste, mais elle peut vous donner des informations erronées sur le contenu de l’article », poursuit-il chez Euronews.

À lire aussi : ChatGPT, Bard : une start-up a trouvé comment lutter contre les « hallucinations » de l’IA

Pour les scientifiques, la seule utilisation des modèles qui ne nuirait pas à la science serait de limiter leur usage à des commandes d’exécution, basées sur des données sûres. Les utilisateurs pourraient fournir au modèle des data appropriées et vérifiées (par eux-mêmes) : ils pourraient ensuite demander au système d’IA de les transformer en résumé, en texte de vulgarisation, en graphique ou en code. Le résultat serait ainsi facilement vérifiable, écrivent-ils. Mais les scientifiques ne doivent pas s’appuyer sur le modèle en lui-même comme source de connaissances, martèlent les auteurs de l’article.

« Si les LLMs sont utilisés pour produire et diffuser des articles scientifiques, de graves préjudices pourraient en résulter », prévient Sandra Wachter, coautrice de l’article cité par l’université d’Oxford.

Utiliser un LLM comme source d’information, c’est « produire des travaux qui ne sont pas fiables »

Les chercheurs ne rejettent cependant pas totalement les LLMs. Ils estiment que ces modèles contribueront « sans aucun doute » aux travaux scientifiques. Mais l’ensemble de la communauté doit les utiliser de manière responsable, arguent-ils. Ce n’est pas la première fois que ce message d’appel à la prudence est lancé, en particulier dans les sciences. Début 2023, Nature, une des revues scientifiques les plus importantes, s’inquiétait déjà de l’utilisation de ChatGPT, l’agent conversationnel d’OpenAI, dans la recherche, expliquant que l’outil était parfois utilisé pour générer des parties d’articles ou des recherches de références scientifiques – ce qui pouvait inclure de nombreuses erreurs.

À lire aussi : Ces chercheurs viennent de recevoir un financement pour fusionner l’IA avec des cellules cérébrales humaines

« La grande inquiétude de la communauté des chercheurs est que les étudiants et les scientifiques puissent faire passer des textes générés par des LLMs pour les leurs, ou utiliser les LLMs de manière simpliste (par exemple pour effectuer une analyse documentaire incomplète) et produire des travaux qui ne sont pas fiables », écrivait Nature sur son site Web, le 24 janvier 2023.  La revue avait exigé la transparence pour tout auteur qui utilise un LLM pour son article, obligeant ce dernier à le déclarer. Elle avait aussi précisé qu’aucun outil d’IA ne serait accepté en tant qu’auteur crédité, dans un article de recherche.

Source :

Nature Human Behaviour



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.