À ce stade, la plupart des utilisateurs de chatbots ont accepté la possibilité que les outils d’intelligence artificielle (IA) puissent avoir des hallucinations dans presque tous les scénarios. Malgré les efforts des détecteurs de contenu IA, des vérificateurs de faits et des grands modèles de langage (LLM) de plus en plus sophistiqués, aucun développeur n’a encore trouvé de solution à ce problème.
Pendant ce temps, les conséquences de la désinformation ne font que s’aggraver : des personnes utilisent des outils d’IA générative (gen AI) comme ChatGPT pour créer de fausses recherches.
De fausses études sur des sujets sensibles
Une étude récente publiée dans la revue Misinformation Review de la Harvard Kennedy School a repéré 139 articles sur Google Scholar, le moteur de recherche de littérature scientifique, qui semblent avoir été générés par l’IA. Les chercheurs ont trouvé la plupart des articles « douteux » dans des revues non indexées (non vérifiées), bien que 19 d’entre eux aient été trouvés dans des revues indexées et des publications établies. 19 autres sont apparus dans des bases de données universitaires, apparemment rédigés par des étudiants.
Le contenu des articles est encore plus inquiétant. 57 % des fausses études portaient sur des sujets tels que la santé, les technologies informatiques et l’environnement. Des domaines qui sont pertinents pour l’élaboration des politiques et pourraient les influencer.
Des précédents
Après avoir analysé les documents, les chercheurs ont identifié qu’ils avaient probablement été générés par l’IA en raison de leur inclusion d’« au moins une des deux phrases courantes renvoyées par les agents conversationnels qui utilisent des grands modèles de langage (LLM) comme ChatGPT d’OpenAI ». L’équipe a ensuite utilisé Google Search pour trouver où les documents pouvaient être consultés, en localisant plusieurs copies de ceux-ci dans des bases de données, des archives et des référentiels et sur les réseaux sociaux.
« La publication de ChatGPT en 2022, ainsi que le fonctionnement de Google Scholar, ont augmenté la probabilité que des profanes (par exemple, les médias, les politiciens, les patients, les étudiants) tombent sur des articles douteux (ou même entièrement fabriqués par GPT) et d’autres résultats de recherche problématiques », explique l’étude.
Les auteurs notent que leur liste n’est pas la première de documents universitaires soupçonnés d’être générés par l’IA et que des documents sont « constamment ajoutés » à celles-ci.
Quels sont les risques liés à la présence de ces fausses études sur Internet ?
Si la propagande et les études bâclées ou falsifiées ne sont pas nouvelles, l’IA de nouvelle génération rend ce contenu exponentiellement plus facile à créer. « L’abondance d’« études » fabriquées qui s’infiltrent dans tous les domaines de l’infrastructure de recherche menace de submerger le système de communication scientifique et de mettre en péril l’intégrité des archives scientifiques », préviennent les chercheurs dans leurs conclusions. Ils ajoutent qu’il était inquiétant que quelqu’un puisse « de manière trompeuse » créer « un contenu d’apparence scientifique convaincante » en utilisant l’IA et l’optimiser pour qu’il soit classé sur les moteurs de recherche populaires comme Google Scholar.
En avril dernier, 404 Media a trouvé des preuves similaires de livres et d’autres documents entièrement fabriqués par l’IA sur Google Books et Google Scholar en recherchant la phrase « À la date de ma dernière mise à jour des connaissances », que l’on trouve couramment dans les réponses de ChatGPT en raison de son ensemble de données auparavant limité. Maintenant que la version gratuite de ChatGPT permet la navigation sur le Web et l’accès aux informations en direct, les marqueurs comme celui-ci peuvent être moins fréquents ou disparaître complètement, ce qui rend les textes générés par l’IA plus difficiles à repérer.
Google Scholar est très populaire
Bien que Google Scholar dispose d’une majorité de littérature de qualité, il « manque de transparence et de respect des normes qui caractérisent généralement les bases de données de citations », souligne l’étude. Les chercheurs notent que, comme Google Search, Scholar utilise des robots d’exploration automatisés, ce qui signifie que « les critères d’inclusion sont basés sur des normes principalement techniques, permettant à tout auteur individuel, avec ou sans affiliation scientifique, de transférer des articles ». Les utilisateurs ne peuvent pas non plus filtrer les résultats en fonction de paramètres tels que le type de matériel, le statut de publication ou le fait qu’ils aient été évalués par des pairs.
Google Scholar est facilement accessible et très populaire. Selon SimilarWeb, le moteur de recherche a enregistré plus de 111 millions de visites le mois dernier, ce qui le place juste devant des bases de données universitaires comme ResearchGate.net. Avec autant d’utilisateurs qui affluent sur Scholar, probablement en raison de la confiance qu’ils accordent à la marque de tous les autres produits Google qu’ils utilisent quotidiennement, les chances qu’ils citent de fausses études ne font qu’augmenter.
La différence la plus flagrante entre les hallucinations des chatbots IA et les études entièrement falsifiées est le contexte. Si les utilisateurs qui interrogent ChatGPT savent qu’ils doivent s’attendre à des informations fausses, ils peuvent prendre les réponses de ChatGPT avec des réserves et vérifier ses affirmations. Mais si le texte généré par l’IA est présenté comme une recherche universitaire contrôlée, réalisée par des humains et répertoriée sur une base de données source populaire, les utilisateurs ont peu de raisons ou de moyens de vérifier que ce qu’ils lisent est bien réel.