L’intelligence artificielle est en mesure de manipuler ses interlocuteurs. D’après une étude américaine, les chatbots comme ChatGPT ou Bard peuvent discrètement influer sur les opinions de leurs utilisateurs…
Des chercheurs de l’Université Cornell aux États-Unis ont réalisé une étude mettant en exergue les dangers de l’intelligence artificielle. D’après l’expérience menée, les IA sont en mesure d’influencer les opinions de leurs interlocuteurs. En fonction des biais de leurs algorithmes, les chatbots, comme ChatGPT, Bard ou encore Claude, peuvent modifier la façon de penser des utilisateurs à leur insu.
Dans le cadre de leur expérience, les chercheurs américains ont demandé aux participants d’écrire un article consacré à l’impact, positif ou négatif, des réseaux sociaux sur l’ensemble de la société. Pour rédiger cet article, ils devaient s’assister d’un robot conversationnel. Les chercheurs ont séparé les participants en plusieurs groupes. Certaines personnes ont eu accès à un chatbot animé par un modèle linguistique entraîné sur des données qui se concentraient sur les bienfaits des réseaux sociaux. L’autre groupe a été assisté par un modèle de langage qui piochait dans des données plutôt orientées sur les méfaits et les dangers des plates-formes.
À lire aussi : Avec l’IA, Google va-t-il tuer la recherche en ligne telle qu’on la connaît ?
L’IA et la persuasion latente
Les chercheurs se sont rendu compte que l’IA avait considérablement influencé la teneur des textes rédigés. Les participants se sont apparemment laissés influencer par les biais de leurs assistants intelligents. Surtout, il s’avère que l’opinion des individus a évolué au fil de l’expérience. Après celle-ci, les participants ont répondu à un sondage portant sur les réseaux sociaux. Les biais des chatbots avaient déteint sur les utilisateurs…
« L’utilisation du modèle de langage a affecté les opinions exprimées dans l’écriture des participants et a modifié leurs opinions », expliquent les chercheurs, estimant que les biais qui apparaissent dans les modèles « doivent être surveillés et conçus plus attentivement ».
Interrogé par le Wall Street Journal, Mor Naaman, professeur de sciences de l’information de l’Université Cornell et auteur principal de l’étude, intitule ce phénomène la « persuasion latente ». Lorsque celui-ci se produit, l’interlocuteur, qui converse avec l’IA, ne se doute pas que le chatbot lui impose ses propres points de vue :
« Vous ne savez peut-être même pas que vous êtes influencé ».
Pour lutter contre l’influence des robots conversationnels, les chercheurs recommandent aux utilisateurs de prendre conscience du fonctionnement du phénomène. De cette manière, ils pourront prendre du recul lors de leurs conversations avec l’IA. Dans la même optique, les scientifiques estiment que les individus pourraient choisir le chatbot avec lequel ils souhaitent travailler en fonction des opinions des algorithmes.
Une nouvelle bulle de filtres ?
Les utilisateurs devraient se tourner vers l’IA qui reflète davantage leurs propres opinions et idéaux… au risque de s’enfermer dans une bulle de filtres, comme celle des réseaux sociaux ? Ce concept, théorisé dès le début des années 2010, estime que les algorithmes de recommandation des plates-formes enferment les internautes dans une forteresse uniquement constituée de contenus similaires. Les algorithmes vont constamment proposer à l’utilisateur des publications qui le confortent dans ses opinions.
C’est de cette manière que de nombreuses personnes s’enfoncent dans le complotisme ou l’extrémisme. Aucune voix dissonante ne parvient plus à passer au travers de la bulle de filtres. De la même manière, une IA avec des biais ne risque-t-elle pas de conforter les interlocuteurs dans leurs points de vue ? C’est pourquoi les chercheurs recommandent aux régulateurs de se pencher rapidement sur la question pour encadrer les biais de l’IA générative.
Les préjugés de ChatGPT
De son côté, OpenAI, la start-up derrière ChatGPT, reconnaît que son chatbot n’est pas exempt de préjugés. La firme admet que l’IA génère des réponses politiquement biaisées dans certains cas. Conscient des critiques, OpenAI travaille à améliorer le fonctionnement du modèle de langage pour éviter les dérives, notamment à l’aide d’un « examen humain » plus poussé. En clair, OpenAI souhaite que les réponses du modèle GPT soient longuement analysées par des modérateurs, ayant reçu des « instructions plus claires » sur « les défis potentiels liés aux préjugés ».
Plusieurs voix se sont d’ailleurs élevées pour pointer du doigt les opinions parfois affichées par ChatGPT. C’est le cas d’Elon Musk. Le milliardaire regrette que le chatbot soit programmé pour mettre en avant des idées « woke », reflétant les pensées de ses développeurs. En réponse, il souhaite mettre au point une alternative moins contrôlée, évoquée pour le moment sous le nom de « TruthGPT ».
Source :
Wall Street Journal