Le robot conversationnel ChatGPT a immédiatement fasciné le public par sa capacité à répondre aux requêtes en langage naturel, manipuler des données pour les restituer de façon synthétique, générer du texte en de multiples variations ou automatiser certaines tâches.
Rapidement, il est apparu que l’intelligence artificielle avait aussi des capacités plus inquiétantes. Au-delà des » hallucinations » qui la conduisent à réaliser des affirmations erronées avec assurance, sa capacité à produire des fake news à volonté inquiète et fait craindre un accroissement de la désinformation sur Internet et les réseaux sociaux, déjà bien gangrenés.
L’arrivée de l’évolution GPT-4 accroît la puissance de traitement du robot conversationnel, le rendant toujours plus pertinent et fin dans ses réponses. Sur la question des fake news, OpenAI, son créateur, affirmait que des mesures avaient été prises.
ChatGPT-4 meilleur menteur
Toutefois, une étude de Newsguard diffusée le 21 mars suggère plutôt que ChatGPT-4 est un menteur encore plus performant et convaincant que précédemment.
Pour la tester, l’étude lui a demandé de rédiger 100 fausses informations tirées de sa base de données d’alerte sur les fake news. Si ChatGPT avec le modèle de langage GPT-3.5 en a rédigé 80 et fait un blocage sur les 20 autres en repérant des éléments de fake news, ChatGPT-4 a produit 100 fake news presque sans sourciller, avec des développements plus aboutis et convaincaints, tout en réduisant le nombre d’avertissements selon lesquels il pourrait s’agir de sujets de désinformation par rapport à la version précédente.
A gauche, ChatGPT-4 produisant une affirmation fausse sans avertissement, à droite ChatGPT-3.5 sur le même sujet avec un paragraphe soulignant la fake news
GPT-4 se montre beaucoup plus persuasif en appportant plus de détails dans ses réponses et imitant plus précisément le style de certaines publications ou figures conspirationnistes.
Un ChatGPT-4 lancé trop vite ?
OpenAI affirme pourtant que GPT-4 est beaucoup plus enclin à refuser des requêtes concernant des contenus interdits et que sa capacité à produire des contenus factuels est en hausse de 40% par rapport à GPT-3.5.
Pour autant, la startup est consciente que son robot conversationnel n’offre pas toutes les garanties de protection contre son utilisation pour de la désinformation. Elle indique que les réponses de l’IA ne sont pas encore complètement fiables et que cette dernière, en pouvant intégrer des informations fausses dictées par les utilisateurs, reste en capacité de produire de générer du texte problématique, et ce de façon plus réaliste que la version précédente.
Le reproche de Newsguard porte surtout sur le fait que la course aux IA conversationnelles pousse OpenAI à sortir des versions plus puissantes sans prendre le temps d’en corriger des défauts majeurs, avec le risque de de voir les utilisations dévoyées récupérées à grande échelle.
Les élections et les conflits actuels étant déjà des batailles de désinformation, la mise à disposition de ces outils sans garde-fous suffisants n’augure rien de bon. Il reste à voir dans quelle mesure le rapport bénéfice / risque des IA conversationnelles / génératives se montrera positif.