On n’arrête pas le progrès… La dernière trouvaille des chercheurs de l’Université de Zurich inquiétera certains autant qu’elle en fascinera d’autres : l’intelligence artificielle s’avère efficace pour influencer l’opinion publique, surtout sur certains sujets controversés.
Pour ce faire, des bots IA basés sur GPT-4o, Claude 3.5, Sonnet et Llama 3.1 ont publié plus d’un millier de commentaires sur Reddit pendant plusieurs mois pour défendre des points de vue polémiques. En adaptant ses réponses en fonction du sexe, de l’âge, de l’origine ethnique, de la localisation et de l’orientation politique, l’IA a ainsi réussi à se faire passer pour une “victime de viol”, un “homme noir” opposé au mouvement Black Lives Matter, ou encore une personne travaillant dans un refuge pour victimes de violences conjugales.
Évidemment, déployer des bots à l’insu des utilisateurs de Reddit est une méthode plus que discutable. Mais, le résultat est impressionnant puisque les bots surpassent ici les humains en atteignant des taux de persuasion trois à six fois supérieurs à la moyenne. Il y a donc de quoi être inquiet à plusieurs égards :
- L’éthique. Le fait que les internautes n’aient pas été informés qu’ils échangeaient avec des robots est un sérieux problème. Les résultats montrent qu’il est aujourd’hui facile de manipuler une personne ou l’opinion publique à l’aide d’outils accessibles à tous.
- L’absence de contrôle. Le déploiement de robots IA sur les plateformes et réseaux sociaux n’en est qu’à ses débuts. Et, sans réelle limite actuellement, il est probable que cet usage se démocratise massivement, qu’il s’agisse de stratégie marketing, politique, ou de désinformation.
- La fin des médias « sociaux » ? À l’heure où Meta installe des agents conversationnels sur Facebook, Instagram et WhatsApp pour interagir comme de vrais humains et générer des publications, les réseaux risquent d’être de moins en moins “sociaux”.
© Pixabay
Certes, l’Intelligence Artificielle n’en finit pas de bluffer le grand public, mais malgré cette redoutable efficacité des questions se posent en matière de transparence et d’utilisation des bots IA ; surtout lorsque celle-ci se fait à l’insu des internautes. Au-delà de l’outil, certaines personnes peuvent aussi s’attacher à des profils IA au point de ne plus faire la différence entre le réel et le virtuel.
Même au sein de Meta, les avis divergent. “Des employés ont exprimé des inquiétudes quant à la possible transgression éthique de la précipitation de l’entreprise à populariser ces robots, notamment en dotant discrètement des IA de la capacité de fantasmer des relations sexuelles, selon des personnes ayant travaillé sur ces robots. Les employés ont également averti que l’entreprise ne protégeait pas les utilisateurs mineurs de ce type de discussions.”
Cette course à l’innovation est aussi fascinante qu’effrayante. Il est évident que l’on manque de recul pour savoir si oui ou non la santé mentale des utilisateurs est en jeu, mais ça n’est pas une raison pour faire tout et n’importe quoi. Les réseaux sociaux d’hier sont bien différents de ceux d’aujourd’hui et certaines autorités réfléchissent d’ores et déjà à la mise en œuvre de lois pour limiter les dégâts. Sous quelle forme ? N’est-ce pas déjà trop tard ? … L’avenir nous le dira.