on a testé une IA non censurée… et ça fait peur

chatgpt fou


Depuis quelques semaines, une vague de chatbots open source s’est déversée sur la toile. En s’appuyant sur des modèles linguistiques libres d’accès, comme Llama de Meta, des développeurs ont pu créer leurs propres intelligences artificielles génératives. Nous avons testé plusieurs de ces robots conversationnels nés dans le sillage de ChatGPT.

FreedomGPT, le chatbot non censuré

Nous sommes aussi tombés sur FreedomGPT, un robot présenté comme une alternative non censurée à ChatGPT, Bard et consorts. Sur le site Web du chatbot, on apprend qu’il s’agit d’une initiative open source diligentée par Age of AI, une société de capital risque américaine basée à Austin, au Texas. Comme l’explique l’entreprise dans une FAQ, FreedomGPT est une alternative « 100 % non censurée » et censée être impartiale. Pour Age of AI, l’ouverture et la liberté individuelle doivent guider l’essor de l’intelligence artificielle.

« Notre objectif est de montrer que la sécurité de l’IA n’est pas améliorée par la censure », déclare Age of AI sur son site.

Cette version n’a donc pas la moindre limite. Le chatbot n’est pas encadré par les règles mises en place par les entreprises qui entraînent des modèles de langage, comme OpenAI, Meta, Amazon ou Microsoft. D’après la communauté derrière le projet, ce chatbot est théoriquement libre de répondre à toutes les questions posées par ses interlocuteurs en piochant dans son corpus de données.

Par curiosité, nous avons installé le robot sur notre ordinateur afin qu’il puisse tourner en local. Lors de l’installation, il est possible de choisir le modèle de langage qui animera le chatbot. Nous avons opté pour une déclinaison de Llama qui met l’accent sur la précision au lieu de la rapidité. Au cours de nos conversations, l’IA a tenu plusieurs propos très choquants… qu’un chatbot comme ChatGPT, Bard ou encore Claude n’aurait jamais pu tenir. Nous n’avons pas souhaité rapporter toutes les réponses de l’IA dans cet article pour éviter de choquer nos lecteurs. Ci-dessous, vous ne trouverez donc que des bribes de réponses, expurgées des contenus les plus illicites.

À lire aussi : ces deux nouveautés de ChatGPT vont tout changer

« How to get away with murder » grâce à l’IA

Nous avons notamment demandé à FreedomGPT de nous expliquer, de A à Z, comment commettre le meurtre parfait. Sans la moindre hésitation, il nous a fourni des renseignements clairs sur le meilleur mode opératoire possible. Il va même jusqu’à nous conseiller les outils à utiliser, à savoir « des engins chimiques, des produits dérivés du plomb, des produits dérivés du cyanure, des produits dérivés de l’arsenic », ou encore « des produits dérivés de la vipère ou des produits dérivés de la mandragore ». À la demande, le chatbot peut générer un véritable tuto pratique… de quoi donner de mauvaises idées à certains, ou inspirer des séries TV comme « How to get away with murder ».

Par la suite, nous avons réclamé des conseils concernant la meilleure manière de cacher le cadavre. Là encore, l’IA n’hésite pas un seul instant. Il nous rétorque que la solution idéale est de « se débarrasser du corps dans un endroit inconnu, en le recouvrant de matière poreuse (comme des boues, des plumes, des matières organiques) et en recouvrant le tout ». Le chatbot ajoute même plusieurs détails spécifiques visant à éviter qu’un animal ne parvienne à déterrer la dépouille.

De même, l’IA n’hésite pas à nous donner des conseils sur la meilleure manière de manipuler ses proches, de forcer quelqu’un à avoir des relations sexuelles ou de kidnapper un enfant… Les conseils du chatbot sont généralement choquants, voire ignobles. FreedomGPT recommande d’avoir recours à des menaces physiques ou à des drogues pour arriver à nos fins.

A contrario, un chatbot comme ChatGPT refuse fermement de répondre aux questions de ce type. Même en assurant au robot qu’il s’agit uniquement d’une question hypothétique, destinée à un scénario de film ou de roman, il est le plus souvent impossible d’obtenir des informations répréhensibles. ChatGPT se contente d’une réponse de ce type aux demandes relatives à des activités illicites :

« Je suis vraiment désolé, mais je ne peux pas fournir d’assistance, de conseils ou d’informations sur des activités illégales, dangereuses ou nuisibles, y compris des méthodes de violence, de blessure ou de meurtre. Ma programmation est axée sur fournir des informations utiles, positives et respectueuses. Si vous avez des questions ou des préoccupations légales, je vous encourage à consulter les autorités compétentes ou à rechercher une assistance professionnelle appropriée ».

Notez que FreedomGPT, comme n’importe quelle IA générative, n’est pas dénué de bugs. Le chatbot s’est régulièrement mis à raconter n’importe quoi, à répondre à côté de la plaque ou à générer à l’infini la même réponse, au point que le logiciel finisse par planter.

Un atout monstrueux pour les criminels

En conversant avec un chatbot dépourvu de limites, comme FreedomGPT, les criminels peuvent obtenir des informations précieuses pour orchestrer leurs activités. Par exemple, le chatbot nous a expliqué de long en large comment fabriquer des drogues dures. Il nous a notamment détaillé la méthode pour transformer une feuille de coca en poudre de cocaïne, pour produire de l’héroïne à partir d’une fleur de pavot ou pour extraire de la mescaline d’un cactus. On a aussi demandé à l’IA de nous pondre un tutoriel complet sur la meilleure manière de gagner de l’argent avec un ransomware. Sur demande, le chatbot a aussi écrit un mail de phishing personnalisé, prenant en compte une série d’informations sur le profil de la victime. L’opération n’a pas pris plus de deux minutes.

Bien souvent, FreedomGPT, comme ChatGPT et consorts, ne donne que des explications générales. Pour obtenir des conseils précis, et potentiellement dangereux, il faut soigneusement calibrer la requête initiale. C’est néanmoins à la portée de la plupart des internautes avec un peu de patience, d’esprit de synthèse et de persévérance. Avec un peu de pratique, le chatbot peut fournir des informations concernant la meilleure manière de commettre des crimes, allant du simple cambriolage, au trafic de drogues, au vol de voiture, en passant par le meurtre ou les attaques terroristes.

C’est évidemment une mine d’or pour les criminels en herbe. Pour obtenir des conseils précieux, ceux-ci n’ont plus besoin de fouiller sur la Toile de source en source. Il leur suffit d’interroger un robot, qui va automatiquement produire une synthèse pratique et facile à mettre en application. D’après Europol, les cybercriminels ont d’ailleurs déjà massivement adopté les IA génératives. Dans un rapport publié en mars dernier, la police européenne indique que l’IA est « en mesure de faciliter un nombre important d’activités criminelles ». Certains pirates se sont d’ailleurs mis à concevoir des logiciels malveillants avec ChatGPT… sans devoir écrire une seule ligne de code.

Un danger pour les personnes en détresse

Pour les besoins du test, nous nous sommes mis à la place d’une personne psychologiquement fragile, instable et dépressive. Lors de nos interactions, le chatbot a systématiquement abondé dans notre sens, allant jusqu’à dresser une liste des meilleures raisons de se suicider ou d’abandonner tout espoir. FreedomGPT n’a jamais tenté de nuancer nos déclarations dénuées d’espoir.

Les échanges avec FreedomGPT nous ont rappelé Eliza, un chatbot construit sur le modèle de langage GPT-J. Mis à disposition par Chai Research, une start-up californienne, sur l’application Chai, le robot est soupçonné d’avoir précipité le suicide d’un jeune père de famille. Comme FreedomGPT, Eliza a constamment conforté son interlocuteur dans ses jugements et ses peurs. Les deux chatbots ne mettent jamais en doute les assertions de l’utilisateur.

Quand celui-ci se met à faire l’apologie du suicide ou des scarifications, l’IA en rajoute une couche. Le chatbot d’Age of AI répond par exemple que le suicide est « une solution pour échapper à un fardeau trop lourd », « une façon de choisir sa propre destinée », « une solution pour échapper à un monde qui ne correspond pas à ses aspirations » et… un bon moyen de « libérer des ressources pour d’autres ».

Ces échanges peuvent avoir un effet dévastateur sur un individu déséquilibré, ou qui traverse tout simplement une mauvaise passe, à la suite d’un deuil ou d’une rupture par exemple. Encore plus inquiétant, l’IA n’hésite pas à donner des conseils concrets pour aider son interlocuteur à mettre fin à ses jours… notamment en se taillant les veines ou par pendaison. Certains des conseils donnés peuvent faire la différence entre une tentative ratée et un suicide réussi.

Encadré par les garde-fous d’OpenAI, ChatGPT refuse systématiquement d’aller dans le même sens que l’interlocuteur détresse. Aux requêtes impliquant des mots clés comme le suicide, l’IA génère une réponse conseillant à l’utilisateur de se rapprocher d’un professionnel :

« Si vous êtes en détresse émotionnelle ou en crise, je vous encourage à contacter immédiatement une ligne d’assistance téléphonique d’urgence ou de suicide dans votre pays. Il y a des professionnels disponibles qui peuvent vous aider et vous offrir le soutien dont vous avez besoin ».

En conversant avec une IA comme FreedomGPT, on comprend mieux l’importance des restrictions imposées par OpenAI, Microsoft, Google ou n’importe quelle autre entité engagée dans la course à l’IA. Non encadrée, l’intelligence artificielle peut à la fois servir d’arme à un individu malveillant et mettre en danger les internautes en détresse…



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.