ChatGPT est accusé d’être un « coach en suicide » : sept nouvelles plaintes ciblent l’agent conversationnel d’OpenAI aux États-Unis.
Après le suicide de quatre utilisateurs de ChatGPT, quatre plaintes pour homicide involontaire ont été déposées contre OpenAI, la société qui a développé l’agent conversationnel, aux États-Unis. Trois autres plaintes accusent le chatbot IA d’avoir entraîné, voire aggravé, les troubles mentaux de trois Américains. Au sein des sept procédures, ChatGPT est décrit comme « défectueux » et « intrinsèquement dangereux », rapportent CNN et le Wall Street Journal, le 6 novembre dernier.
Des utilisateurs auraient, par exemple, longuement discuté de leur projet de suicide avec le chatbot avant de passer à l’acte. Pour la famille du jeune Zane Shamblin, âgé de 23 ans, ChatGPT aurait, ni plus, ni moins, encouragé son suicide. Les plaintes ont été déposées devant un tribunal californien par une organisation fondée en 2021, le « Social Media Victims Law Center ». Cette dernière se présente comme voulant « tenir les entreprises technologiques légalement responsables des préjudices causés aux utilisateurs vulnérables ».
À lire aussi : Plus d’un million d’utilisateurs de ChatGPT évoquent des pensées suicidaires
OpenAI accusé d’avoir « privilégié sa domination sur le marché au détriment de la santé mentale »
Les plaintes déposées ont le même objectif : toutes accusent OpenAI d’avoir lancé ChatGPT de manière précipitée, et sans tests de sécurité adéquats. « OpenAI a sciemment commercialisé GPT-4o prématurément, malgré des avertissements internes indiquant que le produit était (…) manipulateur sur le plan psychologique », écrit le Social Media Victims Law Center dans un communiqué.
Selon l’organisation, OpenAI aurait « délibérément condensé plusieurs mois de tests de sécurité en une seule semaine afin de devancer Gemini de Google sur le marché (…). Bien que (la société) disposait des capacités techniques nécessaires pour détecter et interrompre les conversations dangereuses, rediriger les utilisateurs vers des ressources d’aide en cas de crise et signaler les messages pour qu’ils soient examinés par des humains, OpenAI a choisi de ne pas activer ces mesures de sécurité ». Résultat, « les choix de conception ont exploité les troubles mentaux, aggravé l’isolement des personnes et accéléré leur descente aux enfers », poursuit l’association.
« L’entreprise a privilégié sa domination sur le marché au détriment de la santé mentale, les indicateurs d’engagement au détriment de la sécurité humaine et la manipulation émotionnelle au détriment d’une conception éthique. Le coût de ces choix se mesure en vies humaines », a déploré Matthew P. Bergman, avocat fondateur du Social Media Victims Law Center, cité dans le communiqué.
À lire aussi : Aux États-Unis, ChatGPT est accusé d’être impliqué dans un meurtre
OpenAI répond qu’il forme ChatGPT à « identifier les signes de détresse mentale et à orienter les personnes vers une aide concrète »
Interrogé par nos confrères américains, OpenAI a déclaré que l’entreprise formait « ChatGPT à reconnaître et à réagir aux signes de détresse mentale ou émotionnelle, à désamorcer les conversations et à orienter les personnes vers une aide concrète. Nous continuons à renforcer les réponses de ChatGPT dans les moments délicats, en collaborant étroitement avec des professionnels de la santé mentale ».
En août dernier, la famille d’un adolescent californien avait déjà attaqué OpenAI en justice, l’accusant d’avoir contribué à son isolement et à son suicide, après qu’il a utilisé ChatGPT comme confident. L’entreprise basée à San Francisco avait reconnu que ses mesures de sécurité pouvaient « se dégrader », lorsque les utilisateurs avaient de longues conversations avec le chatbot. La société avait déployé des mesures de sécurité pour les adolescents et les utilisateurs en détresse. Des contrôles parentaux ont été mis en place, pour que les parents puissent être alertés si leurs enfants discutent de suicide ou d’automutilation.
Si vous, ou l’un de vos proches, avez des pensées suicidaires, ou si vous traversez une période difficile, vous pouvez joindre 24h/24 et 7 jours/7 le 3114, le numéro national de prévention du suicide : l’appel est gratuit et confidentiel. En cas de risque imminent, appelez le SAMU (15) ou le 112 (numéro européen).
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google Actualités, abonnez-vous à notre canal WhatsApp ou suivez-nous en vidéo sur TikTok.