Plus d’un million d’utilisateurs de ChatGPT ont des pensées suicidaires, a révélé OpenAI dans le premier coup de sonde sur l’état de la santé mentale de sa base d’utilisateurs. L’entreprise a mis au point une « taxonomie » permettant d’identifier les signes de psychose, de manie ou d’autres troubles graves à travers les conversations.
0,15 % des utilisateurs de ChatGPT évoquent des pensées suicidaires avec le bot chaque semaine. Cela parait peu, mais ChatGPT comptant 800 millions d’utilisateurs actifs hebdomadaires, cela représente tout même plus d’un million d’entre eux. Ces derniers ont des conversations contenant des signes explicites de planification pour le passage à l’acte, ou d’intention de se suicider.
Le chatbot qui écoute trop
OpenAI indique qu’un pourcentage similaire d’utilisateurs ont des niveaux excessifs d’attachement à ChatGPT. Des centaines de milliers de personnes montrent des signes de psychose. Ces cas restent « extrêmement rares », souligne l’entreprise, mais ils sont difficiles à mesurer — ce qui veut dire qu’il pourrait y en avoir bien davantage.
Ces chiffres sont produits dans un rapport plus large sur les efforts d’OpenAI pour améliorer la gestion des conversations liées à la santé mentale. Le bot de l’entreprise a été accusé par des parents d’avoir poussé au suicide leur ado adepte de ChatGPT. Des contrôles parentaux ont été mis en place suite à cette plainte, mais ils ont été critiqués de toutes parts. Plus largement, cette triste histoire a forcé OpenAI à mettre les bouchées doubles dans ce domaine.
Le groupe affirme avoir travaillé avec plus de 170 spécialistes du domaine pour renforcer la sécurité de ses modèles. Selon des données internes, la nouvelle version de GPT-5 produit désormais 65 % de réponses plus conformes aux comportements attendus dans ces situations sensibles. Sur des tests spécifiques à la prévention du suicide, le modèle atteint 91 % de conformité, contre 77 % pour la précédente version.
OpenAI prévoit désormais d’intégrer des tests systématiques de « sécurité émotionnelle » à ses évaluations internes et d’instaurer des outils renforcés pour les parents, notamment un système de détection automatique de l’âge. Malgré ces efforts, la société reconnaît que certains modèles plus anciens, comme GPT-4o, sont moins sûrs mais demeurent toujours accessibles.
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google Actualités, abonnez-vous à notre canal WhatsApp ou suivez-nous en vidéo sur TikTok.
Source :
OpenAI