ChatGPT introduit la fonctionnalité « Contact de confiance » pour alerter un proche en cas de détresse mentale. L’IA peut aussi inciter l’utilisateur en détresse à contacter lui-même la personne de confiance, notamment en lui proposant des amorces de conversation pour faciliter la prise de contact.
ChatGPT se dote d’une nouvelle fonctionnalité qui pourrait sauver des vies, au sens propre du terme. En effet, grâce à la fonctionnalité « Contact de confiance », un utilisateur peut renseigner à l’IA une personne de confiance à contacter en cas de pensées suicidaires, de pulsions d’automutilation ou de tout autre mal-être profond. Alors que ChatGPT est bien souvent utilisé comme un confident, même pour les sujets les plus graves, cette fonctionnalité se révèle essentielle.
C’est quoi la fonctionnalité « Contact de confiance » et comment l’activer ?
Nommée « Contact de confiance », cette fonctionnalité permet à un utilisateur de renseigner à l’IA une personne de confiance à contacter en cas de pensées suicidaires, de pulsions d’automutilation ou de tout autre mal-être profond. Cette personne de confiance peut être un ami ou un membre de la famille, mais elle doit être obligatoirement âgée de 18 ans ou plus.
L’utilisateur qui souhaite bénéficier de cette fonctionnalité doit donc renseigner une personne de confiance dans l’application. ChatGPT enverra ensuite à la personne de confiance une invitation pour établir une connexion. La personne de confiance désignée dispose d’une semaine pour prendre une décision. Passé ce délai, l’invitation expire. Il est bien entendu possible de refuser l’invitation. Mais si la personne de confiance désignée l’accepte, alors la fonctionnalité est automatiquement activée.
Comment fonctionne le dispositif « Contact de confiance » ?
À partir du moment où la fonctionnalité est activée, l’intelligence artificielle pourra alerter la personne de confiance si elle détecte des discussions liées au suicide, à l’automutilation ou à tout autre mal-être profond. L’alerte peut se faire par e-mail, SMS ou via une notification directement dans l’application. ChatGPT peut également inciter l’utilisateur en détresse à contacter lui-même la personne de confiance, notamment en proposant des amorces de conversation pour faciliter la prise de contact.
Point important : ChatGPT ne partage pas de discussions ou d’informations personnelles lorsqu’elle alerte une personne de confiance. L’IA se limite à un message d’alerte succinct, avertissant de la situation. De plus, selon les explications d’OpenAI, une équipe de personnes spécialement formées analyse la situation avant d’autoriser l’envoi du message d’alerte à la personne de confiance.
Même si le contrôle parental est dorénavant disponible sur ChatGPT, une fonctionnalité comme « Contact de confiance » est indispensable. On le sait, ChatGPT sert aujourd’hui de confident pour bon nombre d’utilisateurs, et notamment chez les plus jeunes. Il est estimé que plus d’un million d’utilisateurs de ChatGPT évoquent des pensées suicidaires. L’IA, dépourvue d’empathie et d’émotion, peut enfoncer un utilisateur fragile dans son mal-être, ou pire, le pousser au suicide.
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.

Par : Opera
Source :
OpenAI