Un premier test montre que ChatGPT n’est pas un bon médecin

Un premier test montre que ChatGPT n'est pas un bon médecin



Les chatbots se piquent maintenant de donner des conseils médicaux à partir des données collectées au fil des ans par les applications de suivi de la santé. Le seul problème, c’est qu’ils racontent n’importe quoi.

Après avoir constaté que plus de 230 millions d’utilisateurs demandaient des conseils de santé à ChatGPT chaque semaine, OpenAI a lancé en début d’année une déclinaison dédiée de son chatbot. Il est possible de connecter ChatGPT Health à une application de suivi de la santé, comme Apple Santé par exemple, afin qu’il analyse les données et réponde de manière précise à des questions d’ordre médicale.

L’IA hors jeu en santé

Lors de la présentation, l’entreprise a immédiatement précisé que le service n’avait pas vocation à poser de diagnostic médical ni proposer de traitement. Cela vaut mieux en effet. Une enquête du Washington Post montre que ni ChatGPT Health, ni son équivalent chez Claude (qui a lancé un service similaire quelques jours plus tard), ne sont en mesure d’interpréter correctement des données de suivi de la santé.

Le chroniqueur Geoffrey A. Fowler a donné accès à dix ans de données collectées par son Apple Watch, ce qui représente des millions de pas et de mesures cardiaques. Sa santé cardiovasculaire lui a valu une note catastrophique (« F », c’est très mauvais), ce qui a poussé l’utilisateur à aller consulter un vrai médecin. Ce dernier a balayé l’évaluation de ChatGPT.

Les chatbots de santé se reposent largement des indicateurs imprécis ou mal interprétés, comme l’estimation du VO2 max ou la variabilité de la fréquence cardiaque. Ces métriques sont connues pour leur forte marge d’erreur sur les montres connectées. Cela donne pour résultat des conclusions alarmistes, parfois contradictoires, et des notes qui varient en fonction de la direction du vent (ChatGPT oscillait entre B et F avec le même jeu de données).

Interrogé par Fowler, le cardiologue Eric Topol dénonce des évaluations « sans base médicale » et potentiellement anxiogènes. Le problème n’est pas seulement l’erreur ponctuelle, mais l’incohérence : l’IA « oublie » parfois des informations capitales (âge, sexe, résultats récents), n’intègre pas correctement certains examens médicaux et traite des données contenant beaucoup de bruit comme des signaux clairs.

OpenAI et Anthropic rappellent que leurs outils ne remplacent pas un médecin… malgré tout, les bots de santé fournissent bel et bien des analyses personnalisées souvent formulées avec assurance et aplomb. Apple indique de son côté ne pas travailler directement avec les deux entreprises IA sur ces questions, dans ce cas le constructeur n’est qu’un intermédiaire technique.

👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.

Source :

Washington Post



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.