Quand l’IA est utilisée pour écourter la durée de séjours hospitaliers

Pourquoi les algorithmes sont encore sexistes


Une banale fracture et un algorithme ont transformé l’été 2019 de Frances Walter, une octogénaire américaine, en véritable cauchemar. Son histoire est le point de départ d’une vaste enquête qui montre comment des assureurs utilisent, aux États-Unis, un algorithme, pour décider de la durée de la prise en charge de leurs assurés.

Quand l’Intelligence artificielle et la santé ne font pas bon ménage… C’est à peine le début de l’été dans le Midwest des États-Unis lorsque Frances Walter, 85 ans, se fracture l’épaule gauche. L’octogénaire, qui vit seule, appelle les urgences. Elle est envoyée dans un hôpital du Wisconsin, et n’avance aucun frais pour y être soignée : elle a la chance d’être bénéficiaire de la « Medicare Advantage », un système d’assurance sociale et de complémentaire gérée par un assureur privé aux États-Unis. Sa convalescence sera longue, trop longue. Voilà en tout cas ce que pense l’algorithme utilisé par son assureur, qui estime qu’au 16e jour de séjour postopératoire, la patiente peut rejoindre son domicile. Le paiement des soins est interrompu au 17e jour. Problème : le corps médical préconise plutôt un séjour de trois semaines minimum, notamment parce que la vieille dame est allergique aux analgésiques et qu’elle se remet moins vite que prévu. Et ce n’est pas non plus ce que pense l’octogénaire, qui au 17e jour ressent toujours d’intenses douleurs. D’ailleurs, elle est toujours incapable de s’habiller seule ou de pousser un déambulateur.

La patiente est alors contrainte de puiser dans ses économies – la somme monte à des milliers de dollars aux États-Unis – pour être soignée jusqu’à un complet rétablissement. Ce montant lui sera, heureusement, remboursé, mais seulement… un an plus tard, après d’innombrables procédures et la décision d’un juge fédéral. Vous pensez que cette histoire est irréelle ? Elle a pourtant bien eu lieu pendant l’été 2019. Et elle est loin d’être un cas isolé, rapporte le site d’informations Stat News qui publie, le 13 mars, une vaste enquête sur ce sujet. 

L’algorithme nH Predict responsable de ces fins de prises en charge prématurées ?

Aux États-Unis, il n’est pas rare que les compagnies d’assurance rejettent des demandes de remboursement de frais médicaux. Mais ce serait désormais l’intelligence artificielle (IA) qui serait à l’origine de ces refus, rapporte le média américain, listant spécifiquement des cas de bénéficiaires de la  « Medicare Advantage » qui couvre plus de 31 millions de personnes dans le pays. Certains assureurs privés, qui gèrent cette assurance sociale destinée aux plus de 65 ans aux revenus faibles ou modérés, utiliseraient un algorithme prédictif. Ce système d’IA déterminerait à quel moment l’assureur peut interrompre le paiement des séjours postopératoires des patients, au grand dam des médecins et des premiers concernés. En cas de désaccord, les malades doivent avancer les frais, faire appel et attendre des mois, voire des années, pour espérer être remboursés. Certains, qui ne disposent pas de telles sommes, se passent de soins, à l’image de ce patient de Caroline du Nord. 

Le retraité n’avait pas pu être transféré dans un centre de soins postopératoires après un AVC. Brian Moore, son médecin, lui avait rendu visite à son domicile, faute d’avoir réussi à convaincre son assureur de lui payer ce séjour. « Il était assis, il essayait de se nourrir. Il disait : “Je ne pensais pas, lorsque j’ai opté pour la Medicare Advantage, que je ne pourrais pas obtenir les soins dont j’ai besoin”, raconte-t-il à nos confrères.  Il bavait et pleurait. »

Le curseur de nH Predict irait trop loin

Tout aurait réellement commencé en 2020, quand UnitedHealth, le plus grand assureur Medicare Advantage du pays, rachète NaviHealth, une société de gestion de données médicales dont le produit phare est un algorithme appelé nH Predict. En se basant sur l’âge, les diagnostics des médecins et les informations médicales d’un assuré, et en les comparant avec des profils similaires dans une base de données de 6 millions de patients, l’algorithme rend un rapport dans lequel sont décrits les besoins médicaux, la durée estimée du séjour hospitalier et de la date cible de sortie d’un patient.

Cet algorithme  « n’est pas utilisé pour déterminer la couverture médicale », a pourtant insisté UnitedHeatlh, qui n’a pas souhaité répondre aux questions de nos confrères, mais qui a publié un communiqué. Cet « outil » est utilisé comme « un guide », a ajouté la société. Ce n’est pas l’avis des soignants interrogés par Stat News. Pour ces derniers, les refus de prises en charge auraient commencé à se multiplier à partir du moment où UnitedHealth a été aux manettes de nH Predict. L’algorithme, qui était présenté comme un moyen d’éviter les soins inutiles et la surfacturation, irait encore plus loin que les années précédentes. Et désormais, les refus de prise en charge de UnitedHealthcare et de NaviHealth seraient devenus la norme. Y compris lorsque les patients sont manifestement plus malades que ce que prévoit l’algorithme, rapporte le directeur d’un établissement de soins post-intensifs à nos confrères. Pour preuve, le nombre de recours des patients entre 2020 et 2022, pour contester les refus de demandes de prises en charge, a augmenté de 58 %, selon une base de données fédérale. Et dans la majorité des cas, le juge tranche en faveur du patient, et ordonne un remboursement.

La boîte noire de l’IA et la protection de la vie privée invoquées pour ne pas contester les résultats de l’algorithme

Autre problème soulevé par cette enquête : l’opacité de l’algorithme. À chaque fois qu’un médecin ou directeur d’hôpital demande des explications sur la durée excessivement courte d’une prise en charge par l’assureur, la réponse est toujours la même : la boîte noire de l’IA est devenue une excuse générale pour justifier les refus de paiement, expliquent nos confrères. Même topo du côté des patients. La fille de Dolores Millam, 89 ans, qui s’est vu refuser la prise en charge d’un séjour en maison de santé médicalisée après une fracture, témoigne : « Lorsque vous essayez d’appeler et de raisonner quelqu’un, lorsque vous voulez obtenir des explications, vous finissez par parler à un service basé aux Philippines. Pour eux, il s’agit simplement d’une question de procédure qui n’a rien à voir avec les soins ». UnitedHealthcare s’abriterait derrière les lois de protection de la vie privée pour refuser toute discussion avec les familles des patients.

À lire aussi : Comment l’algorithme de TikTok joue sur nos émotions pour nous rendre accro

Car pour l’instant, la loi n’impose pas la moindre transparence aux assureurs qui utilisent un algorithme. Ils ne sont ni contraints de rendre publiques les données des études d’efficacité, ni obligés de respecter un code de conduite éthique – du moins, pas encore. Le législateur américain a en effet publié, en 2022, un projet de charte des droits de l’IA qui vise à protéger les citoyens américains d’usages dangereux ou discriminatoires d’IA. Mais ce texte n’est pour l’instant pas contraignant. En Europe aussi, le futur règlement sur l’Intelligence artificielle, actuellement en discussion au Parlement européen, prévoit des obligations très strictes en cas d’utilisation de l’IA dans la santé.

Pourtant, un contrôle de système d’intelligence artificielle dans ce secteur existe déjà, mais à la marge. Les modèles d’IA utilisés par le corps médical, qui permettent par exemple de diagnostiquer des cancers, doivent être, avant toute utilisation, approuvés par la FDA – l’équivalent de l’Agence de sécurité du médicament aux États-Unis. Alors pourquoi pas cet algorithme, qui a des conséquences plus qu’importantes sur la santé de milliers d’Américains ? 

Source :

Stat News



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.