Le 27 octobre 2016 à Toronto (Canada), Geoffrey Hinton, un des pères de l’intelligence artificielle (IA) moderne, affirmait en substance qu’il fallait cesser de former des radiologues, car les algorithmes les auraient dépassés avant cinq ans ! Six ans plus tard, les radiologues pratiquent toujours, et l’enthousiasme court-termiste autour du machine learning (« apprentissage machine ») a laissé place à plus de mesure.
« Les promesses sont nombreuses et on peine parfois à les distinguer des faits », constatent ainsi, mardi 10 janvier, le Comité consultatif national d’éthique (CCNE) et le Comité national pilote d’éthique du numérique (CNPEN), dans leur avis commun. Publié sous le titre « Diagnostic médical et intelligence artificielle : enjeux éthiques », il rassemble seize recommandations et sept points de vigilance. Où en est concrètement l’utilisation de l’IA, annoncée comme une des révolutions médicales de ce siècle ? Où en est l’exploitation de cette quantité astronomique de données numérisées (textes, images et chiffres) appelée à entraîner des algorithmes dans le but d’aider au diagnostic et au choix thérapeutique ?
Au Congrès européen de radiologie, qui s’est tenu à Vienne, en juillet 2022, Emily Conant, professeure de radiologie à l’hôpital de l’université de Pennsylvanie, a « appelé à la prudence, relate Isabelle Thomassin, cheffe de service en imagerie médicale à l’hôpital Tenon (AP-HP, Sorbonne Université). L’IA est une opportunité, nous en sommes sûrs, mais il faut l’utiliser correctement. »
L’analyse d’images médicales (radiographies conventionnelles, mammographies…) est pour l’instant la première utilisation concrète de l’IA dans le monde, mais « une récente revue systématique a montré qu’en mammographie, par exemple, des biais méthodologiques existaient dans la plupart des études scientifiques », explique la radiologue française. Comme celle de Google Health en 2020, pourtant publiée dans la prestigieuse revue Nature, selon laquelle la machine seule dopée par l’IA faisait mieux qu’un radiologue. « Le logiciel avait été entraîné sur une population de femmes dont les seins étaient beaucoup plus porteurs de cancer qu’une population générale », explique la spécialiste. « Or, c’est bien plus simple statistiquement pour un logiciel, quand il y a beaucoup de cancers, de dire “c’est un cancer”, que quand il y en a peu. » Les performances des algorithmes peuvent aussi dépendre de la provenance géographique des images qui les ont entraînés. « Les seins des Japonaises sont très denses, alors que ceux des Européennes du Nord, appelés “seins clairs”, ont plus de graisse et sont plus faciles à lire », illustre cette experte.
Il vous reste 85.11% de cet article à lire. La suite est réservée aux abonnés.