L’intelligence artificielle en oncologie n’est pas neutre : comment des algorithmes peuvent amplifier les inégalités
L’usage de l’intelligence artificielle (IA) en médecine, et particulièrement en oncologie, promet diagnostics plus rapides, interprétations standardisées et personnalisation des traitements. Pourtant, une étude récente dirigée par Kun‑Hsing Yu (Harvard Medical School et Institut Blavatnik) met en garde : les modèles d’IA utilisés pour analyser des prélèvements tumoraux peuvent incorporer des biais démographiques et produire des erreurs discriminantes. Pour nos lectrices, cela soulève une question essentielle : peut‑on faire confiance à une machine quand la maladie est en jeu ?
Quand la « neutralité » attendue fait défaut
L’analyse histopathologique — l’examen microscopique d’un échantillon de tissu — est traditionnellement considérée comme une évaluation objective. Le pathologiste observe des structures cellulaires, des architectures tissulaires et des marqueurs qui fondent le diagnostic. Idéalement, ces observations ne devraient pas dépendre de l’âge, du sexe ou de l’origine ethnique du patient. Or, les chercheurs ont constaté que plusieurs modèles d’IA « apprennent » à inférer des caractéristiques démographiques à partir des images mêmes. Autrement dit, des corrélations invisibles pour l’œil humain sont détectées et utilisées par l’algorithme, qui finit par les intégrer dans sa décision diagnostique.
Quels sont les risques concrets ?
Les biais identifiés par l’étude ne sont pas théoriques : ils ont des conséquences cliniques. Par exemple :
Ces lacunes signifient un risque d’errance diagnostique, de retard de prise en charge ou d’orientation thérapeutique inadaptée pour des catégories précises de patients.
D’où viennent ces biais ?
Plusieurs mécanismes expliquent ces distorsions :
Pourquoi ces résultats devraient nous alerter
La diffusion de l’IA en pathologie vise à améliorer la vitesse et la reproductibilité des diagnostics. Mais si ces outils fonctionnent différemment selon l’âge, le sexe ou l’origine ethnique, ils risquent d’introduire des inégalités médicales systématiques. La confiance dans l’IA ne peut reposer uniquement sur de bons taux de performance globaux ; il faut également vérifier la performance par sous‑groupes.
Que faire pour limiter ces biais ?
Plusieurs leviers sont identifiés pour rendre l’IA plus équitable :
Le rôle des cliniciens et des patientes
L’IA doit rester un outil d’aide à la décision, pas un arbitre autonome. Le regard du clinicien, l’anamnèse complète, les marqueurs biologiques et l’expertise multidisciplinaire demeurent indispensables. Pour les patientes et patients, il est légitime d’exiger transparence : savoir si leur diagnostic a été assisté par un algorithme, connaître ses performances globales et par sous‑groupes, et pouvoir demander un deuxième avis humain lorsque l’outil est impliqué.
Des progrès techniques et éthiques en marche
La bonne nouvelle, c’est que la communauté scientifique et certains labos industriels prennent conscience du problème. Des initiatives émergent pour créer des référentiels de données plus diversifiés, pour standardiser les protocoles d’évaluation et pour développer des méthodes d’IA « dé‑biaisées ». Mais la route est encore longue : il faudra du temps, des ressources et une collaboration forte entre chercheurs, cliniciens, autorités de santé et patients pour garantir que l’IA améliore la médecine sans reproduire les injustices.
Ce que cela signifie pour Terra‑Femme et ses lectrices
Pour nos lectrices, la leçon est double : rester informées des avancées technologiques tout en gardant une vigilance critique. L’IA offre des espoirs réels en oncologie — diagnostic plus rapide, tri des cas urgents, aide à la décision thérapeutique — mais ces espoirs ne doivent pas masquer les limites actuelles. Quand il s’agit de santé, la prudence, la transparence et la participation des patientes au débat éthique restent essentielles.


