IA en santé : la rapidité d'appropriation des LLM crée de nouveaux risques d'erreur médicale particulièrement insidieux.

L'introduction des LLM en santé présente une variante inédite de l'adoption précipitée d'une innovation : la vitesse ne résulte pas d'une pression commerciale ordinaire, mais de la disponibilité immédiate d'outils dans les pratiques et de la recherche d'une diffusion rapide, même dans un cadre institutionnel.

 

Un généraliste qui utilise ChatGPT pour orienter un diagnostic, un patient qui interroge un LLM avant de consulter, un hôpital qui génère automatiquement ses lettres de sortie : dans chacun de ces cas, l'usage précède l'évaluation. 

 

L'affaire du NHS : quand le déploiement rapide est privilégié

 

Le Chelsea and Westminster Hospital de Londres a développé sur la plateforme du NHS — opérée par Palantir — un outil de génération automatique des lettres de sortie. Le gouvernement britannique souhaite le généraliser. Or le BMJ (18 février 2026) révèle que le groupe d'éthique du NHS a formulé des réserves non levées : l'outil est déployé sous une exemption de la MHRA qui interdit explicitement son transfert à d'autres entités. Un déploiement national y contreviendrait directement.

 

Surtout, une étude de référence (Stanceski et al., npj Digital Medicine, 2024) a montré que 18 % des lettres générées par IA présentaient des problèmes de sécurité — hallucinations, médicaments inventés.  

La FDA américaine permet de comprendre le risque important d'erreur : les erreurs des dispositifs IA produisent des résultats plus plausibles que ceux des dispositifs classiques. Un tensiomètre défaillant donne une valeur aberrante que le clinicien repère immédiatement. Un LLM défaillant produit une phrase médicalement bien formée et pourtant fausse. 

Une lettre bien écrite, médicalement cohérente, n'invite pas à la vérification mais favorise sa validation. Le gain de productivité recherchée peut se faire aux dépens de la sécurité-patient.

 

Le groupe d'éthique a également soulevé la question du consentement des patients : l'outil en cours de développement étant utilisé dans le cadre de soins courants, toute erreur ou omission dans les lettres générées peut avoir des conséquences directes sur leur prise en charge — sans que les patients aient été informés des limites du système

NHS England n'avait pas répondu à cette question au moment de la publication.

 

Le biais de disponibilité : un défaut structurel aggravé par la confiance

 

L'étude d'Omar M. et al. (preprint, 2025) évalue 20 LLM sur 300 cas cliniques simulés : dans près d'une réponse sur deux, les modèles sélectionnent un diagnostic rare au détriment du plus probable, dès qu'un détail saillant figure dans le dossier. Ce biais de disponibilité est structurel : la littérature médicale sur laquelle les LLM ont été entraînés surreprésente massivement les cas rares. 

Un médecin formé à reconnaître son propre biais de disponibilité ne sera pas protégé contre celui du LLM qu'il consulte. L'outil LLM pourra le renforcer dans l'erreur qu'il aurait peut-être évitée seul. 

 

Conclusion : 

 

L'IA génère une nouvelle catégorie d'erreurs médicales : plausibles, bien formées, cohérentes et qui passent les filtres de la vigilance clinique précisément parce que les LLM en respectent les codes et présentent un formalisme séduisant.

 

En France, la garantie humaine inscrite dans la législation offre un cadre  à condition de préciser comment cette vigilance s'exercera face à un outil dont les erreurs sont conçues pour être plus difficilement détectables.

 

Sources :

 

Armstrong S. Doctors raise safety concerns over Palantir linked AI tool in hospitals. BMJ 2026;392:s338.

 

Omar M. et al. Availability bias in large language models for clinical diagnosis. Preprint, 2025.

Nous avons besoin de votre consentement pour charger les traductions

Nous utilisons un service tiers pour traduire le contenu du site web qui peut collecter des données sur votre activité. Veuillez consulter les détails dans la politique de confidentialité et accepter le service pour voir les traductions.