Des chercheurs de l’université Stanford alertent sur une défaillance inédite des grands modèles d’IA : capables d’inventer des images, ces systèmes fondent ensuite des raisonnements et des diagnostics médicaux sur ces éléments fabriqués. À l’heure où ces intelligences sont de plus en plus sollicitées dans les hôpitaux et les services de santé, cette découverte pose un risque concret pour les patients et remet en question les méthodes d’évaluation des modèles.
Quand l’IA « voit » ce qui n’existe pas
Dans une étude encore non validée par comité de lecture, des équipes de Stanford décrivent un nouveau phénomène qu’elles appellent effet Mirage (ou mirage reasoning). Plutôt que de se contenter d’inventer une réponse, certains modèles multimodaux fabriquent d’abord une image plausible — une radio, un scanner, une lésion cutanée — puis déroulent un raisonnement précis à partir de cette image fictive.
Le résultat : des conclusions médicales présentées avec assurance, mais sans aucun élément visuel fourni par l’utilisateur. Selon les auteurs, même des systèmes récents et puissants — citons notamment GPT‑5, Gemini 3 Pro et Claude Opus 4.5 — sont concernés.
Des diagnostics fabriqués à partir de probabilités
Les chercheurs montrent que les modèles exploitent leur vaste mémoire statistique et des indices textuels contenus dans les questions pour « anticiper » une image et en déduire un diagnostic. Un modèle purement textuel a ainsi obtenu d’excellents résultats sur des questions de radiologie sans jamais voir d’image réelle : il s’appuyait sur des motifs linguistiques et des probabilités apprises durant l’entraînement.
Ce mécanisme rend l’erreur particulièrement difficile à détecter : la description visuelle et l’argumentation sont cohérentes, convaincantes et parfois détaillées — jusque-là, rien n’indique qu’elles reposent sur du fictif.
Pourquoi c’est dangereux
Quand une IA avance qu’un patient présente un infarctus, un mélanome ou un AVC, la confiance accordée à la machine peut conduire à des actions médicales lourdes : examens supplémentaires, traitements agressifs, interventions chirurgicales ou anxiété inutile.
Plusieurs éléments aggravent la situation :
- la présentation assurée des diagnostics, qui masque l’absence de preuve visuelle ;
- des scores de performance trompeurs sur des benchmarks médicaux, parfois élevés même sans accès aux images ;
- la difficulté pour un professionnel de repérer l’invention d’images à la simple lecture d’un rapport généré par l’IA.
Des pistes pour limiter le risque
Les scientifiques de Stanford préconisent de revoir en profondeur les méthodes d’évaluation des modèles. Ils proposent, entre autres, un protocole nommé B‑Clean qui supprime des jeux de test toutes les questions qu’un modèle peut résoudre sans la donnée visuelle — afin de mesurer strictement la capacité visuelle effective.
Autres recommandations dégagées par l’équipe :
- reconcevoir les benchmarks multimodaux pour comparer systématiquement la performance avec et sans image ;
- intégrer des garde-fous dans les interfaces cliniques pour signaler explicitement l’absence de preuves visuelles ;
- maintenir une supervision humaine robuste dans toute décision médicale influencée par l’IA.
Un phénomène détectable… mais pas automatique
Curieusement, les auteurs notent qu’en confrontant le modèle à l’absence d’images — en lui demandant explicitement s’il dispose des éléments visuels — le système tend à reconnaître son manque d’information et sa confiance diminue. Autrement dit, l’IA « réussit mieux » lorsqu’elle n’est pas amenée à halluciner une image.
Ce point laisse une marge d’action : des interactions conçues pour forcer la transparence sur les données d’entrée peuvent réduire certaines erreurs. Mais cela n’annule pas la nécessité d’une refonte des critères d’évaluation et d’une vigilance accrue dans les usages cliniques.
Ce que cela implique pour les patients et les décideurs
La découverte de l’effet Mirage intervient à un moment où les systèmes d’IA sont intégrés dans des chaînes de décision clinique et des outils grand public destinés à conseiller sur la santé. Les conséquences touchent autant la pratique médicale quotidienne que la confiance du public et la sécurité sanitaire.
- Pour les cliniciens : nécessité d’exiger des preuves (images, données brutes) et de ne pas se contenter d’analyses textuelles générées par un modèle.
- Pour les établissements : réévaluer l’utilisation de modèles en contexte diagnostique et renforcer les procédures de validation interne.
- Pour les régulateurs : adapter les normes d’évaluation et imposer des tests qui distinguent vraiment les capacités visuelles des capacités purement probabilistes.
Au final, la leçon des chercheurs est nette : l’IA apporte des apports techniques significatifs, mais ses performances apparentes peuvent masquer des raisonnements bâtis sur du vide. Les solutions existent — meilleures évaluations, protocoles comme B‑Clean, supervision humaine — mais elles exigent une refonte des pratiques et des critères d’acceptation avant un déploiement médical à grande échelle.
Articles similaires
- Bixonimanie contamine les publications scientifiques : fausse maladie créée pour piéger les IA
- Données hongroises exposées par mots de passe faibles : alerte à quelques jours du scrutin européen
- Blouse sur une porte: une image qui interroge les conditions de travail
- NASA – Image étonnante de James Webb : une nouvelle étoile en forme de sablier
- IA santé: ce que ça change pour vos soins dès maintenant









