Une maladie inventée de toutes pièces par des chercheurs suédois a circulé pendant des mois dans des intelligences artificielles puis dans la littérature scientifique, avant d’être débusquée. Ce faux signal révèle combien la vérification des sources reste fragile à l’ère des modèles de langage et pose des questions concrètes sur la fiabilité des informations médicales accessibles au grand public.
En 2024, une équipe menée par la chercheuse Almira Osmanovic Thunström a créé une pathologie fictive pour tester la robustesse des systèmes automatisés face à des publications mensongères. L’expérience, destinée à évaluer la résistance des algorithmes à la désinformation scientifique, a pris une tournure inattendue : les machines — puis des journaux évalués par les pairs — ont commencé à traiter cette invention comme une réalité.
Comment une invention s’est transformée en référence
Les auteurs ont inventé une affection censée résulter d’une exposition prolongée aux écrans. Sous un nom peu familier, la soi-disant maladie était décrite avec des symptômes concrets et des éléments techniques, et diffusée via deux « preprints » signés par un auteur fictif accompagné de profils photographiques générés par IA.
La mise en scène mêlait crédibilité formelle et indices absurdes dans le contenu. Malgré plusieurs signaux d’alerte évidents — références culturelles fantaisistes, universités imaginaires, et mentions explicites d’échantillons fabriqués — de nombreux systèmes automatisés n’ont pas repéré la supercherie.
Résultat : des assistants conversationnels et des moteurs de recherche ont commencé à renvoyer la bixonimanie comme une pathologie plausible, certains sites scientifiques l’ont citée, et des revues ont été contraintes ensuite de corriger ou de rétracter des articles.
Ce que disaient les machines — et puis non
Au fil des semaines, plusieurs grandes plateformes d’IA ont intégré la fausse maladie dans leurs réponses. Certaines descriptions étaient détaillées, parfois alarmantes, donnant aux lecteurs des diagnostics erronés. Quelques mois plus tard, et après des vérifications manuelles, la plupart des modèles ont assoupli leurs affirmations, mais le laps de temps pendant lequel l’erreur a circulé montre l’ampleur du problème.
Pour la chercheuse à l’origine de l’expérience, l’objectif était pédagogique : exposer les limites des chaînes d’approbation automatisées et rappeler la nécessité d’un contrôle humain rigoureux dans la diffusion des savoirs.
Conséquences pratiques pour les lecteurs et la communauté scientifique
L’incident n’est pas anodin. Quand des algorithmes présentent comme fiables des résultats non vérifiés, le public risque de recevoir de mauvais conseils médicaux et les chercheurs voient la littérature se polluer.
- Risques pour le grand public : des internautes qui consultent un chatbot pour un symptôme peuvent recevoir des diagnostics inventés.
- Rupture de confiance : la crédibilité des revues et du processus d’évaluation par les pairs est fragilisée lorsque des références fictives s’insèrent dans des articles validés.
- Propagation rapide : un preprint bien présenté suffit à lancer une trajectoire de citations et d’extractions par des modèles de langage.
Pourquoi cela importe aujourd’hui
La diffusion de contenus créés ou amplifiés par des IA s’est intensifiée : une étude de 2025 estime qu’un nombre significatif d’articles scientifiques contient des éléments produits par des modèles automatisés. Parallèlement, de plus en plus de personnes consultent les chatbots pour des questions de santé ou de conseil professionnel.
Cela signifie que les erreurs techniques ne restent pas confinées aux laboratoires ; elles peuvent rapidement influencer des décisions individuelles et la base même de la connaissance académique. Les mesures correctives tardent souvent à suivre, et les outils automatisés continuent d’évoluer plus vite que les garde-fous éthiques et éditoriaux.
Plusieurs revues ont depuis retiré ou amendé des publications, mais les corrections ne remplacent pas toujours les citations et les copies qui ont circulé en amont. Le problème est donc autant structurel que technique.
Que faire pour limiter ces dérives ?
Il n’existe pas de solution miracle, mais plusieurs pistes pratiques émergent :
- Renforcer la vérification humaine lors de la soumission et de l’évaluation des articles.
- Mettre en place des outils de dépistage des profils et références fabriqués (photos, affiliations, identifiants ORCID).
- Améliorer la transparence des modèles d’IA sur leurs sources et leur degré de confiance.
- Eduquer le public à la lecture critique des résultats fournis par des chatbots.
Ces mesures demandent des investissements et une coopération entre éditeurs, chercheurs et concepteurs d’IA. Sans cela, la production du savoir reste vulnérable aux manipulations, volontaires ou accidentelles.
En définitive, l’affaire de la bixonimanie n’est pas seulement une anecdote de laboratoire : c’est un avertissement. Les progrès technologiques portent de réels bénéfices, mais ils exigent des garde-fous renforcés si l’on veut préserver la fiabilité des informations qui guident les décisions de santé et la recherche scientifique.
Articles similaires
- L’exercice physique inverse les symptômes de la maladie d’Alzheimer
- Wikipedia limite l’IA générative : riposte à l’encyclopédie IA antiwoke Grokipedia
- Pollution atmosphérique : dans quelle mesure elle augmente le risque d’AVC
- Les mythes qui entourent le psoriasis : Il est temps de vivre sans stigmatisation sociale
- Les mythes qui entourent le psoriasis : Il est temps de vivre sans stigmatisation sociale









