La bixonimanie, une maladie imaginaire qui a trompé les IA et les revues scientifiques
Bixonimanie : une fausse maladie qui a dupé IA et scientifiques

La bixonimanie : une supercherie scientifique qui a trompé les intelligences artificielles

Depuis 2024, des contenus en ligne évoquent régulièrement la bixonimanie, une pathologie supposée causée par la lumière bleue des écrans avec des symptômes comme des irritations oculaires et des paupières assombries. Pourtant, cette maladie n'existe absolument pas. Elle a été entièrement inventée par une équipe de chercheurs suédois dans le cadre d'une expérience visant à évaluer la capacité des intelligences artificielles (IA) à repérer de fausses informations scientifiques, comme l'a révélé la prestigieuse revue Nature.

Une expérience minutieusement orchestrée

À l'origine de cette manipulation se trouve la chercheuse Almira Osmanovic Thunström et son équipe. Ils ont créé de toutes pièces un scientifique fictif nommé Lazljiv Izgubljenovic, ainsi que de faux profils académiques et deux prépublications respectant scrupuleusement le format des articles scientifiques. Ces documents décrivaient la bixonimanie comme une pathologie liée à l'exposition aux écrans, avec des tableaux et des photos à l'appui, mais mentionnaient une université inexistante et une ville imaginaire.

Les références utilisées dans ces faux travaux étaient volontairement fantaisistes :

Bannière large Pickt — app de listes de courses collaboratives pour Telegram
  • Des remerciements adressés à un personnage de dessin animé
  • Des allusions à Star Trek et au Seigneur des anneaux
  • Une mention explicite indiquant que les études étaient « totalement fictives »

Les IA et les revues scientifiques tombent dans le piège

Malgré ces indices évidents, plusieurs chatbots populaires ont intégré la bixonimanie dans leurs réponses pendant de longs mois. Certains présentaient cette maladie imaginaire comme une pathologie crédible, allant jusqu'à associer des symptômes décrits par les utilisateurs à cette affection inventée. L'affaire ne s'est pas limitée aux IA conversationnelles, qui ont depuis pris conscience de la supercherie.

Plus inquiétant encore, de véritables articles scientifiques ont cité ces faux travaux comme des sources légitimes. Certaines revues spécialisées ont dû retirer ou corriger des publications après la découverte de la manipulation, comme l'a rapporté TF1 Info. Cette situation met en lumière des problèmes profonds dans le système de validation scientifique.

Les leçons à tirer de cette expérience

Pour les chercheurs à l'origine de cette expérience, les résultats sont édifiants :

  1. La confiance excessive accordée aux réponses générées par l'intelligence artificielle
  2. Le manque de vérification rigoureuse dans le processus de recherche académique
  3. La vulnérabilité des systèmes d'information face à la désinformation scientifique

Cette expérience démontre que même des indices évidents de falsification peuvent passer inaperçus, tant auprès des intelligences artificielles que dans les circuits académiques traditionnels. Elle souligne l'urgence de renforcer les mécanismes de vérification et de développer une approche plus critique face aux informations scientifiques, qu'elles proviennent de l'IA ou des publications académiques.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale