La bixonimanía es una supuesta enfermedad cutánea que provoca picazón en los ojos y enrojecimiento de párpados en personas que pasan demasiado tiempo frente a pantallas, que suena plausible, pero el problema es que es completamente inventada por una investigadora.
ALUCINACIONES DE IA
Bixonimanía: La enfermedad de Los Simpson que logró infectar a la ciencia real
Una investigadora sueca creó una enfermedad inexistente con pistas falsas evidentes. ChatGPT, Gemini y Copilot la describieron como real.
La creó Almira Osmanovic Thunström, investigadora médica de la Universidad de Gotemburgo, como parte de un experimento para medir la capacidad de los grandes modelos de lenguaje para detectar información falsa en contextos de salud. En marzo de 2024 publicó dos entradas en Medium describiendo la enfermedad. Después subió dos preimpresiones a una red académica.
Las pistas falsas eran imposibles de ignorar para cualquier humano atento: los estudios estaban firmados por un investigador inexistente llamado Lazljiv Izgubljenovic, de la también inventada Asteria Horizon University, financiados por la "Fundación Profesor Sideshow Bob" y respaldados por la Universidad de Fellowship of the Ring. Ficción en estado puro.
Lo que hicieron los chatbots cuando les preguntaron
Pocos días después de que aparecieran los artículos falsos, los chatbots ya respondían sobre la bixonimanía como si fuera una condición médica real. Según conversaciones citadas por la revista Nature, Copilot afirmó que era "una afección intrigante y relativamente rara". Gemini la describió como un trastorno causado por exposición excesiva a la luz azul. Perplexity indicó que afectaba a una de cada 90.000 personas. ChatGPT detalló síntomas y posibles manifestaciones.
Ninguno detectó que el investigador firmante no existía, que la universidad era ficticia o que la fundación financiadora era un chiste sacado de Los Simpson.
El problema se agravó: la ficción entró en papers reales
Según Wired, lo más grave del experimento no fue la respuesta de los chatbots, sino lo que pasó después: los artículos falsos sobre la bixonimanía fueron citados por trabajos científicos reales con revisión de pares. Entre ellos, un artículo elaborado por investigadores del Instituto Maharishi Markandeshwar de Ciencias Médicas en India.
Esto revela un circuito de retroalimentación peligroso: la IA genera o valida contenido falso, ese contenido circula y gana apariencia de legitimidad, y termina siendo incorporado a producción científica real que, a su vez, vuelve a alimentar a los modelos.
"Esto es una lección magistral sobre cómo funciona la desinformación", advirtió Alex Ruani, investigador doctoral en desinformación sanitaria del University College de Londres, citado por Wired.
Por qué la IA falla en esto y cuándo es más peligroso
Los modelos de lenguaje no verifican hechos: operan por patrones estadísticos y priorizan la coherencia textual por encima de la comprobación de datos. Esto los vuelve especialmente vulnerables a contenidos que tienen apariencia científica aunque sean falsos.
El riesgo es mayor en salud, donde alguien puede googlear síntomas, llegar a un chatbot que cita fuentes que suenan académicas, y tomar decisiones basándose en información que nadie verificó.
David Sundemo, investigador de IA aplicada a la salud en la Universidad de Gotemburgo, consideró que el experimento es valioso aunque controvertido, porque implicó introducir desinformación real en el ecosistema científico, pero sostuvo que "merece la pena asumir el coste ético" si permite exponer fallas estructurales. La pregunta que deja abierta es cuántas bixonimanías más están circulando sin que nadie las haya puesto a prueba.
--------------------------------
Otras noticias en Urgente24:
Frágil tregua entre Irán y Donald Trump excluye a Líbano: "Colaboración nuclear" y mentiras piadosas
La nueva billetera virtual que rinde más en Argentina y todos están usando
¿Nuevo escándalo de Manuel Adorni? Nombramientos en el Correo Argentino y más...
Adrián Suar analizó el presente de El Trece y no descartó el regreso de una destacada figura











