miércoles 28 enero 2026

Un análisis desalentador muestra que la IA erosiona la confiabilidad de las publicaciones científicas

Categoria:
Guarfar Post
Post Guardado

Resulta casi imposible exagerar la importancia e impacto de ArXiv, un repositorio de ciencia que durante un tiempo justificó en sí mismo la existencia de Internet. ArXiv es un repositorio pre-publicación en el que los científicos e investigadores han anunciado desde 1991: “Vean lo que escribí” al resto del mundo científico. La revisión por parte de expertos avanza lentamente, pero es necesaria. ArXiv solo requiere una rápida repasada de un moderador en lugar de una revisión detallada, por lo que constituye un paso intermedio entre los descubrimientos y las revisiones de expertos. Es el lugar en el que los últimos descubrimientos e innovaciones pueden tratarse con la urgencia que merecen, rápido pero con cierta cautela.

Sin embargo, el uso de la IA ha perjudicado a ArXiv, y podría decirse que las heridas son fatales.

Las dudas y las quejas

Un artículo reciente en The Atlantic señala que el creador de ArXiv y profesor de ciencias de la informática en Cornell, Paul Ginsparg, siente preocupación y desaliento desde el surgimiento de ChatGPT porque la IA se puede utilizar para pasar las barreras necesarias que impiden que en ArXiv se publique basura. El año pasado, Ginsparg colaboró en un análisis de probables presentaciones de la IA en ArXiv. Horrorizados, los de su equipo vieron que los científicos evidentemente usaban grandes modelos de lenguaje para generar publicaciones de aspecto plausible y que resultaban más prolíficas que aquellas hechas sin IA. La cantidad de trabajos de quienes usaron IA había aumentado en 33%.

El análisis afirma que la IA se puede usar legítimamente para cosas como las diferencias entre idiomas. Y continúa: 

“Sin embargo hay señales tradicionales de calidad científica como la complejidad del lenguaje que se están convirtiendo en indicadores poco confiables del mérito justo en este momento en que aumenta la cantidad de trabajos científicos. A medida que avancen los sistemas de IA van a presentar obstáculos y problemas para nuestros fundamentales requerimientos de calidad de investigación, comunicación académica y la naturaleza de la labor intelectual”. 

Momentos oscuros y preocupantes

Y no solo sucede con ArXiv. La confiabilidad de la academia pasa por momentos difíciles. La semana pasada en Nature apareció un artículo que describe las desventuras de IA de un científico que trabaja en Alemania, Marcel Bucher, que usaba ChatGPT para general e-mails, información de cursos, conferencias y pruebas. Y como si eso fuera poco, también usaba ChatGPT para analizar las respuestas de los estudiantes, y para diseñar sus clases.  Un día, Bucher intentó deshabilitar “temporalmente” la opción que él llama “de consentimiento de datos”, y cuando ChatGPT borró de repente toda la información que guardaba en la app – en servidores de OpenAI – se quejó en Nature porque “había desaparecido el trabajo académico cuidadosamente estructurado, logrado en dos años”.

Desanima el hecho de que la holgazanería general inducida por la IA afecte justamente el área en donde se espera rigor y atención al detalle. Era de suponer que habría un problema cuando aumentó la cantidad de publicaciones a pocos meses del lanzamiento de ChatGPT, pero ahora empezamos a ver los detalles de la sustancia y escala de ese problema, según dice The Atlantic. Y no es solamente en casos individuales como ell de Bucher sino que llega a ser un fraude a escala industrial.

Por ejemplo, en la investigación del cáncer, los malos actores pueden tomar datos de publicaciones que afirman documentar “las interacciones entre una célula tumoral y una proteína de los miles que existen”, afirma The Atlantic. Si el trabajo afirma ser de avanzada hará que muchos se pregunten si es real, pero si el falso experimento con el cáncer pasa la prueba de ciertos criterios, habrá otros que creerán que se trata de un trabajo creíble. Y más, si se ve acompañado de imágenes generadas por IA de manchones de electroforesis que podrían sumarle credibilidad.

En resumen: la holgazanería ha llegado a la ciencia y la IA lo invade todo y hay que ponerse a trabajar en serio, desde lo académico a las lecciones y revisiones de expertos o moderadores de ArXiv. Porque de otro modo, los repositorios del conocimiento que se contaban entre las pocas fuentes de información confiables quedarán por siempre infectados por la enfermedad de la IA. Habrá que ver si 2026 es el año en que muchos deciden trabajar en serio.

Este artículo ha sido traducido de Gizmodo US por Lucas Handley. Aquí podrás encontrar la versión original.

Fuente


Artículos relacionados