
Los conjuntos de datos abiertos y las herramientas de IA se pueden usar para producir en masa los documentos redundantes de baja calidad.Crédito: Tutatama/Alamy
Un análisis de una base de datos de literatura encuentra que las herramientas de inteligencia artificial (IA) generador de texto, incluidos ChatGPT y Gemini, pueden usarse para reescribir documentos científicos y producir versiones 'imitadores' que luego se pasan como una nueva investigación.
En una preimpresión publicada en Medrxiv el 12 de septiembre1los investigadores identificaron más de 400 artículos de este tipo publicados en 112 revistas en los últimos 4.5 años, y demostraron que los estudios de biomedicina generados por IA podrían evadir las controles antigrafiarismo de los editores.
Los documentos de baja calidad basados en datos de salud pública están inundando la literatura científica
Los autores del estudio advierten que los individuos y molino de papel – Las empresas que producen documentos falsos para ordenar y vender autorizaciones – podrían estar explotando conjuntos de datos de salud disponibles públicamente y utilizando modelos de idiomas grandes (LLMS) para producir en masa documentos de baja calidad que carecen de valor científico.
«Si no se aborda, este enfoque basado en AI se puede aplicar a todo tipo de bases de datos de acceso abierto, generando muchos más documentos de los que nadie puede imaginar», dice Csaba Szabó, farmacólogo de la Universidad de Friborg en Suiza, que no participó en el trabajo. «Esto podría abrir la caja de Pandora (y) la literatura puede inundarse con papeles sintéticos».
Investigación redundante
Para investigar, los investigadores examinaron estudios de asociación, aquellos que vinculan estadísticamente una variable con un resultado de la salud, que se basaron en datos de la Encuesta Nacional de Examen de Salud y Nutrición de los Estados Unidos (NHANES), un gran depósito abierto de datos sobre la salud, la dieta y los estilos de vida de miles de personas.
Se centraron en su búsqueda en los estudios que definieron como «redundantes», lo que significa que el trabajo probó la asociación entre la misma variable y el resultado de la salud que otra investigación, pero analizó un subconjunto sutilmente diferente de los datos reales, incluidos los resultados de diferentes años de encuesta, por ejemplo, o participantes de una edad o sexo diferente.
AI vinculada a la explosión de trabajos de investigación biomédica de baja calidad
Su búsqueda del índice PubMed de literatura biomédica reveló 411 estudios redundantes publicados entre enero de 2021 y julio de 2025. La mayoría fueron casos 'repetidos' simples, que involucraban dos publicaciones que eran casi idénticas. Pero tres asociaciones tenían un número particularmente alto de estudios duplicados, seis artículos cada uno, algunos de los cuales se publicaron en el mismo año.
Esto «no debería estar sucediendo, y no ayuda a la salud de la literatura científica», dice el coautor Matt Spick, científico biomédico de la Universidad de Surrey en Guildford, Reino Unido.
La mayoría de los editores tienen controles para evitar que los investigadores presenten la misma investigación a múltiples revistas, pero Spick y sus colegas sospechan que las herramientas de IA se están utilizando para evadirlas.
Evitar la detección
Para probar si la IA puede ayudar a producir múltiples documentos del mismo conjunto de datos, los investigadores utilizaron Chatbot Chatgpt de OpenAI y Géminis de Google para reescribir tres de los artículos más redundantes identificados por su análisis (cada uno informó una asociación particular que ya había sido publicada cinco o seis veces). Los investigadores llevaron a los LLM a usar la información en cada documento, y los datos de NHANES, para producir un nuevo manuscrito que pueda evitar detectores de plagio.
«Nos sorprendió que funcionara de inmediato», dice Spick. «No eran perfectos, y el LLMS creó algunos errores. Tomó dos horas de limpieza de trabajo para cada manuscrito».
Rise of ChatGPT y otras herramientas plantea preguntas importantes para la investigación
Cuando se analiza con una herramienta de detección de plagio utilizada por muchos editores, los manuscritos generados por IA no obtuvieron un nivel a un nivel que los editores consideran problemático. Esto muestra que LLM «puede producir algo que es derivado de todo lo que ha ido antes y no incluye nada nuevo. Pero aún pasará los controles de plagio», dice Spick. Esto, a su vez, hace que sea más difícil distinguir entre los investigadores que están produciendo una investigación genuina utilizando conjuntos de datos de salud pública como NHANES y otros que están creando deliberadamente documentos redundantes utilizando LLM, señalan los autores.






