En los últimos años, la comunidad científica ha sido testigo de un fenómeno perturbador que amenaza con socavar la confianza y la calidad de la investigación académica: la proliferación de paper mills basados en inteligencia artificial (IA). Estos servicios, que producen artículos científicos con poca o ninguna revisión rigurosa, están inundando las revistas científicas con estudios que carecen de rigor metodológico y que en ocasiones resultan ser meros ejercicios superficiales de análisis. Este problema no solo afecta a quienes consumen estos trabajos, sino que pone en riesgo la credibilidad misma de la ciencia. El término "paper mills" se refiere a entidades que generan y venden artículos académicos a investigadores o instituciones que buscan publicar de manera rápida y sencilla, muchas veces para cumplir con requisitos de promoción o financiamiento. Lo alarmante ahora es que la inteligencia artificial ha facilitado y acelerado la producción de estos textos, gracias a la capacidad de las grandes plataformas de lenguaje (large language models) para generar contenido escrito con apariencia profesional y coherente.
Un informe reciente realizado por un equipo de la Universidad de Surrey en el Reino Unido ha expuesto cómo esta tendencia está afectando especialmente la investigación en salud pública. El estudio, publicado en PLOS Biology, se centró en el análisis del uso del NHANES (Encuesta Nacional de Salud y Nutrición de Estados Unidos), una base de datos accesible y rica utilizada habitualmente para investigaciones epidemiológicas. Sin embargo, el equipo de Surrey detectó una explosión de artículos que aplican diseños inapropiados y análisis simplistas, ignorando la complejidad multifactorial que caracteriza a muchas enfermedades y condiciones de salud. Estos estudios suelen emplear un enfoque unidimensional que examina la relación entre una sola variable y un resultado de salud sin considerar otros factores relevantes, lo que puede conducir a «descubrimientos falsos» o a conclusiones erróneas. Esta práctica, conocida también como data dredging o pesca de datos, busca encontrar asociaciones estadísticamente significativas sin un fundamento teórico sólido, algo que la comunidad científica ha identificado como altamente problemático.
Los autores del informe destacan que la facilidad de acceso a los datos a través de APIs y la capacidad de la IA para redactar rápidamente textos científicos está pasando factura. Algunos editores y revisores ya están saturados al punto de que no pueden evaluar adecuadamente la calidad y validez de estos estudios, lo que resulta en la publicación de investigaciones de dudosa calidad o incluso incorrectas. De esta manera, la ciencia se ve empantanada en un océano de «ficción científica», donde se confunden resultados apócrifos con verdades contrastadas. Un aspecto reseñable del análisis de la Universidad de Surrey es la evolución cuantitativa y geográfica de los papers sospechosos. Mientras que entre 2014 y 2021 el promedio de publicaciones con este enfoque simplista oscilaba alrededor de cuatro por año, para 2024 esa cifra se disparó a cerca de 190 en sólo diez meses.
Además, ha habido un notable aumento en las contribuciones desde China, donde los autores afiliados a instituciones chinas pasaron de ser apenas minoría a representar la mayoría significativa de estos trabajos. El problema va más allá de una simple cuestión de cantidades; lo esencial es el impacto que tiene la proliferación de estos estudios en el cuerpo científico global. Cuando se multiplican las publicaciones erróneas o incompletas, el riesgo de que entren en la literatura y sean citadas o utilizadas como base para nuevas investigaciones crece considerablemente. Algunas enfermedades o condiciones multifactoriales —como la depresión, las enfermedades cardiovasculares o el deterioro cognitivo— exigen un abordaje complejo que integre múltiples variables y perspectivas. Analizarlas con un enfoque simplista no solo es un error metodológico grave, sino que podría inducir a decisiones clínicas o políticas públicas equivocadas.
Frente a este panorama, los expertos proponen varias medidas para frenar el avance de estos paper mills de IA y elevar los estándares de calidad en la publicación científica. En primer lugar, sugieren que los editores y revisores adopten un criterio más estricto para estudios que empleen análisis unifactoriales en contextos que requieren un enfoque multifactorial. Estos estudios deberían actuar como una señal de alerta y someterse a un escrutinio más riguroso. También recomiendan a los proveedores de bases de datos implementar controles de acceso más estrictos, tales como la asignación de claves API y números de aplicación con seguimiento auditable. Esta estrategia ayudaría a prevenir el uso indiscriminado y sin justificación de datos, promoviendo una utilización más responsable y transparente.
Otra propuesta importante es exigir que los trabajos que utilicen subconjuntos de datos expliquen claramente su motivo y justificación, además de promover que se analicen las bases completas cuando sea posible. La transparencia en el uso de datos y en las metodologías empleadas es esencial para que la comunidad científica pueda evaluar con precisión la validez y reproducibilidad de las investigaciones. Asimismo, es crucial que los revisores cuenten con experiencia adecuada en estadística y análisis de datos para detectar fallas metodológicas o enfoques simplistas que puedan comprometer la calidad. Aunque estas recomendaciones buscan limitar el daño potencial, los investigadores de la Universidad de Surrey subrayan que no pretenden obstaculizar el acceso a la inteligencia artificial ni a las bases de datos públicas. Por el contrario, reconocen el enorme potencial que la IA ofrece para acelerar y mejorar la investigación científica si se usa con sentido común y responsabilidad.
El desafío está en encontrar un equilibrio que permita aprovechar las ventajas tecnológicas sin sacrificar la integridad y utilidad de los resultados. Este problema no es exclusivo del ámbito de la salud pública ni reciente. Ya en 2024, la editorial estadounidense Wiley clausuró 19 revistas científicas bajo su subsidiaria Hindawi debido a la publicación masiva de estudios generados por paper mills de IA. Más allá del mundo académico, la ola de contenido generado por inteligencia artificial —que incluye desde imágenes y videos falsos hasta textos apócrifos— está generando una crisis de confianza en la información, dificultando distinguir entre hechos y ficciones. En última instancia, la creciente influencia de los paper mills en la ciencia plantea un llamado urgente a la acción para investigadores, editores, instituciones y proveedores de datos.