En la era actual de la inteligencia artificial (IA), la automatización de procesos científicos y académicos se ha convertido en un tema recurrente. La idea de que una IA pueda decidir qué trabajos se aceptan en una conferencia científica despierta tanto entusiasmo como escepticismo. ¿Es posible confiar en una máquina para evaluar la calidad, relevancia y originalidad de una investigación? ¿Qué implicaciones tendría para el futuro del proceso de revisión por pares? Este análisis busca desglosar los argumentos principales en torno a esta propuesta y entender sus beneficios y limitaciones. El concepto de utilizar IA para seleccionar trabajos no es meramente ciencia ficción. Actualmente, existen modelos de lenguaje y sistemas de aprendizaje automático capaces de procesar grandes volúmenes de texto y detectar patrones que escapan a la atención humana.
Sin embargo, a pesar de sus avances, estos sistemas enfrentan importantes barreras a la hora de reemplazar el juicio humano en decisiones tan críticas. Uno de los principales puntos en contra es la naturaleza de los modelos de lenguaje actuales, como los modelos de lenguaje grande (LLM, por sus siglas en inglés). Estos funcionan prediciendo la siguiente palabra en una secuencia basada en el entrenamiento previo con grandes bases de datos textuales. En consecuencia, no "entienden" ni aprenden de información nueva en tiempo real, sino que generan texto coherente a partir de patrones anteriores. Esta limitación implica que cualquier evaluación que realice un modelo basado en LLM podría estar sesgada hacia trabajos que encajan en esquemas reconocidos o estilos ya existentes, dificultando la aceptación de innovaciones disruptivas que no encajen con el corpus entrenado.
Además, la revisión de un trabajo académico no se trata simplemente de verificar la gramática o la coherencia textual. Implica un profundo conocimiento del campo, la capacidad de valorar la metodología empleada, la originalidad del enfoque, la validez de los resultados y su contribución al conocimiento. Estos son aspectos complejos donde intervienen juicios subjetivos y éticos, algo que una IA no puede replicar con el mismo nivel de sofisticación que un experto humano. Otro aspecto importante es la posible introducción de sesgos inadvertidos. Los modelos de IA están entrenados con datos históricos y, por tanto, reflejan y amplifican los prejuicios presentes en esos datos.
En el contexto académico, esto puede traducirse en la preferencia por ciertos autores, instituciones o temas en detrimento de otros. La diversidad y equidad en la ciencia son valores fundamentales que una IA puede accidentalmente comprometer si no se supervisa cuidadosamente. Por otro lado, algunas voces sostienen que la IA podría ayudar a optimizar el proceso de revisión, más no reemplazarlo. Por ejemplo, podría encargarse de tareas preliminares como la detección de plagio, revisión de requisitos formales y relevancia general, ayudando así a los revisores humanos a centrarse únicamente en la evaluación crítica y detallada. Esta colaboración entre humanos e IA podría aumentar la eficiencia y reducir la carga de los expertos enfrentados a cientos de trabajos en poco tiempo.
Desde una perspectiva ética, también surgen preocupaciones en torno a la transparencia y responsabilidad. Cuando una IA rechaza o acepta un trabajo, ¿quién es responsable de esa decisión? La investigación científica es un terreno donde el error o el sesgo pueden tener consecuencias duraderas, por lo que asegurar procesos justos y transparentes es prioritario. Una caja negra informática que decida sin explicación clara genera desconfianza y posibles conflictos. Asimismo, la IA no puede evaluar el impacto potencial o la innovación futura de una investigación, aspectos que requieren visión y experiencia humana. Los expertos suelen entender mejor el contexto y la dirección del campo, cuestiones fundamentales para decidir qué trabajos merecen mostrarse en una conferencia.