Los Premios Hugo, uno de los reconocimientos más prestigiosos dentro de la literatura de ciencia ficción y fantasía, atraviesan una de las crisis más relevantes de su historia reciente. La renuncia simultánea de tres líderes clave de la organización para el evento Worldcon 2025, que se realizará en Seattle, ha puesto en el foco las implicaciones y polémicas que surgen al emplear inteligencia artificial (IA), específicamente ChatGPT, en la fase de selección y evaluación de participantes para la convención. El World Science Fiction Convention, conocido popularmente como Worldcon, es el contexto donde se entregan anualmente los Premios Hugo. Este evento reúne a aficionados, autores, críticos y académicos de todo el mundo para celebrar las contribuciones notables en la literatura especulativa. Sin embargo, para la edición de 2025, hubo un giro inesperado cuando la organización que administra los Premios Hugo decidió utilizar una herramienta basada en inteligencia artificial para cotejar y filtrar a los participantes propuestos para los programas y paneles.
Nicholas Whyte, Esther MacCallum-Stewart y Cassidy, los principales responsables en la administración de este proceso, anunciaron su renuncia a través de una declaración pública en la plataforma Bluesky. En el comunicado, enfatizan que la IA no fue involucrada en la votación ni en la propia selección de los ganadores de los Hugo, sino que su uso estuvo limitado exclusivamente a la verificación preliminar para agilizar la organización de las actividades de la convención. Este matiz, sin embargo, no calmó las inquietudes ni detuvo las reacciones en la comunidad. Kathy Bond, presidenta del Worldcon Seattle 2025, explicó a través de una publicación en el sitio oficial del evento y en redes sociales que solo se introdujo el nombre de cada potencial participante en el software de IA para agilizar la búsqueda de información en internet. Según sus palabras, el objetivo principal era ahorrar cientos de horas de trabajo voluntario en la etapa de control y así poder concentrar esfuerzos en otros aspectos del evento.
Bond también subrayó que las respuestas dadas por ChatGPT o el modelo utilizado fueron evaluadas cuidadosamente por humanos antes de tomar cualquier decisión y que la IA no se utilizó en otros ámbitos del evento. La aclaración no logró detener la polémica, pues varios miembros de la comunidad creyeron que el uso de IA, aunque limitado, quebrantaba la ética tradicional en la gestión de un evento cultural donde la evaluación humana había sido la norma por décadas. Este desencuentro llevó incluso a que Yoon Ha Lee, autor finalista del Premio Lodestar por su obra "Moonstorm", retirara su candidatura en señal de protesta. En sus declaraciones, expresó respeto por la labor de los renunciantes, lamentando que la situación hubiese escalado a tal punto. La controversia ha abierto una discusión profunda sobre los límites y posibilidades del uso de tecnologías avanzadas como los modelos de lenguaje en eventos culturales y literarios.
Por una parte, está la aceptación creciente de la inteligencia artificial como herramienta que puede optimizar procesos administrativos y logísticos. Por otra, existe la preocupación fundada acerca de la transparencia, la imparcialidad y la esencia humana en la evaluación artística y cultural. Además, la crisis plantea interrogantes sobre cómo se debería abordar la incorporación de estas tecnologías en comunidades tan apasionadas y cuidadosas con sus tradiciones como es la de la ciencia ficción y fantasía literaria. La experiencia de Seattle 2025 podría servir como ejemplo para futuras convenciones y eventos similares, resaltando la importancia de la comunicación clara, la consulta amplia y el respeto hacia las sensibilidades de los participantes y seguidores. Anteriormente, el mundo de los premios Hugo ya había enfrentado polémicas, como la exclusión polémica de obras aclamadas o conflictos por patrocinios cuestionados.