En mayo de 2025, la comunidad de ciencia ficción y fantasía se encontró en el epicentro de una polémica que trascendió el ámbito habitual de los aficionados y alcanzó resonancia internacional. La 83ª edición de la Worldcon, el evento anual más relevante para los seguidores de la ciencia ficción, ubicado ese año en Seattle, se vio envuelta en una controversia debido a la decisión del equipo organizador de utilizar ChatGPT para evaluar y vetar a los candidatos que deseaban participar en la programación oficial. Este uso inesperado y controvertido de una inteligencia artificial generativa abrió un debate tanto sobre las limitaciones tecnológicas como sobre la ética y privacidad en la gestión de eventos culturales y sociales de gran magnitud. La práctica consistió en aplicar un prompt específico de verificación mediante ChatGPT para revisar el historial o posibles comportamientos problemáticos de los solicitantes, analizando aspectos como homofobia, racismo, acoso sexual y fraude, entre otros. Sin embargo, pronto se evidenció que esta metodología estaba lejos de ser infalible.
Las respuestas ofrecidas por la inteligencia artificial no solo resultaron imprecisas, sino que en múltiples casos generaron información errónea, confusiones y, en algunos ejemplos, incluso acusaciones infundadas basadas en coincidencias de nombres o datos mal interpretados por el modelo. Uno de los primeros testimonios públicos que ilustraron esta problemática fue el de Cora Buhlert, escritora, traductora y participante activa en la comunidad de ciencia ficción. Al introducir su nombre en el sistema junto con el prompt utilizado por los organizadores, ChatGPT generó datos incorrectos, atribuyéndole premios que nunca ganó y asignándole roles en podcasts y convenciones con los que no estaba vinculada. A pesar de que no encontró escándalos relacionados a ella, la exactitud de la información fue cuestionable y evidenció la manera en que la inteligencia artificial puede fabricar “alucinaciones” o datos no verificados que suenan plausibles. El problema fue aún más grave para otros participantes.
Casos como el de un finalista de los prestigiosos premios Hugo, quien fue erróneamente vinculado con un abusador sexual de Rumania debido a que compartían apellido, demostraron lo peligroso que puede llegar a ser basar decisiones importantes en datos sin corroborar, elaborados por modelos que carecen de conciencia y contexto real. Asimismo, la confusión entre un participante y una celebridad famosa con el mismo nombre llevó a la inclusión de escándalos totalmente ajenos a la persona evaluada. Incluso Neil Gaiman, escritor emblemático y premiado, fue marcado como un "excelente panelista" a pesar de controversias públicas que rodeaban su nombre en ese momento. La reacción del público y la prensa especializada no se hizo esperar. Medios de referencia en la industria de la ciencia ficción y la fantasía, como File 770 y Locus, documentaron la creciente indignación y el rechazo masivo hacia la decisión del comité organizador, catalogándola como un error grave y una demostración de falta de sensibilidad hacia las inquietudes que genera la inteligencia artificial en el ámbito creativo.
La percepción general fue que, además de ser una falta de respeto a los participantes, la utilización de ChatGPT como filtro de selección fue contraproducente y trajo más problemas que soluciones. Como consecuencia directa, varios aficionados cancelaron o rebajaron sus membresías para la Worldcon, otros retiraron su participación en el programa y uno de los finalistas declinó su nominación al premio Lodestar. Además, el escándalo tuvo repercusiones administrativas: los responsables del área de programación y los administradores de los premios Hugo renunciaron a sus cargos. Aunque inicialmente se mencionó que las renuncias no estaban directamente relacionadas con el uso de ChatGPT, fuentes posteriores confirmaron que sí guardaban vínculo con la forma en que se manejó la crisis. Este fenómeno pone en evidencia varias cuestiones cruciales que afectan no solo a la organización de eventos sino también a la creciente dependencia en inteligencia artificial para tomar decisiones importantes y sensibles.
En primer lugar, la precisión de los modelos de lenguaje actuales no está garantizada y, en muchos casos, su característico "alucinar" información puede generar consecuencias reales y perjudiciales para las personas involucradas. Además, existe una falta de transparencia y de control humano efectivo en la aplicación de estas herramientas. Si bien el equipo organizador argumentó que los resultados negativos eran sometidos a verificaciones adicionales, las evaluaciones positivas no pasaban por el mismo nivel de escrutinio, lo que aumentaba el riesgo de falsas aprobaciones basadas en datos inventados o descontextualizados. Por otro lado, esta situación también refleja el clima generalizado en la comunidad de ciencia ficción y fantasía sobre el impacto de la inteligencia artificial en el medio creativo. Gran parte de los artistas, escritores y fans ven con recelo y preocupación la expansión de las tecnologías generativas, no solo por los riesgos éticos sino también por las implicaciones económicas y culturales, ya que estas herramientas entrenan con contenido producido por humanos y pueden llegar a desplazar trabajos, saturar el mercado con productos de baja calidad y consumir recursos del planeta de manera significativa.
El llamado a la precaución realizado por expertos como Simon Bisson en las redes sociales y análisis detallados publicados en Twitter y otros canales subraya la necesidad de un enfoque mucho más humano y crítico en los procesos de selección y gestión de eventos. La inteligencia artificial puede ser una ayuda, pero no debe convertirse en el árbitro definitivo ni funcionar sin supervisión ni contexto apropiado. Paralelamente, algunos analistas sugieren que la realización de una simple búsqueda en Google por parte de un ser humano bien informado podría haber proporcionado resultados más precisos y confiables que el uso de un modelo generativo de lenguaje como ChatGPT. Estas herramientas, aunque aparentemente ágiles para sintetizar grandes cantidades de información, tienen el problema de proyectar un sentido de autoridad engañosa que puede dando lugar a errores perjudiciales. En el caso de la Worldcon de Seattle, la controversia no solo dejó una lección respecto al uso equivocado de tecnología en la gestión de comunidades culturales, sino que también obligó a la organización a emitir disculpas públicas y corregir el rumbo para salvaguardar la integridad y confianza de sus miembros.
Estas acciones incluyeron declaraciones detalladas en las que se transparentó el método empleado, la revisión posterior de los protocolos y la apertura de espacio para el diálogo con los afectados. La experiencia también llevó a reflexiones internas dentro de la comunidad sobre la importancia de preservar los valores fundamentales que han definido históricamente a la ciencia ficción: la creatividad, la inclusión, el respeto y la colaboración. La adversión generalizada a los “robots plagiadores” simboliza un rechazo no solo a problemas técnicos, sino también a un modelo que deshumaniza y pone en riesgo el trabajo genuino de creadores y aficionados. Fuera del escándalo, voces como la de Cora Buhlert resaltan que la inteligencia artificial, en su estado actual, carece de autoconsciencia y solo produce respuestas plausibles sin verificar hechos, lo que ha sido denominado como "alucinaciones robóticas". Estos errores no son simples fallas técnicas sino indicativos de las limitaciones intrínsecas de los grandes modelos de lenguaje.
Por último, la controversia alrededor de ChatGPT en la Worldcon de Seattle sirve como advertencia para futuras integraciones de inteligencia artificial en actividades de la vida real. La rapidez con la que estas tecnologías evolucionan no debe cegar a los organizadores ni a las comunidades en la necesidad de controles rigurosos, transparencia y, sobre todo, la participación humana fundamentada que pueda interpretar la complejidad que ningún algoritmo puede comprender plenamente. Este episodio quedará en la historia como un punto de inflexión que marca la tensión entre innovación tecnológica y valores culturales, una batalla donde el equilibrio y el sentido común serán clave para construir un futuro donde la inteligencia artificial complemente en lugar de perjudicar la riqueza del pensamiento humano y la convivencia social.