La Worldcon o Convención Mundial de Ciencia Ficción es uno de los eventos más emblemáticos para aficionados, escritores, artistas y profesionales del género de la ciencia ficción y fantasía a nivel global. En su edición del año 2025, que se celebrará en Seattle, la organización de la convención tomó la decisión de experimentar con herramientas de inteligencia artificial para facilitar una de las etapas más complejas de su programa: la selección y evaluación de panelistas. Esta iniciativa ha abierto un amplio debate en la comunidad acerca del uso ético y práctico de tecnologías como ChatGPT en procesos culturales y creativos. El contexto de esta decisión radica en el enorme volumen de solicitudes de participación que la convención recibe cada año. Worldcon es una reunión diversa que acoge a cientos, incluso miles, de aspirantes a panelistas que incluyen autores, editores, académicos, críticos y aficionados con conocimiento especializado.
Gestionar esta gran cantidad de aplicaciones y asegurar que quienes participen respeten los códigos de conducta, valores de inclusión y tolerancia del evento es vital para garantizar el éxito y la seguridad de la convención. En respuesta a este desafío, el equipo de programación de Seattle Worldcon decidió probar un método innovador para agilizar el proceso de evaluación. Para la etapa de vetting o revisión previa, implementaron ChatGPT, un modelo avanzado de inteligencia artificial desarrollado por OpenAI, para realizar búsquedas rápidas de referencias y posibles controversias relacionadas con los candidatos elegidos para los paneles. Sin embargo, el uso de esta herramienta no estuvo exento de polémica y críticas dentro de la comunidad. El proceso completo de selección de panelistas se dividió en dos fases principales.
En la primera, aproximadamente 30 líderes de áreas temáticas específicas seleccionaron a los aspirantes más afines y destacados según su propio criterio experto, basándose en las aplicaciones recibidas, el conocimiento previo sobre los candidatos y la visión de cada track para la programación. Esta etapa fue totalmente humana y subjetiva, dejando fuera el uso de inteligencia artificial. La segunda fase, el vetting, consistió en investigar si los candidatos recomendados tenían antecedentes o comportamientos que infringieran el código de conducta de Worldcon o su declaración antirracista. En esta etapa fue donde se utilizó ChatGPT, principalmente para listar enlaces y referencias digitales relevantes sobre los candidatos, que luego fueron revisados minuciosamente por el equipo. Es fundamental recalcar que ningún panelista fue rechazado únicamente por los resultados obtenidos por la IA; siempre hubo un análisis humano posterior para validar o descartar la información.
Desde el anuncio oficial, la comunidad de ciencia ficción demostró sentimientos encontrados. Por un lado, hubo quienes apreciaron la intención de modernizar y eficientizar el proceso, entendiendo las limitaciones de recursos humanos en un evento tan masivo. Por otro, se manifestaron voces duras que criticaron el uso de ChatGPT por ser una herramienta que, según sus argumentos, se basa en datos obtenidos sin consentimiento previo de autores y que podía generar errores o mezclas de información por homónimos o contenido erróneo. La objeción ética también tomó un gran peso en las discusiones. Varias personas señalaron la contradicción que representa organizar una convención literaria que utiliza una tecnología ampliamente discutida por apropiarse sin permiso de materiales creativos para su entrenamiento.
Este hecho acrecentó la sensación de incongruencia y desencanto que vivió parte del público ante el descubrimiento de esta práctica en el contexto de una convención de escritores y creadores. Entre las inquietudes más destacadas también se señaló el riesgo de violación de privacidad, dado que el proceso implicaba ingresar nombres completos de personas en un sistema externo. Esto suscitó debates en torno a la clasificación de la información personal y los derechos de los participantes a controlar el uso de sus datos, sobre todo en regiones con normativas estrictas como Europa con su Reglamento General de Protección de Datos (GDPR). Frente a estas críticas, los responsables de Seattle Worldcon emitieron declaraciones muy detalladas ofreciendo disculpas y explicaciones transparentes. Reconocieron que el uso de ChatGPT fue un error, aunque limitado a un solo aspecto del proceso de vetting y siempre acompañado de supervisión humana.
Además, anunciaron que se descartaría totalmente el resultado obtenido y que se repetiría la evaluación sin la intervención de ninguna inteligencia artificial. También se comprometieron a realizar una auditoría independiente de sus procedimientos y a mejorar los canales de comunicación interna y externa para evitar futuras malas decisiones. Conscientes de la pérdida de confianza generada, la organización afirmó que mantendría actualizaciones periódicas para informar el progreso de estas acciones. La polémica tuvo consecuencias tangibles en la estructura del comité organizador. Si bien algunos miembros del WSFS (World Science Fiction Society) desistieron de su participación, otros tomaron sus responsabilidades para asegurar la continuidad y la integridad de los premios Hugo y el programa general del evento.
Esta respuesta administrativa mostró la tensión entre rendición de cuentas y la necesidad de mantener la organización operativa. El debate sobre el uso de la inteligencia artificial en actividades culturales como Worldcon refleja un fenómeno social mayor. Por un lado, se valoran los beneficios potenciales de estas tecnologías para facilitar procesos complejos y ahorrar recursos. Por otro, existen temores concretos por la ética, la fiabilidad, la protección de derechos y la esencia humana que rodea a la creatividad y la expresión literaria. Algunos expertos internos y externos a la comunidad señalaron que una búsqueda rápida de información para encontrar referencias polémicas no difiere mucho de un asistente humano realizando una investigación por internet; sin embargo, alertaron sobre los riesgos de errores, sesgos y datos desactualizados con los que las inteligencias artificiales aún operan.
Subrayaron que la implementación debía ser cuidadosa, adaptada a las necesidades específicas y con programas de supervisión estrictos. Entre las voces de apoyo se destacó la idea de que las herramientas como ChatGPT son solo instrumentos, cuyo valor ético y funcional depende del uso que se les dé. Resaltaron que desaprovechar la tecnología por miedo o rechazo puede limitar el progreso y la capacidad de gestión eficaz en eventos multitudinarios que deben equilibrar calidad, inclusión y variedad. La comunidad de ciencia ficción, acostumbrada a imaginar futuros con avances tecnológicos disruptivos, enfrenta así una disyuntiva real: cómo integrar lo mejor de la innovación sin sacrificar los principios fundamentales que la sustentan, como el respeto al trabajo creativo, la diversidad, la responsabilidad y el cuidado del tejido social que une a sus miembros. En conclusión, la experiencia de Seattle Worldcon 2025 con ChatGPT sirve como un caso emblemático para reflexionar sobre los límites, riesgos y oportunidades del uso de inteligencia artificial en la organización de eventos culturales.
La transparencia y la voluntad de corregir errores son pasos fundamentales para reconstruir la confianza, mientras que la comunidad seguirá vigilante y expectante ante futuras decisiones que involucren tecnología y creatividad. La evolución de Worldcon y su capacidad para integrar soluciones tecnológicas de forma responsable marcarán un precedente no solo para otras convenciones sino para todo el ecosistema cultural y literario contemporáneo. En última instancia, el desafío reside en encontrar un equilibrio entre eficiencia y ética, innovación y respeto, que permita conservar el espíritu que ha hecho de Worldcon un punto de encuentro esencial para todos los amantes de la ciencia ficción y la fantasía.