La Conferencia RSA 2025, celebrada en San Francisco, reunió a cerca de 44,000 asistentes, consolidándose una vez más como uno de los eventos más relevantes en el mundo de la ciberseguridad. En esta edición, un tema prevaleciente dominó las discusiones, exposiciones y paneles: la inteligencia artificial (IA) está presente en todos lados, transformando profundamente tanto las defensas cibernéticas como las tácticas ofensivas a nivel global. Además, la conferencia puso especial atención en la creciente amenaza que representan actores estatales, particularmente China y Corea del Norte, quienes están utilizando tecnologías avanzadas para expandir su influencia en el ciberespacio. En la actualidad, la inteligencia artificial no es solo una herramienta emergente, sino un factor decisivo en el desarrollo de estrategias de ciberseguridad tanto para empresas privadas como para gobiernos. Expertos como Rob Joyce, exjefe de ciberseguridad de la NSA, afirmaron que la IA está prácticamente en todas partes.
Aunque manifiesta un optimismo cauteloso respecto al potencial de la IA para contribuir positivamente al sector, alertó sobre los riesgos inminentes por la explotación maliciosa que irá en aumento durante el próximo año. Un aspecto particularmente resaltado en RSA fue el auge del concepto denominado «IA agente» o agentic AI. Estas inteligencias artificiales autónomas tienen la capacidad de actuar en nombre de humanos o empresas, ejecutando tareas con relativa independencia. Esta autonomía es doble filo, pues si bien facilita procesos y eficiencia, también abre una puerta para que los ciberdelincuentes aprovechen estas herramientas para perpetrar ataques sofisticados y automatizados. En uno de los paneles destacados organizado por Amazon, el enfoque se centró en la seguridad de estos agentes de IA.
Participaron figuras clave como Steve Schmidt, CISO de Amazon, y altos directores de AWS, quienes discutieron los desafíos que conlleva proteger sistemas con IA autónoma contra abusos internos y externos. Se resaltó que, conforme las empresas integren estas tecnologías, deberán establecer barreras robustas para prevenir que los agentes sean manipulados o desviados para fines maliciosos. El lado oscuro de la IA se manifiesta especialmente en las técnicas de fraude y la ingeniería social. La capacidad generativa de la IA permite crear correos electrónicos de phishing tan realistas y precisos que superan con creces las antiguas trampas, evitando errores lingüísticos que antes hacían evidente la falsedad. Adicionalmente, la IA genera documentos falsos, facturas y perfiles comerciales fabricados que dificultan la detección de intentos fraudulentos, representando un enorme reto para los equipos de seguridad.
Una característica preocupante que surgió durante la conferencia fue la implementación de IA por parte de actores estatales y criminales con base en China. Según Cynthia Kaiser, subdirectora adjunta del FBI, China lidera en la utilización masiva de estas tecnologías para ejecutar campañas de ciberataques y espionaje, empleando IA para afinar cada etapa de su cadena ofensiva. Paralelamente, Corea del Norte volvió a acaparar atención con su estrategia de infiltrar personal IT a través de contrataciones en empresas estadounidenses, como revelaron expertos y ejecutivos durante paneles y encuentros fuera de la conferencia principal. Esta táctica busca evadir las medidas tradicionales de protección al insertar agentes directos o intermediarios, incluso nacionales de otros países como India que operan bajo control norcoreano. La magnitud del problema se destacó con relatos de grandes corporaciones Fortune 50 que han identificado múltiples casos de infiltración mediante este método, incluyendo intentos puntuales de acceder a entornos tecnológicos sensibles como Google Cloud.
Especialistas como Charles Carmakal de Mandiant y Sandra Joyce de Google Threat Intelligence subrayaron las dificultades que enfrentan las empresas para detectar y prevenir estas infiltraciones, multiplicadas por el uso de contratistas externos que escapan a los controles convencionales de selección y monitoreo. Sin embargo, también se compartió información valiosa sobre preguntas específicas durante entrevistas que han demostrado ser muy efectivas para expulsar candidatos vinculados a estas intenciones. Más allá de las amenazas técnicas, la conferencia reflejó un ambiente de incertidumbre palpable en torno a la cooperación entre la industria privada y el gobierno estadounidense. La notable ausencia de altos funcionarios gubernamentales y la reducción de programas y personal en organismos claves como CISA generaron preocupación entre muchos asistentes. Esto influye en la capacidad de respuesta frente a emergentes ciberamenazas y podría debilitar la colaboración para enfrentar ataques complejos orchestrados desde el extranjero.
A pesar de estas preocupaciones, representantes de grandes corporaciones tecnológicas como Amazon, CrowdStrike y Google reiteraron que, hasta el momento, su labor diaria y el intercambio de inteligencia no han sufrido impactos significativos. Sin embargo, voces críticas, como la periodista y autora Nicole Perlroth, insistieron en que los recortes de talento y financiamiento en el sector público constituyen una amenaza real a la seguridad cibernética nacional, especialmente ante la creciente actividad maliciosa de actores extranjeros. Un elemento contextual adicional que permeó las discusiones fue la sombra política que las políticas del expresidente Trump y sus consecuencias regulatorias han dejado sobre el sector tecnológico, particularmente en cuanto a relaciones comerciales y restricciones a la exportación de chips esenciales para el desarrollo de IA. Esta coyuntura añade otra capa de complejidad para quienes buscan avanzar en la innovación tecnológica y al mismo tiempo mantener la soberanía digital y la protección frente a ataques. El futuro de la ciberseguridad pasa inevitablemente por la integración cada vez más profunda de la inteligencia artificial.