En un momento en que la inteligencia artificial avanza con rapidez y transforma numerosos campos, su aplicación en la guerra ha llevado a la comunidad internacional a enfrentar nuevos desafíos éticos, legales y estratégicos. Las llamadas armas autónomas, los llamados “robots asesinos”, han pasado a ocupar un lugar cada vez más importante en los arsenales de defensa modernos, pero la regulación se encuentra rezagada en la arena internacional. La reciente reunión en Naciones Unidas busca revitalizar las conversaciones para establecer normas claras y vinculantes que regulen el desarrollo y uso de esos sistemas. La urgencia es palpable: si no se actúa rápido, la proliferación incontrolada de tecnologías letales automatizadas podría desatar una carrera armamentista sin precedentes con consecuencias imprevisibles para la seguridad global y los derechos humanos. Desde hace años, las armas autónomas, que incluyen drones kamikazes, sistemas que identifican y atacan objetivos sin intervención humana directa, han sido utilizadas en múltiples conflictos como en Ucrania, Gaza y varias regiones de África.
Estas tecnologías no solo transforman la manera en que se libra la guerra, sino que plantean profundas preguntas éticas sobre la delegación del poder de vida o muerte a máquinas. Sin embargo, aunque la utilización de estas tecnologías crece, la comunidad internacional no ha logrado consenso suficiente para la regulación vinculante. Desde 2014, bajo el paraguas de la Convención sobre Armas Convencionales (CCW, por sus siglas en inglés), se llevan a cabo negociaciones en Ginebra con la intención de establecer parámetros que prohíban el desarrollo y uso de sistemas completamente autónomos sin control humano significativo y regulen el resto de las tecnologías autónomas aplicadas a la guerra. La expectativa se centra en que para 2026 se puedan acordar reglas claras que guíen la conducta de los estados y eviten desbordes peligrosos. El Secretario General de la ONU, Antonio Guterres, ha subrayado la importancia de poner un freno a la escalada en esta nueva frontera bélica.
Sin embargo, la realidad demuestra que muchas potencias, entre ellas Estados Unidos, Rusia, China e India, prefieren mantener la regulación al nivel de directrices nacionales o aprovechando marcos legales internacionales existentes, argumentando que no están convencidos de que estas leyes sean insuficientes. Esta postura, en opinión de grupos de derechos humanos y expertos en desarme, pone en riesgo la posibilidad de evitar escenarios catastróficos. Las ONG y activistas, como los miembros de campañas que buscan prohibir los “robots asesinos”, advierten que el avance acelerado de estas tecnologías sin un marco legal robusto podría conducir a violaciones masivas de derechos humanos y a la dificultad de asignar responsabilidades en caso de abusos o daños colaterales. La ausencia de control pone en evidencia grietas importantes en la protección del derecho internacional humanitario y en el respeto a la dignidad humana. A nivel operativo, se han documentado elevados niveles de despliegue de sistemas autónomos en zonas de conflicto.
Por ejemplo, se estima que Rusia ha utilizado cerca de 3000 drones kamikazes en Ucrania, capaces de detectar y atacar objetivos sin intervención humana directa. Por su parte, Ucrania ha empleado drones semiautónomos en sus operaciones, mientras que Israel ha desarrollado y utilizado sistemas apoyados en inteligencia artificial para identificar objetivos en Gaza, asegurando que todo se realiza respetando las leyes internacionales. No obstante, la disparidad entre países y la pluralidad de regulaciones o ausencia de ellas generan un terreno fértil para el aumento del riesgo y la inestabilidad. La falta de mecanismos claros para garantizar la responsabilidad en el uso de estas armas autónomas es otro frente importante. En caso de errores, ataques injustificados o impactos indirectos a civiles, la pregunta sobre quién responde –el fabricante, el desarrollador del software, el estado que los emplea o el operador– sigue sin respuesta clara en numerosos casos.
Esta incertidumbre representa una amenaza para la justicia internacional y contraviene principios fundamentales del derecho humanitario. Los expertos señalan también el peligro de una carrera armamentista tecnológica. La competencia por lograr sistemas más autónomos, letales y eficientes podría intensificarse rápidamente, provocando un desequilibrio global y potencialmente llevando a que países sin marcos regulatorios ni controles sociales los utilicen de manera irresponsable. Este escenario incrementa el riesgo de confrontaciones accidentales, malinterpretaciones y conflictos ampliados. Además, preocupa la posible proliferación de estas armas a actores no estatales, incluidos grupos terroristas o milicias que podrían accionar sistemas autónomos sin control ni ética, aumentando exponencialmente los riesgos para la población civil en zonas de conflicto y la seguridad global.
La reunión en la ONU representó un paso importante para impulsar el diálogo y afinar posiciones, aunque no hubo acuerdos vinculantes. Los defensores de un tratado internacional legalmente obligatorio hicieron un llamado a superar las divisiones existentes y establecer marcos comunes que pongan límites a una tecnología que, de avanzar sin reglas, podría hacer insostenible el control humano en la guerra. El debate también gira en torno a los aspectos éticos, con preguntas sobre la legitimidad de permitir que máquinas tomen decisiones de matar. El rechazo a delegar ese poder a sistemas algorítmicos sin supervisión humana representa un punto común para organizaciones de derechos humanos y grupos civiles. La comunidad internacional se encuentra en un momento decisivo.