En el corazón del conflicto entre Israel y Palestina, la guerra se está transformando radicalmente con la incorporación de inteligencia artificial (IA) en la toma de decisiones militares. Gaza, un territorio densamente poblado y asediado, se ha convertido en un laboratorio donde se prueban y despliegan sistemas automáticos que seleccionan objetivos con un control humano muy limitado. Esta realidad plantea preocupaciones profundas sobre la ética, legalidad y consecuencias humanitarias de delegar decisiones de vida o muerte a algoritmos. El caso del sistema llamado Lavender ilustra el impacto devastador que puede tener la IA militar. Este sistema, que opera en Gaza desde hace casi un año, escanea metadatos, perfiles digitales y patrones de comportamiento para identificar posibles objetivos.
Más de 37,000 palestinos fueron señalados por esta plataforma como amenazas potenciales, muchas veces sin verificación exhaustiva o intervención humana significativa. El resultado son ataques rápidos, violentos y muchas veces imprecisos que han destruido hogares enteros, causando la muerte de numerosas personas inocentes, incluyendo niños y familiares que no tienen relación alguna con operaciones militares. Lavender ejemplifica un paso trascendental en la guerra moderna: decisiones que antes pasaban por un proceso complejo de análisis y validación, ahora se basan en recomendaciones algorítmicas que se aceptan casi sin cuestionamientos. Juniores en las cadenas de mando pueden aprobar un ataque con solo confirmar la información proporcionada por la IA, confiando ciegamente en la supuesta alta tasa de éxito del sistema. Esta confianza automatizada invisibiliza la responsabilidad humana y rompe con los principios básicos del derecho internacional humanitario, que exigen proporcionalidad y discriminación entre combatientes y civiles.
Este tipo de militarización tecnológica no aparece en un vacío, sino que está profundamente conectado con la dinámica global de la industria tecnológica. Empresas gigantes como Amazon Web Services, Google y Microsoft, a través del Proyecto Nimbus, proveen servicios de nube y procesamiento de datos que alimentan estos sistemas de vigilancia y ataques automatizados. A pesar de sus compromisos públicos con la ética en la inteligencia artificial, su colaboración con el ejército israelí ha sido cuestionada por expertos y denunciantes que alertan sobre la falta de transparencia y la ambigüedad entre aplicaciones civiles y militares. El contexto geopolítico y social de Gaza facilita este despliegue de tecnologías letales. La Franja está sometida a un bloqueo constante, con dos millones de habitantes sometidos a vigilancia masiva que convierte sus movimientos, comunicaciones y datos digitales en elementos para alimentar sistemas predictivos.
Este juicio algorítmico se realiza en un espacio sin regulación efectiva, donde los límites éticos y legales se diluyen y quedan suspendidos bajo la excusa de la seguridad nacional. Los efectos son alarmantes. El uso de algoritmos para determinar objetivos de ataque ha provocado unas de las tasas más altas de muertes civiles en conflictos modernos, y ha reducido a los residentes a meros puntos de datos sobre los que se toman decisiones de vida o muerte. La narrativa oficial habla de precisión y éxito en los golpes, pero los testimonios y la evidencia en el terreno muestran destrucción indiscriminada y sufrimiento. La inteligencia artificial, lejos de ser neutral, reproduce los sesgos y prejuicios derivados de años de conflicto, ocupación y deshumanización.
La ausencia de supervisión efectiva y de rendición de cuentas genera un vacío peligroso. Cuando un algoritmo recomienda un objetivo y un humano solo debe aprobarlo con un clic, la responsabilidad se diluye entre desarrolladores, oficiales militares, compañías tecnológicas y gobiernos, de manera que nadie es realmente responsable de las consecuencias atroces. El derecho internacional enfrenta dificultades inéditas para adaptarse a esta realidad. Convenios diseñados para regular decisiones humanas en la guerra no contemplan sistemas autónomos que operan con probabilidades y cálculos matemáticos. Actualmente no existe un tratado internacional vinculante que regule el uso de sistemas letales autónomos, conocidos como LAWS (Lethal Autonomous Weapons Systems).
Mientras la ONU impulsa el debate para establecer un marco legal que prohíba su funcionamiento sin supervisión humana significativa, en la práctica, la industria militar y tecnológica continúa desarrollando y comercializando estas tecnologías con escasa regulación eficaz. Esta situación beneficia a múltiples actores. Israel, con el apoyo financiero de Estados Unidos y la infraestructura tecnológica de grandes corporaciones, mantiene impunidad casi total para operar estos sistemas. Las empresas que proveen la base tecnológica no sufren penalizaciones, incluso cuando sus productos se emplean en violaciones de derechos humanos o se emplean para vigilancia masiva y ataques selectivos. Aunque algunos controles se han implementado sobre tecnología avanzada y chips, estos son insuficientes para detener la proliferación de sistemas de IA militarizados.
El silencio regulatorio es rentable. Israel promueve su tecnología militar basada en IA como tecnología 'probada en batalla', lo que atrae la atención de otros países interesados en adoptar tácticas similares. Esto señala un preocupante proceso de globalización de la guerra algorítmica, con la población palestina como pionera involuntaria y víctima constante. No solo está en juego un conflicto local, sino la posible normalización mundial de sistemas que automatizan la violencia con poca o ninguna supervisión ética o legal. Esta militarización de la IA no es solo una cuestión local o moral, sino que plantea interrogantes fundamentales sobre el futuro de la humanidad.