El avance de la inteligencia artificial (IA) ha transformado múltiples sectores, incluyendo la seguridad pública. Sin embargo, el uso de sistemas de IA por parte de cuerpos policiales ha levantado inquietudes profundas en torno a la ética y la legalidad de su aplicación. En particular, se ha señalado que la inteligencia artificial implantada en la vigilancia y operaciones policiacas a menudo tiene como objetivo maximizar la provocación y el entrampamiento, prácticas controvertidas que pueden vulnerar los derechos básicos de los ciudadanos y alterar el equilibrio en los procesos judiciales. La capacidad de la IA para procesar grandes volúmenes de datos, identificar patrones de comportamiento y realizar predicciones ha sido una herramienta poderosa para las autoridades. En el contexto policial, estas tecnologías permiten monitorear redes sociales, comunicaciones privadas y movimientos de individuos sospechosos.
No obstante, esta vigilancia intensiva puede convertirse en un mecanismo de provocación. A través de algoritmos diseñados para detectar situaciones marginales, la IA puede desencadenar acciones específicas que influyen en el comportamiento de las personas, llevarlas a actuar de manera ilícita o justificar intervenciones policiales que de otro modo no se habrían producido. El entrampamiento, por su parte, se traduce en la creación deliberada de escenarios donde un individuo es inducido a cometer un delito que, sin la intervención policial, posiblemente no habría cometido. En este sentido, la IA puede facilitar la identificación de sujetos vulnerables o con antecedentes marginales y diseñar estrategias para manipular circunstancias que conduzcan a actos delictivos. Esto genera debates éticos severos sobre la legitimidad de estas prácticas, pues se pone en duda la autonomía y responsabilidad de los interpelados.
Además, el uso de IA con fines de provocación y entrampamiento conlleva riesgos significativos en materia de derechos humanos. La presunción de inocencia, el derecho a un juicio justo y la protección contra la manipulación serían vulnerados en contextos donde la policía se vale de estos sistemas para orquestar escenarios que favorezcan condenas. La transparencia y la supervisión de las herramientas de IA resultan insuficientes en muchos países, lo que agrava el problema. Es importante también considerar las implicaciones sociales de esta realidad. La desconfianza hacia las fuerzas policiales puede aumentar cuando se descubre que la tecnología es utilizada como una trampa más que como un instrumento para la justicia.
Sectores vulnerables o colectivos históricamente discriminados pueden ser objetivos preferentes, perpetuando la exclusión y la criminalización social. La legitimidad de las instituciones de seguridad pública se ve afectada, y con ella, la cohesión social y el respeto por las normas legales. Por otra parte, el diseño y desarrollo de la inteligencia artificial encargada de estas funciones suelen estar en manos de grandes corporaciones tecnológicas, muchas veces sin mecanismos de rendición de cuentas claros. Esto genera un círculo donde el poder y el control tecnológico se configuran como herramientas para la vigilancia masiva y la manipulación, alejándose de los principios fundamentales de derechos y justicia. Diversos expertos en ética tecnológica y derechos humanos han alertado sobre la necesidad de regular estrictamente el uso policial de la IA, estableciendo límites claros que impidan la provocación artificial y el entrampamiento.
La implementación de normativas que obliguen a la transparencia de los algoritmos, así como auditorías independientes, puede ser un paso crucial para garantizar que estas tecnologías no violen las garantías individuales. En la práctica, algunos países y organismos internacionales han comenzado a debatir marcos legales para el uso de la IA en seguridad pública, enfatizando la protección a la privacidad, la prohibición de la discriminación algorítmica y la necesidad de obtener consentimiento informado cuando sea posible. Sin embargo, la evolución tecnológica va más rápido que la capacidad legislativa, por lo que aún queda un amplio margen donde estas herramientas se emplean sin regulación efectiva. Asimismo, la sociedad civil juega un papel fundamental en denunciar y cuestionar el uso abusivo o irresponsable de la inteligencia artificial en el ámbito policial. Organizaciones defensoras de derechos digitales y libertades civiles buscan fomentar un debate público informado que permita equilibrar el progreso tecnológico con la preservación de derechos fundamentales.
En definitiva, si bien la inteligencia artificial presenta oportunidades para mejorar la eficiencia y efectividad de los organismos policiales, es crucial no perder de vista los peligros que implican su utilización para provocar conductas delictivas o atrapar injustamente a personas. La transparencia, regulación, supervisión y participación ciudadana son ingredientes esenciales para asegurar que la tecnología sirva al bien común, respetando siempre la dignidad y los derechos humanos. El futuro de la seguridad pública dependerá en gran medida de cómo se maneje la integración de la inteligencia artificial en sus prácticas. La creación de un marco ético robusto que desaliente la provocación y el entrampamiento será clave para evitar que estas tecnologías se conviertan en instrumentos de opresión y manipulación, y en cambio contribuyan a un sistema de justicia más justo y equitativo para todos.