La inteligencia artificial (IA) está revolucionando la investigación biomédica y biotecnológica, especialmente en la rápida creación y diseño de proteínas con aplicaciones que van desde el desarrollo de medicamentos hasta nuevas terapias y vacunas. Sin embargo, esta misma capacidad tecnológica ha generado inquietudes sobre su posible mal uso en el diseño de armas biológicas o moléculas tóxicas que podrían poner en riesgo la salud pública mundial. Frente a esta amenaza potencial, un grupo de investigadores ha propuesto una serie de salvaguardas integradas dentro de los propios sistemas de inteligencia artificial que podrían actuar como freno ante la generación de compuestos peligrosos o permitir la trazabilidad del origen de una posible amenaza biológica. La preocupación sobre el mal uso de IA para manipular y diseñar proteínas tóxicas nace de los avances en modelos como RFdiffusion o ProGen, capaces de generar secuencias proteicas inéditas con funcionalidades específicas en tiempos extremadamente cortos. La accesibilidad simplificada de estas herramientas, donde incluso personas sin formación avanzada pueden teoréticamente generar compuestos peligrosos, amplifica el riesgo.
Es aquí donde la comunidad científica ha comenzado a enfatizar la necesidad de controles integrados que no dependan exclusivamente de la autorregulación o compromisos éticos, sino que se implementen de forma técnica dentro de los propios algoritmos y plataformas. Uno de los enfoques más innovadores es la introducción de sistemas de marcaje digital de los productos generados por IA. Inspirándose en tecnologías similares a las empleadas para rastrear imágenes o videos creados digitalmente, se ha desarrollado un método llamado FoldMark, capaz de insertar códigos únicos en la estructura tridimensional de las proteínas diseñadas. Estos códigos son invisibles para la funcionalidad biológica de la proteína, pero permiten identificar sin duda alguna el origen de una molécula en caso de usarse con fines maliciosos. Esta técnica representa un salto en la bioseguridad ya que no solo previene sino que también facilita la respuesta rápida ante incidentes, implementando una especie de identidad digital para moléculas biológicas.
Además del marcaje, las propuestas apuntan a modificar el entrenamiento de los modelos de IA para restringir el acceso y generación de proteínas peligrosas. Esto implica implementar procesos de “desaprendizaje” o “unlearning”, donde los modelos se entrenan de forma específica para no reproducir ni generar secuencias asociadas a toxinas o agentes patógenos conocidos. De esta manera, la IA se orienta hacia un diseño seguro, evitando sugerencias que puedan resultar en productos biológicos dañinos. Por otro lado, se plantea la implementación de sistemas de detección automática con capacidad para reconocer y rechazar las órdenes o solicitudes que tengan como intención diseñar moléculas peligrosas, denominados mecanismos de “antijailbreaking”. Estas defensas ayudarían a blindar los sistemas ante intentos de evasión o manipulación de los modelos para usos ilícitos, elevando el nivel de seguridad y control.
Asimismo, las propuestas subrayan la importancia de introducir agentes autónomos que monitoricen el uso de la inteligencia artificial en tiempo real, alertando a responsables o autoridades ante cualquier comportamiento sospechoso o desarrollo potencialmente riesgoso. La vigilancia activa proporcionaría una capa adicional de prevención, complementando las barreras técnicas incorporadas dentro del propio modelo. Sin embargo, la implementación de estas salvaguardas plantea desafíos técnicos, regulatorios y éticos importantes. La coordinación internacional, el establecimiento de organismos reguladores especializados y la cooperación entre los sectores público, privado y académico son fundamentales para dotar a estas medidas del marco legal y operativo necesario. Además, se reconoce que los controles no pueden quedar solo en el diseño del modelo, sino que deben extenderse a los niveles donde la IA interactúa con el mundo físico, como las instalaciones que producen y distribuyen las moléculas diseñadas.
Desde una perspectiva regulatoria, algunos expertos sugieren que el enfoque no debe centrarse únicamente en la programación de la IA, sino también en supervisar el proceso completo que lleva del diseño computacional a la producción a escala. Esto permitiría establecer protocolos para identificar el origen y propósito de cada diseño, someterlas a evaluaciones de riesgo y garantizar que solo se utilicen con fines legítimos y controlados. La comunidad científica ha comenzado a asumir una postura proactiva frente a estas cuestiones. Un grupo de más de cien investigadores ha firmado compromisos formales que abogan por el uso responsable de la IA en biología y biotecnología, reconociendo la necesidad de un enfoque multifacético que combine salvaguardas técnicas, buenas prácticas y regulaciones adecuadas. El rápido avance de la inteligencia artificial en la modelación y diseño de proteínas es una oportunidad sin precedentes para la medicina y la ciencia.