En un caso sin precedentes en los Estados Unidos, una familia en Arizona recurrió a la inteligencia artificial para dar voz a un hombre que fue asesinado hace dos años. Christopher Pelkey, víctima de un tiroteo en un incidente de ira vial en Chandler, Arizona, logró «hablar» en la corte durante la audiencia de sentencia gracias a un video generado con tecnologías avanzadas de IA. Este hecho no solo rompió moldes en el sistema legal estadounidense, sino que también abrió una nueva ventana para el uso de herramientas digitales en procesos judiciales y el derecho a la expresión de las víctimas. La tragedia sucedió en 2021 cuando Christopher Pelkey fue fatalmente atacado por Gabriel Paul Horcasitas en un semáforo. Durante el juicio y la consecuente audiencia de sentencia, la hermana de Pelkey, Stacey Wales, enfrentó el reto emocional de expresar lo que sentía respecto al crimen y el impacto que la pérdida conlleva.
A pesar de acumular numerosos testimonios y declaraciones de personas cercanas a su hermano, Wales tenía dificultades para encontrar las palabras precisas que transmitieran el verdadero espíritu de Christopher. La inspiración llegó cuando Stacey se percató de que podía escuchar la voz interior de su hermano, lo que la condujo a la audaz idea de usar inteligencia artificial para generar un video en el que “él” mismo dirigiera un mensaje de impacto directo al hombre que le arrebató la vida. Con la ayuda de su esposo y un socio con experiencia en tecnología AI, lograron construir un mensaje audiovisual que simulaba la voz y la imagen de Pelkey, utilizando una combinación de clips de video y fotografías disponibles, así como algoritmos para recrear su tono y hasta su risa. La creación del video no estuvo exenta de dificultades técnicas. La necesidad de contar con audio claro fue un obstáculo, dado que las grabaciones originales tenían mucho ruido de fondo.
Además, tuvieron que realizar modificaciones en la imagen, como eliminar los lentes oscuros que Pelkey llevaba en algunas fotos y ajustar detalles como el recorte de su barba para facilitar la animación. Todo ello se apoyó en distintas herramientas de inteligencia artificial que, combinadas, permitieron producir un video de aproximadamente cuatro minutos y medio, en el que la «versión» digital del fallecido expresaba un mensaje cargado de perdón y esperanza. El día de la audiencia, Wales presentó el video ante el juez y los asistentes, en lo que parece ser la primera vez que ese tipo de tecnología es utilizada para transmitir una declaración de impacto de la víctima en un tribunal de Estados Unidos. El propio juez Todd Lang reconoció el valor del video y elogió el acto al indicar que el mensaje mostraba el verdadero carácter de Christopher y la profundidad del dolor de su familia. El mensaje, además, fue conciliador y buscó transmitir un legado de amor, perdón y reconciliación, precisando que Pelkey siempre creyó en Dios y en el poder de perdonar incluso situaciones tan trágicas como la que él vivió.
Aunque el mensaje afectó profundamente a la familia y al público presente, la defensa de Horcasitas presentó una apelación bajo el argumento de que era necesario establecer hasta qué punto el juez había basado la sentencia en este video generado por inteligencia artificial. Sin embargo, ni el acusado ni el juzgador manifestaron objeciones directas en el momento. La sentencia terminó siendo de 10.5 años por homicidio culposo, un castigo que reflejaba el peso de la evidencia y la gravedad de los hechos. Este caso pone en el centro del debate el papel emergente de la inteligencia artificial en la justicia y en cómo la tecnología puede ser empleada para amplificar las voces de aquellos que ya no pueden expresarse por sí mismos.
Diversos expertos legales han observado que el uso de IA para crear declaraciones de impacto de víctimas es un fenómeno novedoso con pocas polémicas éticas identificadas hasta el momento, siempre y cuando se use con transparencia y buena fe. La profesora Maura Grossman, de la Universidad de Waterloo, señaló que el hecho de que el video se presentara ante un juez y no un jurado limita sus implicaciones y riesgos. La conversación sobre el uso de AI en el ámbito jurídico no se limita a los testimonios de víctimas. En años recientes, se han documentado casos donde avatares digitales y textos generados por ordenadores han sido presentados en juzgados, algunos con resultados polémicos. Por ejemplo, en 2023, el abogado Michael Cohen entregó a su equipo citas legales generadas erróneamente por herramientas de inteligencia artificial, lo que reveló la necesidad de verificar con rigor este tipo de información.
Más recientemente, la aparición de avatares legales generados por IA ha suscitado rechazo judicial inmediato, debido a sus limitaciones y riesgos de mala praxis. Sin embargo, el caso de Christopher Pelkey representa un uso respetuoso y emocionalmente significativo de estas tecnologías. Para Stacey Wales, la experiencia de crear el video fue una forma de catarsis y un proceso de sanación personal. Le permitió conectar con el recuerdo de su hermano desde una nueva dimensión y darle la dignidad de expresar su voz en un momento crucial. Además, su hijo adolescente tuvo la oportunidad de escuchar un emotivo adiós de su tío, algo que nunca había podido hacer en vida.
El desarrollo del video llevó a Wales a reflexionar sobre la mortalidad y la importancia de preservar recuerdos en formato digital. Inspirada por las dificultades de recrear la voz de su hermano, ella misma grabó un video con sonidos de su propia voz y risas para que su familia pueda tener acceso a registros claros en el futuro, señalando la revolución que implica contar con esta tecnología para el duelo y la memoria. Entre los expertos en derecho y ética tecnológica, hay consenso en que el uso de inteligencia artificial para generar contenido relacionado con personas fallecidas debe ser regulado con especial cuidado para evitar abusos. Gary Marchant, profesor de leyes y tecnología de la Universidad Estatal de Arizona, comentó que las declaraciones de víctimas a través de IA probablemente sean el uso menos cuestionable y que dentro de este fenómeno surgen usos malintencionados que pueden crear falsedades perjudiciales. El video también ha motivado un diálogo sobre la integridad y la intención detrás del uso de estas herramientas.