» Ir al portal nuevo de Microjuris OK
Las opiniones expresadas en este artículo son únicamente del(a) autor(a) y no reflejan las opiniones y creencias de Microjuris o sus afiliados.
Por el Lcdo. Manuel A. Quilichini
Lo que ocurrió hace unos días en Arizona parece sacado de una serie de ciencia ficción, pero fue muy real y sucedió en un tribunal penal. En el caso de Christopher Pelkey, un veterano del ejército asesinado en 2021 durante un incidente de "road rage", su familia decidió hacer algo fuera de lo común para la vista de sentencia del acusado: crearon un video con inteligencia artificial generativa en el que el propio Christopher "habla", en primera persona, y ofrece su declaración de impacto como víctima... tres años después de fallecido.
La hermana del occiso redactó lo que pensaba que él habría dicho de estar vivo. Luego, utilizando un modelo de IA generativa, recrearon su imagen y su voz, y presentaron el video al juez durante la fase de sentencia. En el video, Pelkey agradece el apoyo de sus seres queridos y, sorprendentemente, se dirige al acusado para expresarle su perdón.
El video no se presentó como prueba ni hubo jurado en sala. Fue utilizado exclusivamente como parte del testimonio que se permite en esta etapa procesal, algo común en muchos estados, aunque rara vez con esta dosis de creatividad tecnológica. El juez, lejos de incomodarse, lo recibió con agrado y terminó imponiendo una sentencia de 10.5 años de prisión, un año más de lo que recomendaba el ministerio público. En entrevista posterior, el juez agradeció el gesto de la hermana de la víctima y afirmó que «le encantó».
Se dice que este fue el primer caso en que una imagen y voz generadas artificialmente se utilizan exitosamente para expresarse en un tribunal de justicia. Aunque no es la primera vez que alguien intenta algo similar: en Nueva York, un demandante trató de argumentar una moción utilizando un avatar de IA y terminó recibiendo una severa reprimenda judicial. Aun así, el evento de Arizona refleja claramente cómo la inteligencia artificial generativa está comenzando a insertarse en nuestros procesos legales.
En Puerto Rico, la Regla 162.1 de Procedimiento Criminal permite que la víctima, o su representante, pueda ofrecer una declaración oral sobre el efecto del delito. Pero... ¿qué pasa si ese "representante" es un avatar digital o una simulación por IA? La regla no define quién —o qué— puede fungir como representante de la víctima. Eso deja abierta la posibilidad de que, ante la falta de prohibición expresa, algún juez más receptivo acepte una intervención de este tipo. El terreno está fértil.
Y ahí es donde surgen los problemas.
Aceptar "representantes virtuales" puede representar un serio riesgo para la integridad del proceso judicial. Algunos colegas restan importancia al incidente, argumentando que el video no se usó como prueba, que no hubo jurado, y que el juez puede discernir por sí mismo. Pero en la práctica, sabemos que este tipo de recursos puede influir profundamente en la psiquis de quien toma decisiones, y más aún si está cargado de elementos visuales y emocionales.
Además, plantea serias desigualdades. ¿Qué pasa con las víctimas que no tienen acceso a esta tecnología? ¿O con los acusados que no tienen cómo contrarrestar ese nivel de sofisticación? Y ni hablar del potencial de incluir, en esas declaraciones sintéticas, datos inexactos o dramatizaciones manipuladoras que busquen influenciar indebidamente al tribunal. Porque al final del día, jueces o no, todos somos humanos.
El caso de Arizona puede parecer novedoso, pero sienta un precedente riesgoso si se extiende a otras jurisdicciones o si, peor aún, comienza a utilizarse como sustituto de la prueba directa. Por eso, como comunidad jurídica, debemos estar muy atentos. La tecnología debe estar al servicio de la justicia, no al revés.
No podemos permitir que la innovación socave principios fundamentales del debido proceso como la equidad, la confrontación y la autenticidad.
Las columnas deben enviarse a mad@corp.microjuris.com y deben ser de 600-800 palabras.