Un abogado usó un avatar de IA en una defensa y generó polémica en Nueva York
Un hombre intentó presentar sus argumentos mediante un avatar generado por IA ante un tribunal. La Justicia advirtió sobre la falta de transparencia en su uso.
El uso de un avatar de IA en lugar de una comparecencia real exige una declaración previa para evitar sanciones judiciales.
ShutterstockLa integración de herramientas de inteligencia artificial en el sistema judicial de los Estados Unidos enfrenta un nuevo límite ético tras un incidente en una corte de apelaciones. El uso de un avatar de IA por parte de un ciudadano que se representaba a sí mismo provocó el rechazo inmediato de los magistrados neoyorquinos.
El protagonista del caso, Jerome Dewald, presentó un video grabado donde una persona ficticia exponía sus argumentos legales. Durante la audiencia, la jueza Sallie Manzanet-Daniels interrumpió la reproducción al notar anomalías en la imagen del orador. Al ser consultado, Dewald admitió que el hombre en pantalla no era una persona real, sino una creación digital. La magistrada manifestó su desagrado por no haber sido informada sobre la naturaleza del video antes de la aplicación y ordenó apagar la pantalla.
El riesgo del avatar de IA en el sistema judicial
Dewald, de 74 años, actuó en la práctica como su propio abogado y explicó posteriormente que utilizó el software debido a sus dificultades para hablar con fluidez en procedimientos anteriores. Su intención original era crear una versión digital de sí mismo, pero problemas técnicos lo llevaron a generar un sujeto ficticio que vestía una camisa azul y un suéter beige.
Este episodio expone los peligros de la inteligencia artificial cuando se utiliza sin protocolos claros de transparencia en un estrado. Expertos legales señalan que, aunque la tecnología puede ayudar a personas que no pueden pagar representación profesional, el riesgo de "alucinaciones" o información falsa sigue vigente. En el pasado, otros letrados enfrentaron sanciones por presentar escritos con citas judiciales inexistentes generadas por sistemas similares, lo que pone en duda la fiabilidad de estos métodos.
Desafíos de la inteligencia artificial frente a la ley
La aparición de este avatar de IA en un tribunal de Nueva York no es un hecho aislado dentro de la jurisprudencia reciente. En 2023, un abogado fue sancionado por usar ChatGPT para redactar un escrito que incluía opiniones judiciales totalmente falsas. Asimismo, Michael Cohen admitió haber proporcionado citas erróneas obtenidas de un programa generativo sin verificar su autenticidad antes de entregarlas al juez.
La falta de regulación específica sobre el uso de un avatar de IA en presentaciones orales genera confusión en los procesos. Daniel Shin, investigador del Centro de Tecnología Legal, advirtió que la información producida por estos modelos puede parecer convincente pero ser totalmente ficticia. La transparencia debe ser la prioridad absoluta cuando una persona decide apoyarse en software para litigar. La desaprobación de la jueza Manzanet-Daniels marca un precedente sobre la obligación de informar cualquier uso de tecnología sintética en el ámbito judicial para no inducir al error a los magistrados.

