Reino Unido: Advierten sobre riesgos de usar IA en casos ante tribunales
Vista de la Corte Real de Justicia en Londres, el viernes 17 de marzo de 2023. (AP Foto/Frank Augstein, Archivo)
LONDRES (AP) — Abogados han citado casos falsos generados por inteligencia artificial en procedimientos judiciales en Reino Unido, ha dicho una jueza, advirtiendo que los abogados podrían ser procesados si no verifican la exactitud de su investigación.
La jueza del Tribunal Superior, Victoria Sharp, afirmó que el mal uso de la inteligencia artificial tiene “implicaciones serias para la administración de justicia y la confianza pública en el sistema judicial”.
En el último ejemplo de cómo los sistemas judiciales de todo el mundo están lidiando con cómo manejar la creciente presencia de la inteligencia artificial en los tribunales, Sharp y el juez Jeremy Johnson reprendieron a los abogados en dos casos recientes en un fallo emitido el viernes.
Se les pidió que dictaminaran después de que jueces de tribunales inferiores expresaran preocupaciones sobre el “uso sospechoso por parte de abogados de herramientas de inteligencia artificial generativa para producir argumentos legales escritos o declaraciones de testigos que luego no se verifican”, lo que lleva a que se presente información falsa ante el tribunal.
En un fallo redactado por Sharp, los jueces dijeron que en una demanda de 90 millones de libras (120 millones de dólares) por un supuesto incumplimiento de un acuerdo de financiamiento que involucra al Banco Nacional de Qatar, un abogado citó 18 casos que no existían.
El cliente en el caso, Hamad Al-Haroun, se disculpó por engañar involuntariamente al tribunal con información falsa producida por herramientas de IA disponibles públicamente, y dijo que él era el responsable, en lugar de su abogado Abid Hussain.
Pero Sharp dijo que era “extraordinario que el abogado estuviera confiando en el cliente para la exactitud de su investigación legal, en lugar de al revés”.
En el otro incidente, un abogado citó cinco casos falsos en una reclamación de vivienda de un inquilino contra el distrito londinense de Haringey. La abogada Sarah Forey negó haber usado IA, pero Sharp dijo que ella “no proporcionó al tribunal una explicación coherente de lo que sucedió".
Los jueces remitieron a los abogados en ambos casos a sus reguladores profesionales, pero no tomaron medidas más serias.
Sharp dijo que proporcionar material falso como si fuera genuino podría considerarse desacato al tribunal o, en los “casos más atroces”, pervertir el curso de la justicia, lo que conlleva una pena máxima de cadena perpetua.
Ella dijo en el fallo que la inteligencia artificial es una “tecnología poderosa” y una “herramienta útil” para el derecho.
“La inteligencia artificial es una herramienta que conlleva riesgos, así como oportunidades”, dijo la jueza. “Por lo tanto, su uso debe llevarse a cabo con un grado adecuado de supervisión y dentro de un marco regulatorio que garantice el cumplimiento de estándares profesionales y éticos bien establecidos si se quiere mantener la confianza pública en la administración de justicia”.
____
Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa.