Noticias

domingo, 20 de octubre de 2024

Otro abogado que copio y pegó con IA

Un abogado australiano realizó una presentación en un juzgado de familia citando jurisprudencia falsa que había buscado con una herramienta de inteligencia artificial y la jueza lo advirtió. El caso se remitió a una junta para su investigación tras el reconocimiento del profesional.



El uso de inteligencia artificial y sus riesgos es un tema que suma casos alrededor del mundo donde abogados utilizan las herramientas de IA para elaborar sus escritos y terminan citando jurisprudencia falsa e “inventada” por el programa.


Esta vez en Australia, un país que incluso cuenta con una guía sobre el uso de la IA en la práctica del derecho. Un abogado de Melbourne  realizó una presentación ante un tribunal de familia donde incluía varios precedentes inventados por la IA, lo cual fue advertido por la jueza.


En primer lugar, la magistrada brindó al profesional la oportunidad de defenderse y alegar porque no se debería remitir su caso a la Junta de Servicios Jurídicos y al Comisionado para su investigación.


El letrado posteriormente reconoció la utilización de un programa llamado LEAP que incluía el uso de inteligencia artificial y que el mismo no había verificado la exactitud de la información proporcionada por el software antes de su presentación al tribunal.


 


La IA generativa no exime al jurista responsable de la necesidad de ejercer su juicio y habilidad profesional en la revisión del producto final que se proporcionará al tribunal


 


Así fue que, en un segundo pronunciamiento, y pese a la disculpa del abogado y su alegación de que no entendía bien cómo funcionaba el programa con IA, la jueza Amanda Humphreys decidió igualmente remitir el caso para su investigación, pese a aceptar las disculpas y considerar que era probable que no se repitiera.


“Acepto la disculpa ofrecida por el abogado como genuina y reconozco las medidas que ha tomado para mitigar el impacto de su conducta en la otra parte del litigio, lo que fue confirmado por el abogado de esa parte en una audiencia posterior. Reconozco la alegación del abogado en cuanto al estrés que ha experimentado como resultado de las consecuencias derivadas de su conducta y considero poco probable que la conducta objeto de esta decisión se repita” expresó la magistrada.


La decisión sobre la remisión del caso se fundó en la relevancia del tema, el interés público que había en el caso y la creciente utilización de la inteligencia artificial generativa, considerándose que “la Oficina de la Junta de Servicios Jurídicos de Victoria y el Comisionado son el órgano y el funcionario adecuado para determinar si debe haber alguna investigación adicional o medidas adoptadas con respecto a la conducta del abogado en este caso”


En su resolución, la magistrada alegó que “es importante destacar que las directrices publicadas por el Tribunal Supremo y el Tribunal del Condado de Victoria explican que la IA generativa y los grandes modelos de lenguaje crean resultados que no son producto del razonamiento y tampoco son una herramienta de investigación jurídica.”


Por lo tanto  “la IA generativa no exime al jurista responsable de la necesidad de ejercer su juicio y habilidad profesional en la revisión del producto final que se proporcionará al tribunal” concluyó.


El caso se suma a otros precedentes internacionales como en EEUU o España, ante supuestos donde la IA alucina, tema que explicamos en esta otra nota.

No hay comentarios:

Publicar un comentario