Por Khari Johnson, Calm
La multa parece ser la mejor emitida en la fabricación de IA por un tribunal de California y vino con un abrasador Declarando que 21 de las 23 citas de asuntos mencionadas en la memoria de apertura del abogado fueron compuestas. También señaló que muchos tribunales fuera del estado y los federales enfrentaron a los abogados por invocar una falsa autoridad legal.
“Por lo tanto, publicamos esta opinión como una advertencia”, continuó. “Si simplemente se indica, no hay breve, petición, solicitud o cualquier otro documento presentado ante un tribunal debe contener cualquier cotización, ya sea proporcionada por una IA generativa o cualquier otra fuente, que el abogado responsable de la presentación del argumento no haya leído y revisado personalmente”.
La opinión, emitida hace 10 días ante el Tribunal de Apelación del 2º Distrito de California, es un claro ejemplo de la razón por la cual las autoridades legales del estado se apresuran a regular el uso de IA en el poder judicial. El Consejo de Estado de Justicia hace dos semanas Pautas emitidas que requieren jueces y personal judicial Prohibir la generación de IA, adoptar una política generativa de uso de IA antes del 15 de diciembre. Mientras tanto, la Asociación de Abogados de California planea fortalecer su código de conducta para tener en cuenta varias formas de IA luego de una solicitud de la Corte Suprema de California el mes pasado.
El abogado de la región de Los Ángeles condenó una multa la semana pasada, Amir Mostafavi, le dijo a la corte que no había leído el texto generado por el modelo IA antes de presentar la llamada en julio de 2023, meses después de que Operai comercializó Chatgpt como capaz de ser capaz de Pasando el examen de la barra. Un panel de tres jueces lo infligió en una multa por haber hecho una apelación frívola, violando las reglas de la corte, citando casos falsos y desperdició el tiempo de la corte y el dinero de los contribuyentes, según la opinión.
Mostafavi le dijo a Calmatters que había escrito la llamada, luego usó Chatgpt para tratar de mejorarla. Dijo que no sabía que agregaría citas o inventaría cosas.
Él piensa que no es realista esperar que los abogados dejen de usar IA. Se ha convertido en una herramienta importante, así como las bases de datos en línea han reemplazado en gran medida las bibliotecas de derecho, y hasta que los sistemas de IA detengan la información falsa, sugiere que los abogados que usan IA para proceder con precaución.
“Mientras tanto, tendremos víctimas, someteremos daños, tendremos pruebas”, dijo. “Espero que este ejemplo ayude a otros a no caer en el agujero. Pigo el precio”.
La multa dirigida a Mostafavi es la sanción más costosa emitida a un abogado por un tribunal en el estado de California y una de las multas más altas jamás emitidas para el uso de abogados de IA, según Damien Charlotin, que enseña una clase sobre IA y la ley en una escuela de negocios de París. Él rastros Caso de abogados que citan casos falsos principalmente en Australia, Canadá, Estados Unidos y el Reino Unido.
En un caso ampliamente publicado en mayo, un juez del Tribunal de Distrito Americano en California ordenaron que dos firmas de abogados pagaran $ 31100 en costos para el abogado defensor y el tribunal por los costos asociados con el uso de “investigación de la investigación sobre AI-AI”. En esta decisión, el juez describió sentirse engañoso, dijo que casi habían citado materiales falsos en un orden judicial y dijo que “es necesaria una fuerte disuasión para garantizar que los abogados no sucumban a este accesorio fácil”.
Charlotin cree que los tribunales y el público deberían esperar ver un aumento exponencial en estos casos en el futuro. Cuando comenzó a seguir los documentos judiciales que involucraban casos de IA y falsos a principios de este año, se reunió con algunos negocios al mes. Ahora ve algunos casos al día. Los modelos de grandes idiomas indican con confianza se encuentran como hechos, especialmente cuando no hay hechos.
“Cuanto más difícil sea su argumento legal, más el modelo tenderá a alucinar, porque intentarán complacerlo”, dijo. “Aquí es donde entra en juego el sesgo de confirmación”.
A Análisis de mayo de 2024 Por Reglab, de la Universidad de Stanford, señaló que aunque tres de cada cuatro abogados planean usar una IA generativa en su práctica, ciertas formas de IA generan alucinaciones en una en tres solicitudes. Detectar materiales falsos mencionados en depósitos legales podría ser más difícil a medida que los modelos se desarrollan en tamaño.
Otro rastreador Los casos en que los abogados citan la autoridad legal inexistente debido al uso de IA identifican 52 de estos casos en California y más de 600 a escala nacional. Esta cantidad debería aumentar en el futuro cercano, porque la innovación de IA va más allá de la educación de los abogados, dijo Nicholas Sanctis, un estudiante de derecho de la Facultad de Derecho de la Universidad de Capital en Ohio.
Jenny Wondracek, quien dirige el proyecto Tracker, dijo que espera que esta tendencia empeore, porque siempre se encuentra con abogados que no saben que la IA inventa o cree que las herramientas tecnológicas legales pueden eliminar todos los materiales falsos o falsos generados por los modelos de lenguaje.
“Creo que veríamos una reducción si (los abogados) simplemente entendieran los conceptos básicos de la tecnología”, dijo.
Al igual que la charlotina, sospecha que hay más casos de casos realizados generados por IA en archivos judiciales estatales que en los tribunales federales, pero la falta de métodos de depósito estándar dificulta la verificación. Ella dijo que cumplió con los casos falsos con mayor frecuencia entre los abogados sobrecargados o las personas que eligen defender al tribunal de familia.
Ella sospecha que el número de argumentos presentados por los abogados que usan IA y citan casos falsos continuarán aumentando, pero agregó que no solo los abogados estaban involucrados en la práctica. En las últimas semanas, ella ha documentado tres Jueces citando una falsa autoridad legal en sus decisiones.
Si bien California considera cómo tratar las citas generadoras de IA y casos, Wondracek dijo que podrían considerar los enfoques adoptados por otros estados, como suspensiones temporales, exigiendo a los abogados que quedan atrapados para comprender mejor cómo usar la IA ética o exigirles que Enseñe a los estudiantes de derecho cómo pueden evitar cometer el mismo error.
Mark McKenna, co -director del Instituto de Tecnología de la UCLA, Derecho y Políticas, elogió multas como esa contra Mosfavi, como castigar a los abogados por “una abdicación de su responsabilidad como alguien que representa a alguien”. Él piensa que el problema “empeorará antes de que mejore” porque había una prisa entre las facultades de derecho y las empresas privadas para adoptar la IA sin pensar en la forma apropiada de usarlas.
El maestro de la escuela de derecho de la UCLA Andrew Selbst, enfatizando que los empleados que trabajan para jueces son graduados recientes de la Facultad de Derecho, y que los estudiantes son bombardeados con un mensaje de que deben usar IA o dejarse de ser dejados. Educadores y otros profesionales Informar presiones similares.
“Esto está creciendo todas nuestras gargantas”, dijo. “Se empuja a empresas y escuelas y muchos lugares y aún no hemos enfrentado las consecuencias”.
Publicado originalmente: