Abogado tropieza en tribunales al pedir a ChatGPT aportar precedentes legales

En un caso inusual, abogado estadounidense recurrió a ChatGPT para preparar una presentación legal. El resultado fue un informe repleto de fallos judiciales inexistentes.

En una causa judicial reciente, citada por The New York Times, un abogado estadounidense de nombre Steven A. Schwartz confió en la inteligencia artificial para preparar su argumento ante la corte, con resultados decepcionantes.

Roberto Mata, pasajero de Aviaca que resultó lesionado cuando un carrito de servicio golpeó su rodilla durante un vuelo desde El Salvador a Nueva York, presentó una demanda contra la aerolínea. Cuando Avianca pidió a un juez federal de Manhattan que desestimara el caso, los abogados de Mata se opusieron enérgicamente, presentando un escrito de 10 páginas que citaba más de media docena de decisiones judiciales relevantes. Se incluía Martínez contra Delta Air Lines, Zicherman contra Korean Air Lines y Varghese contra China Southern Airlines, agregando una erudita discusión de la ley federal y “el efecto dilatorio de la suspensión automática en un estatuto de limitaciones”.

Sólo había un inconveniente: Nadie -ni los abogados de la aerolínea, ni siquiera el propio juez- pudieron encontrar estos precedentes judiciales ni las citas y extractos contenidos en el escrito. La razón era que ChatGPT lo había inventado todo.

Steven A. Schwartz, el abogado redactor del informe, confesó que había recurrido a ChatGPT mientras preparaba su argumentación legal. Aseguró que no tenía la intención de engañar a la corte ni a la aerolínea y que no volvería a utilizar ChatGPT sin verificar completamente su contenido.

El juez calificó el incidente como una “circunstancia sin precedentes”, precisando que se trataba de una presentación legal llena de “decisiones judiciales ficticias, citas y referencias internas inexistentes”. Se ha programado una audiencia para discutir posibles sanciones contra el profesional.

ChatGPT crea respuestas realistas al predecir secuencias de texto basándose en un modelo estadístico que ha analizado miles de millones de ejemplos extraídos de Internet. En este caso, logró imitar con precisión la estructura de un escrito legal, pero lo llenó de nombres y hechos extraídos arbitrariamente de casos existentes.

Schwartz reveló que había consultado a ChatGPT como un complemento a su propio trabajo. Aseguró haber preguntado específicamente al programa si se trataba de precedentes legales auténticos, a lo que ChatGPT respondió afirmativamente.

“El caso Roberto Mata contra Avianca Inc. deja una lección clara: a pesar de los avances tecnológicos, las profesiones de cuello blanco aún tienen cierto margen antes de que los robots asuman por completo”, concluye señalando The New York Times.


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022