IE 11 is not supported. For an optimal experience visit our site on another browser.

Un abogado usó ChatGPT para un escrito en un juicio. No notó que la aplicación inventó precedentes legales

El jurista, que representa a un hombre que demandó a la aerolínea Avianca, admitió haber usado inteligencia artificial para preparar el documento, sin revisar que estaba repleto de citas de casos judiciales inexistentes. Ahora se expone a una sanción.

Un abogado estadounidense se enfrenta a posibles sanciones después de haber usado el popular ChatGPT para redactar un escrito y descubrirse que la aplicación de inteligencia artificial (IA) se había inventado toda una serie de supuestos precedentes legales.

Según publicó este sábado el diario The New York Times, el letrado en problemas es Steven Schwartz, abogado de un caso que se dirime en un tribunal de Nueva York, una demanda contra la aerolínea Avianca presentada por un pasajero que asegura que sufrió una lesión al ser golpeado con un carrito de servicio durante un vuelo.

[Prohíben discriminar por el peso o la altura en Nueva York]

Schwartz representa al demandante y utilizó ChatGPT para elaborar un escrito en el que se oponía a una solicitud de la defensa para que el caso fuese desestimado.

En el documento de 10 páginas se citan numerosas decisiones judiciales para apoyar sus tesis: entre ellos los casos Martinez v. Delta Air Lines, Zicherman v. Korean Air Lines y Varghese v. China Southern Airlines, según reportó The New York Times.

ChatGPT es un chatbot de inteligencia artificial desarrollado por la empresa OpenAI y lanzado al mercado en noviembre de 2022.
ChatGPT es un chatbot de inteligencia artificial desarrollado por la empresa OpenAI y lanzado al mercado en noviembre de 2022.Rayner Peña R. / EFE

El problema es que ninguno de esos casos es real. Cuando los abogados de la aerolínea y el juez fueron a buscar la jurisprudencia que presentó Schwartz, no encontraron nada. No pasó mucho tiempo antes de descubrirse que el conocido chatbot de la compañía OpenAI se había inventado los casos.

ChatGPT es una plataforma que prepara respuestas a consultas utilizando la inteligencia artificial, el sistema se alimenta de billones de textos en Internet y redacta una serie de conjeturas basado en patrones en los datos con los que ha sido entrenado. Aunque los textos son realistas, no hay garantía de que la información que produce sea legítima.

[Virgin Galactic realiza último vuelo de prueba con humanos]

“La Corte se encuentra ante una situación inédita. Una presentación remitida por el abogado del demandante en oposición a una moción para desestimar (el caso) está repleta de citas de casos inexistentes”, escribió el juez Kevin Castel este mes.

Este viernes, Castel emitió una orden convocando a una audiencia el próximo 8 de junio en la que Schwartz deberá tratar de explicar por qué no debería ser sancionado después de haber tratado de usar supuestos precedentes totalmente falsos.

La orden del juez llegó un día después de que el propio abogado presentase una declaración jurada en la que admitió haber usado ChatGPT para preparar el escrito y reconoció que la única verificación que había llevado a cabo era preguntar a la aplicación si los casos que citaba eran reales.

Schwartz se justificó asegurando que nunca antes había usado una herramienta de este tipo y que, por tanto, “no era consciente de la posibilidad de que su contenido pudiese ser falso”.

El abogado subrayó que no tenía ninguna intención de engañar al tribunal y exculpó totalmente a otro abogado del bufete que se expone también a posibles sanciones.

El documento, visto por EFE, se cierra con una disculpa en la que Schwartz lamenta profundamente haber usado inteligencia artificial para apoyar su investigación y promete no hacerlo nunca más sin verificar totalmente su autenticidad.

Con información de la agencia EFE.