Este abogado usó la herramienta de OpenAI para realizar investigación legal creyendo que estaba ante un buscador más. Lo que no se imaginaba es que le pondrían la cara en vergüenza al presentar toda la jurisprudencia inventada. Un ejemplo más de que la Inteligencia Artificial puede tener sus riesgos.

ChatGPT se inventó la defensa de un abogado

El caso en cuestión comenzó como muchos otros, sobre todo en Estados Unidos. Un hombre llamado Roberto Mata demandó a la aerolínea Avianca, diciendo que resultó herido cuando un carrito de servicio de metal golpeó su rodilla durante un vuelo al Aeropuerto Internacional Kennedy en Nueva York.

Cuando Avianca le pidió a un juez federal de Manhattan que desestimara el caso, los abogados de Mata se opusieron con vehemencia y presentaron un escrito de 10 páginas que citaba más de media docena de decisiones judiciales relevantes. En este escrito se citaban supuestos juicios anteriores. Había un Martínez vs Delta Air Lines, Zicherman vs Korean Air Lines y Varghese vs China Southern Airlines.

+++++++++

Solo hubo un problema: nadie, ni los abogados de la aerolínea, ni siquiera el propio juez, pudo encontrar las decisiones o las citas citadas y resumidas en el escrito. Básicamente, porque ChatGPT se había inventado todo.

El abogado que creó el escrito, Steven A. Schwartz del bufete Levidow & Oberman, se puso a merced de la corte el jueves y dijo en una declaración jurada que había usado el programa de Inteligencia Artificial para hacer su investigación legal: “una fuente que se ha revelado como poco confiable”. Schwartz, quien lleva ejerciendo el oficio de abogado al menos 30 años dijo que «lamenta mucho» haber confiado en ChatGPT «y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad».

Es habitual que en abogacía se utilicen casos anteriores en un juicio. Si hay jurisprudencia, puede utilizarse para dirigir la opinión del tribunal y que la sentencia sea similar a la referida. El problema es que al usar la herramienta de chatbot de OpenAI, se incurre en un posible intento de engaño, aunque este abogado se escuda en que desconocía que no fuera algo similar a un buscador e incluso le había pedido al programa que verificara que los casos eran reales.

¿Por qué Chat-GPT se inventa cosas?

El error grave del abogado se basa en el principio de entender ChatGPT como un buscador más. La herramienta desarrollada por OpenAI utiliza un sistema de entrenamiento llamado Large Language Models (grandes modelos de lenguaje) y basados en aprendizaje automático. Estos pueden leer, resumir, traducir textos y predecir palabras futuras en una frase, lo que les permite generar discursos similares a cómo hablan y escriben los humanos. Esencialmente, lo que no sabe se lo inventa, lo crea. No es consciente de que no lo sabe o puede que a base de haber recopilado información de esos entrenamientos crea que lo sabe.

ChatGPT-Android-movil-logo

GPT-3 se basa en patrones obtenidos a través de grandes cantidades de textos que existen en la web, incluso conversaciones de personas. GPT-4 pretende ser más realista, pero OpenAI nunca ha escondido que la tecnología no es perfecta y a veces sufre estas «alucinaciones».

ChatGPT no hace búsquedas en la web para tener información de acontecimientos recientes, no resuelve cuestiones de actualidad y sus conocimientos llegan hasta un corte de tiempo específico, el año 2021 (al menos en la versión gratuita).

 

Fuente: NY Times | adslzone