No cabe duda que la inteligencia artificial está de moda alrededor del mundo. Hasta los profesionales también la utilizan para su trabajo, como fue el caso de un abogado que lo hizo para su beneficio.

Pero no todo es color de rosa. En medio del proceso legal que cursaba, se dieron cuenta de que utilizó ChatGPT para recaudar información en una demanda contra la empresa Avianca.

(Lea también: Inteligencia artificial Ilustró al próximo presidente de Colombia; no es Gustavo Petro)

El abogado de un hombre que demandó a Avianca en un caso rutinario de lesiones personales utilizó ChatGPT para preparar un escrito, pero el bot de inteligencia artificial proporcionó casos falsos que el abogado presentó ante el tribunal, por lo que terminó siendo descubierto en pleno caso.

En resumen, se trató del caso de un hombre llamado Roberto Mata, que alegaba que fue “golpeado por un carrito de servicio de metal” a bordo de un vuelo en 2019 durante un vuelo al Aeropuerto Internacional Kennedy en Nueva York y sufrió lesiones personales.

Después de recibir una respuesta negativa, los abogados de Mata, entre ellos Steven Schwartz, prepararon una defensa mostrando varios casos similares que habían sucedido para evidenciar que estos sucesos sí pueden ser tomados como lesiones personales.

Cuando el abogado se dispuso a presentar los otros ejemplos por medio de un escrito, el tribunal encontró varias inconsistencias y se dieron cuenta de que los “antecedentes” no existían. Además, lo más grave del asunto es que estos supuestos casos tenían citas y referencias falsas, que había creado el ChatGPT.

(Vea también: Avianca anunció más vuelos semanales a destinos muy codiciados por colombianos)

Tras conocerse el fraude del abogado, este firmó una declaración jurada admitiendo que utilizó el chatbot de IA, pero afirmó que no tuvo la intención de engañar al tribunal y no actuó de mala fe, por lo que no debería ser sancionado.

Por su parte, el abogado Schwartz concluyó al final de este escrito que no comprendía que ChatGPT “no era un motor de búsqueda, sino una herramienta de procesamiento de lenguaje generativo”.

Al final, esto llevo a que un juez considerara sanciones para el abogado mientras la comunidad legal trata con uno de los primeros casos de “alucinaciones” de la Inteligencia Artificial en un tribunal.