Abogado utilizó ChatGPT para demandar a Avianca, pero no todo le salió como esperaba
Tú navegador no es compatible para reproducir este audio
El Colombiano es un grupo editorial multiplataforma con más de 110 años de existencia. Nació en la ciudad de Medellín en Antioquia. Fundado el 6 de febrero de 1912 por Francisco de Paula Pérez, se ha especializado en la investigación y generación de contenidos periodísticos para diferentes plataformas en las que provee a las audiencias de piezas multimediales informativas, de tendencias y de otros recursos destinados a mejorar la calidad de vida del individuo. El Colombiano hace parte de Periódicos Asociados Latinoamericanos (PAL), al que pertenecen otras importantes casas editoriales de Latinoamérica.
Visitar sitioEn medio del caso, el tribunal encontró inconsistencias y se dieron cuenta de que los “antecedentes” que presentó el hombre no existían y eran un invento de IA.
No cabe duda que la inteligencia artificial está de moda alrededor del mundo. Hasta los profesionales también la utilizan para su trabajo, como fue el caso de un abogado que lo hizo para su beneficio.
Pero no todo es color de rosa. En medio del proceso legal que cursaba, se dieron cuenta de que utilizó ChatGPT para recaudar información en una demanda contra la empresa Avianca.
(Lea también: Inteligencia artificial Ilustró al próximo presidente de Colombia; no es Gustavo Petro)
El abogado de un hombre que demandó a Avianca en un caso rutinario de lesiones personales utilizó ChatGPT para preparar un escrito, pero el bot de inteligencia artificial proporcionó casos falsos que el abogado presentó ante el tribunal, por lo que terminó siendo descubierto en pleno caso.
En resumen, se trató del caso de un hombre llamado Roberto Mata, que alegaba que fue “golpeado por un carrito de servicio de metal” a bordo de un vuelo en 2019 durante un vuelo al Aeropuerto Internacional Kennedy en Nueva York y sufrió lesiones personales.
Después de recibir una respuesta negativa, los abogados de Mata, entre ellos Steven Schwartz, prepararon una defensa mostrando varios casos similares que habían sucedido para evidenciar que estos sucesos sí pueden ser tomados como lesiones personales.
Cuando el abogado se dispuso a presentar los otros ejemplos por medio de un escrito, el tribunal encontró varias inconsistencias y se dieron cuenta de que los “antecedentes” no existían. Además, lo más grave del asunto es que estos supuestos casos tenían citas y referencias falsas, que había creado el ChatGPT.
(Vea también: Avianca anunció más vuelos semanales a destinos muy codiciados por colombianos)
Tras conocerse el fraude del abogado, este firmó una declaración jurada admitiendo que utilizó el chatbot de IA, pero afirmó que no tuvo la intención de engañar al tribunal y no actuó de mala fe, por lo que no debería ser sancionado.
Por su parte, el abogado Schwartz concluyó al final de este escrito que no comprendía que ChatGPT “no era un motor de búsqueda, sino una herramienta de procesamiento de lenguaje generativo”.
Al final, esto llevo a que un juez considerara sanciones para el abogado mientras la comunidad legal trata con uno de los primeros casos de “alucinaciones” de la Inteligencia Artificial en un tribunal.
Temas Relacionados:
Recomendados en Economía
Te puede interesar
Nación
Directora del Centro de Memoria murió esperando medicamentos y culpan a famosa EPS
Nación
Mataron a reconocido ganadero dentro de su finca; estaba con empleado y escena horrorizó
Novelas y TV
Vicky Hernández protagonizó tensión en 'Bravíssimo' por "bobería"; Marcelo Cezán contestó
Nación
Foto en WhatsApp de abuela del atacante de Miguel Uribe despierta dudas: mujer en una moto
Nación
Edad de ‘El costeño’, pieza clave en atentado a Miguel Uribe; tiene peligroso historial
Nación
Revelación de Petro en medio de marcha ante violencia en Colombia: "Amenazaron mis hijas"
Nación
Entrenamiento de sicario del caso Miguel Uribe, bajo lupa: le destapan oscuro expediente
Nación
Mujer vinculada en ataque contra Miguel Uribe usó táctica para camuflarse
Sigue leyendo