ChatGPT es una herramienta de conversión de chatbot creada por OpenAI en 2020 que aprende a través del lenguaje humano para interactuar con los usuarios.

La herramienta está diseñada para responder a las preguntas y solicitudes de la manera más natural y fluida posible, presentando un comportamiento lo más humano posible.

(Vea también: Cleopatra, la ‘Pola’ y otras mujeres de la historia mundial representadas con AI)

Es por ello que se ha utilizado en diversos sectores y el académico es uno de ellos. Incluso, ha escrito libros y ahora hasta presenta exámenes de conocimiento en las universidades.

Así es, esta inteligencia artificial ya fue implementada en la Universidad de Minnesota, donde se utilizó para resolver un examen de la facultad de Derecho.

Ante esta situación, se desató toda una conversación sobre el aporte de la herramienta para el sector y hasta dónde pueden llegar a usarla los estudiantes para no tener que investigar y escribir ellos mismos.

¿Cuál fue el examen aprobado por ChatGPT?

Jonathan Choi es un profesor de la facultad de derecho de esta reconocida universidad y aplicó las mismas preguntas a la inteligencia artificial y a cuatro de sus estudiantes próximos a graduarse.

El resultado fue que ChatGPT aprobó los exámenes, aunque no lo hizo como el mejor de los estudiantes y quedó en penúltimo lugar en la mayoría de las asignaturas evaluadas.

(Vea también: ¿Se acorta futuro de la radio? Crean emisora y locutores manejados por inteligencia artificial)

“Durante la redacción de sus ensayos, ChatGPT demostró que dominaba las reglas jurídicas de base y que su organización y composición eran sólidos”, indicaron los docentes que calificaron las pruebas.

Sin embargo, agregaron que “le costaba detectar los problemas cuando se le planteaba una pregunta abierta, lo que es un requisito esencial en los examenes de las facultades de Derecho”.

Lee También

Otras pruebas presentadas por ChatGPT

En contraste con el éxito que tuvo esta herramienta presentado el examen de la facultad de Derecho, no le fue tan bien al responder una prueba de sexto grado en Singapur.

El medio local The Straits Times informó que el cuestionario era para la finalización de la primaria y logró obtener 16 de 100 puntos, por lo que falló con la mayoría de las respuestas.

Entre las equivocadas estuvieron las de matemáticas y algunas de textos simples, aunque logró destacar en los artículos científicos e inglés.

Cuéntenos en los comentarios qué opina de esta clase de herramientas desarrolladas para apoyar al ser humano en sus labores diarias.

*Este artículo fue creado con ayuda de Robby Tecnología, una inteligencia artificial que utiliza machine learning para producir texto similar al humano, y curado por un periodista de Pulzo.