La Inteligencia Artificial ha conseguido récords de usuarios gracias a su habilidad de resolver problemas y crear soluciones para cualquier situación que se planteen en la vida real. 

(Ver también: Inteligencia Artificial predice cómo se acabara el mundo, el resultado es aterrador)

Sin embargo, ante esto, el Director ejecutivo de Open Ai, Sam Altman, la compañía detrás del ChatGPT, afirmó que esta tecnología puede cambiar a la humanidad tal cual se conoce y que es un riesgo que se pueda salir de las manos si las personas descubren cómo utilizarlo para tareas que afecten al bien común.

Riesgos de la Inteligencia Artificial

En diálogo con el medio ABC en el que se trataron temas del lanzamiento de GPT-4, la última tecnología lanzada con menos errores, dijo: “Aún no es perfecto, pero obtuvo un puntaje de 90 % en uno de los exámenes de derecho más importantes del mundo. También obtuvo una puntuación casi perfecta en la prueba de matemáticas SAT y ahora puede escribir con soltura código informático en la mayoría de los lenguajes de programación“, afirmó.

Sin embargo, esto puede traer problemas a futuro si no es utilizado correctamente, principalmente en la seguridad cibernética. “Estoy particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala. Ahora que están mejorando en la escritura de código de computadora, podrían usarse para ataques cibernéticos graves“, dijo.

Pese a esto, Altman aseguró que es muy poca la posibilidad de que se maneje de manera autónoma, ya que la tecnología solo funciona si tiene a alguien que le dé las instrucciones correctas para desarrollar una tarea.

El peligro real es que las personas comiencen a utilizar esta herramienta para temas que afecten a otras: “Habrá otros usuarios que no pongan algunos de los límites de seguridad que ponemos nosotros. Creo que la sociedad tiene una cantidad limitada de tiempo para descubrir cómo reaccionar ante eso, cómo regularlo, cómo manejarlo”, sentenció.

Características del ChatGPT-4

Según OpenAI, GPT-4 tiene grandes mejoras con respecto a la iteración anterior, incluida la capacidad de comprender las imágenes como entrada. 

Las demostraciones muestran a GTP-4 describiendo lo que hay en la nevera de alguien, resolviendo acertijos e incluso articulando el significado detrás de un meme de Internet.

Lee También

Actualmente, solo un pequeño grupo de usuarios puede acceder a esta función, incluidas unas personas con discapacidad visual que forman parte de su prueba beta, pero un problema constante con los modelos de lenguaje, según Altman, es la información errónea. Es decir, el programa puede brindar a los usuarios información objetivamente inexacta.

Por eso es que no es perfecto aún, pero teniendo en cuenta que con cada prueba se va haciendo mejor.