La inteligencia artificial sigue tomando relevancia en el mundo tecnológico y cada vez son más los sistemas que surgen para sorprender con su capacidad de ejecutar funciones humanas.
Sin embargo, hace poco se conoció una carta abierta, que firmaron mil expertos en inteligencia artificial, para pedir a las compañías que están actualmente desarrollando este tipo de tecnología que se detengan.
(Vea también: Anuncian investigación contra creadores de Chat GPT: hay alerta por “riesgo” de seguridad)
Tal como expresa el texto, las empresas están en “una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de forma fiable”.
Entre los expertos que hicieron la solicitud están Elon Musk, el cofundador de Apple, Steve Wozniak, y el director ejecutivo de la firma Stability AI, Emad Mostaque.
Cuáles son los peligros de la inteligencia artificial
De acuerdo con una publicación de la BBC, en la que citan un informe del banco de inversión Goldman Sachs, uno de los principales riesgos que representa la inteligencia artificial es la posibilidad de eliminar una gran cantidad de empleos que actualmente son ejecutados por personas.
En total, se habla de más de 300 millones de trabajadores que quedarían sin empleo, pues los sistemas que desarrollan mentes no humanas podrían reemplazarlos con facilidad.
“Pausen de inmediato, durante al menos 6 meses, el entrenamiento de los sistemas de inteligencia artificial más potentes como GPT-4”, expresaron los expertos en la carta.
“Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede implementar rápidamente, los gobiernos deberían intervenir e instituir una suspensión”, destacaron.
Por otra parte, OpenAI, la empresa detrás de GPT-4, también hizo una publicación sobre los peligros del sistema que desarrollan y resaltaron que: “Una superinteligencia desalineada podría causar un daño grave al mundo; un régimen autocrático con una superinteligencia decisiva podría hacer eso también”.
LO ÚLTIMO