Economía
"Vamos a empezar reducción de personal": primeras empresas anuncian despidos por aumento del salario mínimo
Tú navegador no es compatible para reproducir este audio
Investigadores alertaron que los modelos GPT-4o y GPT-5 pueden ser manipulados con técnicas que engañan al sistema; OpenAI ya corrigió algunas fallas.
Un nuevo estudio de la firma de ciberseguridad Tenable, publicado por el portal especializado The Hacker News, encendió las alarmas sobre los riesgos que podrían enfrentar los usuarios de ChatGPT.
(Vea también: Alerta para clientes de Bancolombia, Davivienda y más en el país por ataques a dispositivos móviles)
Según el informe, los investigadores descubrieron siete vulnerabilidades críticas en los modelos GPT-4o y GPT-5 de OpenAI, que permitirían a ciberdelincuentes engañar al ‘chatbot’ y extraer información personal de los recuerdos y del historial de conversaciones de los usuarios, sin que estos lo noten.
Aunque OpenAI ya solucionó parte de los fallos detectados, los expertos advierten que estas fallas evidencian los límites actuales de seguridad de los modelos de lenguaje grandes (LLM) y su exposición a ataques cada vez más sofisticados.
De acuerdo con los investigadores Moshe Bernstein y Liv Matan, los errores descubiertos abren la puerta a ataques de inyección de comandos indirectos, un tipo de manipulación en la que el atacante introduce instrucciones ocultas dentro del contenido que el modelo analiza. De esa forma, ChatGPT puede ejecutar órdenes maliciosas sin que el usuario lo perciba.
Entre las vulnerabilidades documentadas se destacan:
Los expertos señalan que estos fallos ponen en evidencia un problema de fondo: los LLM no siempre pueden distinguir entre las órdenes legítimas de un usuario y los datos controlados por un atacante, sobre todo cuando se alimentan de información externa.
El reporte de The Hacker News detalla que este tipo de ataques no afecta solo a OpenAI. En semanas recientes, se descubrieron vulnerabilidades similares en otros asistentes de inteligencia artificial, como Claude de Anthropic, Copilot de Microsoft y GitHub Copilot Chat.
Por ejemplo, una técnica llamada ‘PromptJacking’ explota fallas en los conectores de Chrome, iMessage y Notas de Apple para inyectar comandos sin que el sistema los detecte.
Asimismo, una vulnerabilidad bautizada ‘CamoLeak’ en GitHub Copilot permite la exfiltración de secretos y código fuente de repositorios privados, mientras que otra técnica, conocida como ‘LatentBreak’, genera instrucciones que burlan los filtros de seguridad sustituyendo palabras por sinónimos que mantienen el sentido original del mensaje.
Los expertos advierten que estas brechas de seguridad amplían la superficie de ataque de los chatbots, sobre todo cuando están conectados a herramientas externas o acceden a la web, como ocurre con las versiones más recientes de ChatGPT.
Ante este panorama, los expertos en ciberseguridad recomiendan adoptar buenas prácticas para reducir los riesgos al interactuar con sistemas de inteligencia artificial:
"Vamos a empezar reducción de personal": primeras empresas anuncian despidos por aumento del salario mínimo
¿Cuánto descuentan de salud y pensión tras aumento del salario mínimo? Así queda el sueldo real
Golpe a trabajadores independientes por aumento del salario mínimo; Pila quedaría impagable
Alerta por lío que se viene para vigilantes de edificios en Colombia: "Comienzo a rezar"
Empleados que ganan de $ 2 a 3 millones están asustados: nuevo salario mínimo los golpea durísimo
¿Aumento del mínimo del 23 % se caería? Gobierno cometió 3 errores que le demandarían decreto
Destapan preocupante búsqueda en Internet que hizo Zulma Guzmán antes de envenenar a menores
Qué servicios suben 22.7 %, igual que el salario mínimo en Colombia: pasajes, multas y más
Sigue leyendo