Un nuevo estudio de la firma de ciberseguridad Tenable, publicado por el portal especializado The Hacker News, encendió las alarmas sobre los riesgos que podrían enfrentar los usuarios de ChatGPT.
(Vea también: Alerta para clientes de Bancolombia, Davivienda y más en el país por ataques a dispositivos móviles)
Según el informe, los investigadores descubrieron siete vulnerabilidades críticas en los modelos GPT-4o y GPT-5 de OpenAI, que permitirían a ciberdelincuentes engañar al ‘chatbot’ y extraer información personal de los recuerdos y del historial de conversaciones de los usuarios, sin que estos lo noten.
Aunque OpenAI ya solucionó parte de los fallos detectados, los expertos advierten que estas fallas evidencian los límites actuales de seguridad de los modelos de lenguaje grandes (LLM) y su exposición a ataques cada vez más sofisticados.
Siete vulnerabilidades críticas en ChatGPT
De acuerdo con los investigadores Moshe Bernstein y Liv Matan, los errores descubiertos abren la puerta a ataques de inyección de comandos indirectos, un tipo de manipulación en la que el atacante introduce instrucciones ocultas dentro del contenido que el modelo analiza. De esa forma, ChatGPT puede ejecutar órdenes maliciosas sin que el usuario lo perciba.
Entre las vulnerabilidades documentadas se destacan:
- Inyección de código malicioso a través de sitios de confianza: si ChatGPT resume una página web que contiene instrucciones ocultas en los comentarios, puede ejecutar esas órdenes sin advertirlo.
- Inyección sin clic en el contexto de búsqueda: el simple hecho de consultar información sobre un sitio indexado en motores como Bing podría activar comandos maliciosos si la página contiene instrucciones disfrazadas.
- Inyección con un solo clic: los atacantes pueden crear enlaces con formato, lo que hace que el modelo ejecute automáticamente el comando incrustado al abrir la URL.
- Omisión de mecanismos de seguridad: al aprovechar que el dominio “bing[.]com” es de confianza para ChatGPT, se pueden enmascarar direcciones maliciosas y hacerlas pasar como seguras.
- Inyección de conversación: si el modelo resume una web con instrucciones ocultas, esas órdenes pueden quedarse en el contexto de la conversación y alterar respuestas posteriores.
- Ocultamiento de contenido malicioso: errores en la forma en que ChatGPT procesa texto en formato ‘Markdown’ permiten esconder mensajes dentro de bloques de código.
- Inyección de memoria: los atacantes pueden “envenenar” la memoria del chatbot al introducir instrucciones secretas en sitios web que luego son resumidos por el modelo.
Los expertos señalan que estos fallos ponen en evidencia un problema de fondo: los LLM no siempre pueden distinguir entre las órdenes legítimas de un usuario y los datos controlados por un atacante, sobre todo cuando se alimentan de información externa.
El reporte de The Hacker News detalla que este tipo de ataques no afecta solo a OpenAI. En semanas recientes, se descubrieron vulnerabilidades similares en otros asistentes de inteligencia artificial, como Claude de Anthropic, Copilot de Microsoft y GitHub Copilot Chat.
Por ejemplo, una técnica llamada ‘PromptJacking’ explota fallas en los conectores de Chrome, iMessage y Notas de Apple para inyectar comandos sin que el sistema los detecte.
Asimismo, una vulnerabilidad bautizada ‘CamoLeak’ en GitHub Copilot permite la exfiltración de secretos y código fuente de repositorios privados, mientras que otra técnica, conocida como ‘LatentBreak’, genera instrucciones que burlan los filtros de seguridad sustituyendo palabras por sinónimos que mantienen el sentido original del mensaje.
Los expertos advierten que estas brechas de seguridad amplían la superficie de ataque de los chatbots, sobre todo cuando están conectados a herramientas externas o acceden a la web, como ocurre con las versiones más recientes de ChatGPT.
Recomendaciones de seguridad
Ante este panorama, los expertos en ciberseguridad recomiendan adoptar buenas prácticas para reducir los riesgos al interactuar con sistemas de inteligencia artificial:
- Evitar abrir enlaces desconocidos o sospechosos que incluyan referencias a ChatGPT o promesas de funciones “ocultas”.
- No compartir información personal o sensible en conversaciones con chatbots.
- Desactivar el acceso a la web o los plugins si no son necesarios para la tarea.
- Usar contraseñas únicas y autenticación de dos pasos en las cuentas de OpenAI u otros servicios de IA.
- Actualizar las aplicaciones y navegadores para incorporar los parches de seguridad más recientes.
* Pulzo.com se escribe con Z
LO ÚLTIMO