Nov 17, 2025 - 8:15 am

La creciente adopción de herramientas de inteligencia artificial como ChatGPT ha abierto nuevas posibilidades para trabajar, estudiar, crear contenido e incluso resolver dudas cotidianas. Sin embargo, también ha puesto sobre la mesa riesgos importantes relacionados con la seguridad digital y el manejo de la información personal.

(Vea también: Experta en ciberseguridad dijo las 3 cosas que todo el mundo debería borrar del celular)

La criminóloga y experta en delitos digitales María Aperador advirtió recientemente que muchos usuarios están compartiendo datos altamente sensibles sin ser plenamente conscientes de las consecuencias.

Según la especialista, existen cinco tipos de información que jamás se deberían revelar a ChatGPT ni a ninguna otra plataforma de IA, pues podrían quedar expuestos en caso de filtraciones, fallas de seguridad o mal uso por parte de terceros.

Lee También

Su recomendación va dirigida tanto a usuarios comunes como a empresas que han comenzado a integrar estos sistemas en sus procesos internos.

A continuación, estas son las cinco categorías de información que, según Aperador, deben mantenerse fuera de cualquier chat con inteligencia artificial.

  1. Información personal de identidad

Aperador señala que entregar datos como nombre completo, número de identificación, dirección, lugar de trabajo, fotos personales o detalles familiares puede abrir la puerta a delitos como suplantación, estafas, extorsiones o ingeniería social.

Aunque ChatGPT tiene mecanismos para evitar almacenar información sensible, la experta recalca que “ningún sistema es infalible” y que, por precaución, es mejor no proporcionar nunca esos datos.

  1. Datos médicos y de salud

Historiales clínicos, diagnósticos, síntomas, resultados de exámenes o informes médicos deben permanecer totalmente fuera de cualquier conversación con IA.

Aperador explica que este tipo de información es extremadamente sensible y, si termina en manos equivocadas, podría usarse para discriminación laboral, fraudes en seguros o extorsión emocional.

La recomendación aplica incluso si el usuario solo quiere interpretar un examen o entender un término médico: “es preferible consultar directamente a un profesional de la salud”.

  1. Información financiera

Este es uno de los datos que más comparten los usuarios sin medir el riesgo. La criminóloga recalca que cifras reales de ingresos, extractos bancarios, facturas, movimientos financieros o capturas de cuentas son terreno fértil para los ciberdelincuentes.

Una mínima filtración podría facilitar robos, accesos no autorizados o estafas personalizadas, un delito cada vez más común en Latinoamérica.

  1. Información confidencial de trabajo

Aperador insiste en que ni empleados ni directivos deben revelar documentos internos, bases de datos, contratos, estrategias, información de clientes o detalles de proyectos.

Aunque muchas empresas ya usan IA para mejorar sus procesos, hacerlo desde cuentas personales o sin protocolos es un riesgo serio de fuga de información, violación de acuerdos de confidencialidad y hasta consecuencias legales.

Para la experta, la regla debe ser clara: “si no se puede compartir en público, no se debe subir a un chatbot”.

  1. Contraseñas y credenciales

Este es el error más grave y, aun así, uno de los más frecuentes.

Ningún usuario debería copiar contraseñas, códigos de autenticación, llaves API o capturas de pantalla con credenciales en un chat de IA.

Aperador recalca que este tipo de datos constituye el acceso directo a la identidad digital de una persona o a sistemas corporativos, y un descuido puede resultar en un ataque mayor.

* Pulzo.com se escribe con Z

Lee todas las noticias de tecnología hoy aquí.