May 30, 2025 - 2:30 pm

Con una sociedad cada vez más acelerada, resulta difícil evitar el uso de herramientas diseñadas para agilizar procesos y aumentar la productividad.

En este contexto, la inteligencia artificial ha marcado un cambio significativo para la humanidad, transformando la manera en que las personas se desempeñan en sus entornos laborales. También ha comenzado a tener un papel importante en la vida cotidiana, especialmente en la resolución de problemas.

(Vea también: ¿Delirios y psicosis? Uso excesivo de IA de ChatGPT estaría produciendo raros trastornos)

La IA permite automatizar tareas repetitivas, complejas o peligrosas. Esto mejora la eficiencia en sectores como la manufactura, la logística, el transporte y los servicios financieros. Por ejemplo, los sistemas basados en IA pueden procesar millones de transacciones en segundos, algo inalcanzable para un ser humano.

Sin embargo, no todo es color de rosa. El uso desmedido de esta tecnología ha encendido las alarmas entre expertos en ciberseguridad, quienes han manifestado su preocupación por la protección de datos personales. Muchos usuarios no son plenamente conscientes del riesgo que implica compartir información privada con herramientas como ChatGPT, Gemini, Grok, entre otras.

Desde el portal We Live Security se advierte sobre el tipo de preguntas que no deberían dirigirse a una inteligencia artificial, con el objetivo de evitar que ciberdelincuentes accedan a información sensible.

Personas que hacen referencia al uso de inteligencia artificial / Getty Images
Personas que hacen referencia al uso de inteligencia artificial / Getty Images
Lee También
  • Preguntas que involucran información personal o sensible: nunca se deben compartir datos como números de cuentas bancarias, contraseñas o información de identificación durante una conversación con una IA. Aunque la interacción pueda parecer privada, estos sistemas suelen almacenar parte de los datos que reciben para mejorar su funcionamiento. Además, si un atacante lograra ingresar a la sesión, toda la información compartida quedaría expuesta, lo que podría derivar en fraudes o robo de identidad.
  • Información empresarial o relacionada con el trabajo: es riesgoso introducir reportes financieros, estrategias comerciales o datos específicos de clientes, ya que la IA no distingue entre lo confidencial y lo público, y no cuenta con autorización institucional para tratar contenido reservado.
  • Consultas médicas, legales o financieras: aunque estas herramientas pueden ofrecer una primera orientación, no reemplazan el criterio profesional. Tomar decisiones importantes con base en sus respuestas podría acarrear consecuencias negativas.
  • Solicitudes que buscan la opinión de la IA: el portal aclara que estas tecnologías funcionan mediante patrones de datos y algoritmos lingüísticos. No tienen experiencias personales ni opiniones reales. Por eso, si se busca comprensión emocional o apoyo en decisiones significativas, lo más recomendable es acudir a personas cercanas o especialistas capacitados.

(Lea también: Cuánto vale decir “por favor” y “gracias” a ChatGPT: Open IA reveló cantidad impresionante)

¿Cómo evitar un uso indebido de la IA?

La plataforma Pirani, especializada en software de gestión de riesgos cibernéticos, aconseja utilizar técnicas de anonimización y cifrado de datos para proteger la privacidad al interactuar con inteligencia artificial.

Además, recomienda que quienes utilicen estas herramientas supervisen constantemente sus dispositivos y sistemas, con el fin de identificar posibles amenazas a tiempo y prevenir la filtración o el uso indebido de información confidencial.

* Pulzo.com se escribe con Z

Lee todas las noticias de tecnología hoy aquí.