author
Escrito por:  Óskar Ortiz
Redactor     Ago 26, 2025 - 11:12 am

Las complicaciones para las celebridades de Colombia detrás de cámaras quedan cada vez más en evidencia, por lo que una de ellas salió al paso de un asunto que la dejaba mal parada.

Amparo Grisales, reconocida por su personalidad directa y tajante, dio la cara debido a una delicada situación en la que su reconocimiento público se convirtió en una herramienta para los estafadores.

La caldense envió un mensaje para su seguidores en el que lanzó una advertencia debido a una realidad que, según contó, la ha convertido en blanco de un delito en ciberseguridad.

¿Qué famosos colombianos son usados para engaños con inteligencia artificial?

Amparo Grisales se sumó a otros famosos colombianos como María Cecilia Botero, Juan Diego Alvira y hasta los presentadores de Caracol Catalina Gómez y Jorge Alfredo Vargas en la lista de celebridades en Colombia de quienes usaron su imagen a través de la inteligencia para ejecutar engaños.

Lee También

“No promuevo productos para la eterna juventud, ni para la hipertensión, ni para tanta basura de estafadores que usan inteligencia artificial para robar la imagen de los que hemos construido una imagen con trabajo y disciplina”, avisó Grisales desde su cuenta personal de X (antes conocido como Twitter).

La jurado de ‘Yo me llamo’, programa de canto e imitación de Caracol Televisió, explicó cómo ha identificado que es el modo de operación de esa delicada práctica delincuencial en la que acabó salpicada por la suplantación de identidad con publicaciones para intenciones comerciales.

“Generalmente es en Facebook. No solo te roban el dinero. Es peligroso que te estén dañando la salud con productos que son veneno y engaño”, remarcó la actriz y modelo caldense.

‘La diva’ descartó cualquier clase de promoción que no tenga el sello de sus cuentas personales en los espacios digitales, tema que aclaró en el remate de una advertencia contundente.

“Cuando represente un producto lo verán en mis redes y serán productos de alta calidad. Qué no te engañen”, sentenció por medio de un mensaje en el que zanjó de tajo ese asunto.

El uso de videos hechos con inteligencia artificial para estafas es un problema cada vez más recurrente, en particular cuando se utiliza la imagen de una figura pública para convencer a las personas de la credibilidad de un producto u otra clase de servicios.

A pesar de que parezca un problema menor, existe una realidad que tiene que ver con el veloz avance de la tecnología como mecanismo para que los delincuentes la aprovechen en contra de la sociedad.

¿Cómo identificar un video con famosos hecho con inteligencia artificial?

Identificar un video de un famoso hecho con inteligencia artificial, conocido como ‘deepfake’, es cada vez más difícil, pero existen técnicas y señales de alerta que te ayudarán a agudizar el ojo crítico. La clave para no caer en publicaciones falsas está en analizar tres aspectos fundamentales: los detalles visuales, el audio y, sobre todo, el contexto del video.

Aunque la tecnología ha avanzado mucho, a menudo deja pequeños errores que la delatan. Se debe prestar atención minuciosa a los siguientes elementos:

  • Rostro y piel: la piel puede parecer demasiado lisa, casi plástica, o por el contrario, no coincidir con la edad o las arrugas conocidas del famoso. Buscar inconsistencias en la iluminación del rostro en comparación con el resto del cuerpo o el fondo. A veces, los bordes de la cara, donde se une con el cuello o el cabello, se ven borrosos o presentan una ligera distorsión.
  • Ojos y parpadeo: los patrones de parpadeo suelen ser un gran indicador. Un parpadeo poco frecuente, demasiado rápido o simplemente antinatural puede ser una señal de que el video es falso. Los ojos también pueden carecer de reflejos naturales de la luz del entorno.
  • Movimientos y gestos: observar si los movimientos de la cabeza o del cuerpo se ven rígidos o poco fluidos. Los gestos faciales pueden no corresponder completamente con la emoción que se está expresando. Prestar especial atención a los dientes; a veces la IA no los renderiza correctamente y pueden verse borrosos o con una forma extraña.

El audio es otro componente donde la IA puede fallar. Escuchar con atención:

  • Calidad y tono de la voz: la voz puede sonar monótona, robótica o carecer de las inflexiones emocionales naturales de una persona al hablar. A veces, se pueden escuchar ruidos extraños o una cadencia de habla inusual.
  • Sincronización labial: ver si el movimiento de los labios coincide perfectamente con las palabras que se están diciendo. Una mala sincronización labial (‘lip-sync’) es una de las señales más claras de un ‘deepfake’.

La evaluación del Contexto y la fuente es, quizás, el método más efectivo para una persona promedio. Antes de creer lo que ves, es pertinente hacerse estas preguntas:

  • ¿La fuente es confiable?: ¿el video fue publicado en las cuentas oficiales verificadas del famoso o en un medio de comunicación de prestigio? ¿O proviene de una cuenta anónima en redes sociales o un sitio web desconocido?
  • ¿El mensaje es creíble?: ¿el famoso está diciendo algo extremadamente polémico, fuera de su carácter o promocionando un producto dudoso (como una criptomoneda milagrosa)? Si suena demasiado bueno, malo o extraño para ser verdad, probablemente no lo sea.
  • Buscar una segunda opinión: la regla de oro. Si una figura pública de renombre hiciera una declaración impactante, la noticia estaría en todos los principales portales informativos del mundo en cuestión de minutos. Hacer una búsqueda rápida en Google para verificar si otros medios están reportando lo mismo.

La tecnología de los ‘deepfakes’ mejora constantemente, por lo que la mejor herramienta es siempre el escepticismo saludable.

* Pulzo.com se escribe con Z

Lee todas las noticias de entretenimiento hoy aquí.