author
Periodista nocturno     Feb 14, 2024 - 5:46 pm

Los ‘deepfakes’ son generalmente videos que usan la inteligencia artificial para falsificar la imagen de personajes famosos, llegando a imitar sus voces para mostrarlos haciendo o diciendo cosas que nunca hicieron ni dijeron en la realidad.

En Colombia se trata de un fenómeno todavía incipiente que recién comenzó a tener notoriedad en las elecciones recientes, cuando Carlos Fernando Galán y Alejandro Éder denunciaron ser víctimas de este tipo de jugadas sucias en época electoral, similar a lo que denunció en su momento Gustavo Bolívar.

Sin embargo, fue incluso más notorio que recientemente usaron la imagen de Luis Díaz y de Noticias Caracol, pero esta vez con el fin de impulsar una estafa monetaria.

(Lea también: Alertan por nueva estafa en Colombia: usan nombre de Luis Díaz y meten a Noticias Caracol)

Pulzo investigó el tema y halló otros casos en los que los estafadores también abusan de la imagen de otros jugadores de la Selección Colombia y de más medios de comunicación para intentar hacer caer a más personas en estafas que aparentan ser de tipo piramidal, pues piden una inversión y prometen ganancias imposibles.

Los más comunes en la red social Facebook se los atribuyen a una supuesta árbitro de fútbol que se hace llamar “Daniela Reyes”. Es la misma que usa la imagen de Díaz y Noticias Caracol en otro video, pero también lo hace falsificando una nota en el noticiero CM& del Canal 1. Lo curioso es que en este caso lo hace usando a una periodista de Citytv.

@pulzocolombia 😡 ¿Qué tal? Mucho cuidado con los videos donde usan la imagen de presentadoras de noticias y jugadores de fútbol para promocionar una estafa piramidad, son creados con la IA. #deepfake #jamesrodriguez #ia #fyp ♬ Neutral background music03_Press, Politics, Wars, Economics, Incident, Accident, Explanation, Journalism, Report, Global Crisis(1261752) – Ney

En la nota, se habla de la supuesta jueza de fútbol como “una chica exitosa” que “ayuda a los colombianos a aumentar sus inversiones” y “solucionar todos sus problemas financieros en pocos días”, con la falsa promesa de “pagar deudas y encaminarse a la riqueza e independencia financiera”.

Lee También

En una nota noticiosa que aparece con el rótulo del noticiero CNC Noticias, se manipula la imagen y se imita la voz de Yerry Mina para que diga que “Reyes” es “una mujer santa y una gran socia”. Usando la inteligencia artificial, se oye una voz muy parecida a la del jugador diciendo que ella “está tan dedicada como yo a ayudar a la gente de nuestro país”.

Algo parecido hace otro perfil que habla de una mujer que se identifica como “Isabella Rodríguez”, cuyo caso aparece en una nota falsa de Noticias RCN, donde una de las presentadoras asegura que la estafadora “ayuda a la gente de Colombia a multiplicar sus inversiones” y “resolver todos sus problemas financieros en solo unos días”.

“Darío Tesoro” es otro de los nombres que se usan para estafar como supuestos casos de éxito. Este figura usando a Cablenoticias, donde aparece un falso presentador asegurando que el hombre “enseña a las personas a ganar dinero” y detalla que se requiere “invertir 80.000 para obtener un beneficio de 900.000 pesos”.

La estafa con James Rodríguez y Noticias Caracol

Uno más que aparece en estos videos para captar dinero de incautos es James Rodríguez, quien aparece en una nota falsa de Noticias Caracol. Allí, curiosamente comentan que el cucuteño “finaliza su carrera deportiva” y por eso creó un emprendimiento “con su hermana Isabella”. Es ahí donde entra la voz falsa del ’10’, muy parecida a la real:

“Creamos este proyecto para que la gente de Colombia sea feliz y no necesite nada”, dice la falsa voz. “Solo una inversión puede cambiar tu vida para mejor” y “olvidarte de todos tus problemas financieros”, promete.

El falso James dice que el supuesto inversionista, o sea su víctima, “solo necesita teléfono e internet”, y, como en los demás videos, aparece un testimonio impostado que habla del supuesto éxito de la trama.

¿Qué es un ‘deepfake’ y cómo funciona?

Un ‘deepfake’ es una técnica de inteligencia artificial (IA) que permite crear videos o imágenes falsas de personas realizando acciones o expresando palabras que en realidad nunca han hecho. Esto se logra mediante algoritmos avanzados de aprendizaje automático que analizan y generan contenido visual convincente. El término enfatiza en la habilidad para generar contenido engañoso de alta calidad.

El proceso detrás de un ‘deepfake’ implica el entrenamiento de un algoritmo con grandes cantidades de datos, como imágenes y videos de la persona que se pretende falsificar. La IA aprende las características faciales y los patrones de expresión de la persona, lo que le permite manipular y superponer esos rasgos en otro video o imagen. El resultado es un contenido visual realista que puede ser difícil de distinguir de la realidad.

(Vea también: Así están tumbando a nombre del Acueducto de Bogotá; delincuentes piden plata y se vuelan)

Aunque los deepfakes pueden tener aplicaciones creativas y divertidas, como en el mundo del entretenimiento o la publicidad, también plantean serias preocupaciones éticas y de seguridad. Por ejemplo, pueden ser utilizados para difundir información falsa o desinformación, comprometiendo la integridad de figuras públicas o políticas, además de las estafas y extorsiones, o campañas de desinformación a gran escala.

Para evitar caer en la trampa de los deepfakes, es fundamental desarrollar un pensamiento crítico y estar alerta ante la posibilidad de encontrarse con contenido manipulado. Es recomendable verificar la fuente y la autenticidad de los videos o imágenes sospechosas, buscando información adicional o contrastando con otras fuentes confiables. Además, el uso de herramientas de verificación de contenido, como la búsqueda de metadatos o la comparación de rasgos faciales con imágenes conocidas, puede ayudar a detectar posibles ‘deepfakes’.

Lee todas las noticias de tecnología hoy aquí.