Otra periodista de RCN, suplantada para estafas; asegura que usan su cara y su voz con IA

Bogotá
Tiempo de lectura: 3 min

Tú navegador no es compatible para reproducir este audio

Escrito por:  Jessica Jones
Actualizado: 2024-06-09 09:34:05

Maritza Aristizábal subió un video a sus redes sociales mostrando lo que está pasando con una página fraudulenta que usa videos de personajes públicos.

Con la ayuda de la inteligencia artificial, las estafas con la cara y hasta con la voz de figuras públicas son mucho más sencillas, pues no es la primera vez que se presenta un caso como este y hasta varias presentadoras han salido a hablar, preocupadas, por la situación actual.

(Vea también: La estafa de $600 millones en la que cayó famosa pareja de presentadores)

Ahora le está sucediendo a Maritza Aristizábal, presentadora de RCN, que compartió su testimonio en su Instagram y llamó al cuidado de sus seguidores para que no caigan en contenido como este.

Ojo, están usando IA para suplantar mi imagen y promocionar una cuenta o página -no se exactamente qué es-, que supuestamente ayuda a la gente a librarse de deudas y además a generar ingresos. Varias personas me escribieron para reportar o averiguar más. ¡Pilas, muy seguramente es una estafa! Por favor tengan mucho cuidado“, afirmó la presentadora, quien mostró varias imágenes de todas las personas que le han escrito, informándola de esta situación.

 

Ver esta publicación en Instagram

 

Una publicación compartida por maritzaaristizabal (@maritzaaristizabal)

Según se ha visto anteriormente, se trata de un video que publicitan en las redes sociales para que los usuarios de Internet piensen que dicho trabajo u oportunidad está avalada por los famosos y así darles la confianza necesaria para que los ciudadanos ingresen e inviertan.

(Vea también: “Cuidado”: famosa presentadora de RCN alertó por estafa que están haciendo con su imagen)

Le ha pasado a la misma Laura Acuña, quien se aterró cuando vio su cara en un video de estos, por lo que Pulzo dejará algunas recomendaciones para que los internautas sepan cómo identificar cuando se trata de una video hecho con inteligencia artificial y que podría ser una estafa.

Trucos para identificar imágenes hechas con inteligencia artificial

Newtral,  medio de comunicación dedicado a la comprobación de hechos, también ofrece consejos básicos para identificar imágenes fraudulentas:

  • Luces y sombras: la IA a veces tiene problemas para ubicarlas bien.
  • Reflejos de los ojos (si se trata de personas): muchas veces los generadores tienen problemas para poner reflejos en los ojos que correspondan con el entorno.
  • Manos, dientes, orejas y articulaciones: a veces las IA puede tener problemas para poner la cantidad de dedos y dientes adecuada, además de que se dificulta hacer buenos pliegues en las articulaciones y las orejas.

En cuanto a la voz hecha con IA, estos son algunos detalles en los que se puede fijar:

  • Poner cuidado a las frases extensas sin puntuación, pues muchas veces la IA tiene problemas para generarlas con la misma naturalidad humana.
  • Evaluar bien el timbre de la voz, pues las frases que requieren alguna emocionalidad pueden sonar planas.

 

 

 

Temas Relacionados:

Te puede interesar

Nación

Vendría la primera renuncia por escándalo del Gobierno con disidencias de alias 'Calarcá'

Bogotá

Confirman qué pasó detrás de muertes en Cantón Norte (Bogotá): militar asesinó a su pareja

Nación

Ordenan retiro inmediato de producto para el cabello; es muy usado por mujeres en Colombia

Bogotá

Filtran imágenes de militares que murieron en Cantón Norte: se les veía bastante tensos

Bogotá

Sale a la luz foto de la oficial que fue asesinada dentro del Cantón Norte por su expareja

Bogotá

Aparece presunta razón por la que dos oficiales del Ejército murieron dentro del Cantón Norte

Bogotá

Él era Pablo, el capitán que mató a su expareja (una teniente) dentro del Cantón Norte

Nación

Militar que habría asesinado a su pareja en Cantón Norte tomó fatal decisión; hay detalles

Sigue leyendo