Trucos para identificar voces creadas con inteligencia artificial; evite caer en estafas

Tecnología
Tiempo de lectura: 6 min
por: 

Social Geek es una completa guía diaria de información sobre tecnología e innovación para el mundo de habla hispana.

Visitar sitio

Con esta modalidad, los delincuentes utilizan voces, que pueden ser de famosos o de familiares, para robar. Así se puede dar cuenta fácil si se trata de esta.

A medida que la tecnología de voz artificial gana realismo, distinguir una llamada legítima de un fraude se ha vuelto más complejo, aumentando significativamente los riesgos de ser víctima de una estafa.

(Vea también: Colombia frente al desafío de la IA: ¿innovación sin control o protección ciudadana en riesgo?)

Hace apenas unos años, crear un ‘deepfake‘ convincente requería grandes recursos técnicos y computacionales. Hoy, la barrera de entrada se ha desplomado. Cualquier persona con una conexión a internet puede acceder a herramientas de IA generativa (como las de ElevenLabs, HeyGen o herramientas en código abierto) que, en minutos , pueden clonar una voz a partir de una muestra de apenas 30 segundos o crear un vídeo sincronizado de una persona diciendo algo que nunca dijo.

En ese contexto, los deepfakes han pasado de ser una curiosidad tecnológica a una herramienta de desinformación y delito de alto impacto.

Josep Curto, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC), señala que la clave ya no reside en detectar una voz “robótica”, sino en identificar sutiles anomalías algorítmicas que delatan su origen sintético.

Según Curto, el principal indicio no está en la calidad del audio, sino en el comportamiento conversacional. Estos son algunos indicadores clave y cómo diferenciarlos de problemas técnicos comunes:

  1. Patrones de prosodia antinaturales: Una entonación excesivamente plana, pausas en lugares gramaticalmente incorrectos o saltos bruscos de tono son señales de alarma. En una mala conexión, la voz humana recupera su cadencia natural entre cortes.
  2. Artefactos espectrales consistentes: Clics al final de las palabras o un «brillo metálico» sutil son huellas de la generación por IA. A diferencia de la fluctuación de calidad por la compresión de red, estos artefactos suelen ser constantes.
  3. Microincoherencias visuales en videollamadas: Un desajuste sutil pero persistente entre el movimiento de los labios y el sonido (lipsync), un parpadeo escaso o detalles poco definidos en el cabello y las orejas pueden delatar un deepfake. Una conexión deficiente, en cambio, genera pixelación o congelación de la imagen, no estas anomalías específicas.
  4. Latencia algorítmicamente perfecta: Respuestas con un tiempo de demora sospechosamente uniforme pueden indicar que un modelo de IA está procesando y generando la respuesta. La latencia en redes humanas es, por lo general, irregular.

Herramientas de detección: una carrera tecnológica en curso

Curto describe un ecosistema de detección en constante evolución, dividido en dos enfoques principales:

Estrategias proactivas: cómo proteger tu identidad vocal

Más allá de la detección, Curto enfatiza la prevención. La investigación actual explora cómo crear distorsiones imperceptibles para el oído humano que «confundan» a los algoritmos que recolectan voces para entrenar modelos de IA, una técnica conocida como «envenenamiento de datos».

Para usuarios y organizaciones, el experto recomienda:

(Lea también: ¿Cámaras para todos? Así la tecnología reinventa la seguridad en hogares de Latinoamérica (y sus dilemas))

Protocolo ABC para empresas: verificar, romper el guion, escalar

Curto propone un protocolo claro para gestionar llamadas sospechosas:

Ante la gran cantidad de herramientas de las que ahora disponen los ciberdelincuentes, la conclusión del experto es clara: la defensa más robusta combina el escepticismo humano y la verificación por un canal secundario, complementados con una gestión consciente de nuestra exposición vocal digital.

Temas Relacionados:

Te puede interesar

Bogotá

Estudiante de Los Andes murió luego de fiesta en Halloween; caso, similar al de Colmenares

Bogotá

Sacan video del momento exacto de accidente donde murieron 2 motociclistas: imágenes asustan

Bogotá

Se voló conductor que causó trágico accidente en Bogotá y mató dos motociclistas

Nación

Publican primer resultado de investigación por muerte de joven en bar de Cali: esto encontraron

Bogotá

Identifican a dos motociclistas víctimas de grave accidente en Bogotá; pareja tiene un hijo pequeño

Bogotá

Foto de accidente en el que murieron dos motociclistas en Bogotá comprobaría cruda hipótesis

Bogotá

Aparece foto de lo que estaría haciendo conductor que mató a 2 motociclistas en Bogotá

Bogotá

Revelan identidad de estudiante de Los Andes que murió tras fiesta de Halloween; hay capturas

Sigue leyendo