El programa Microsoft Video Authenticator tiene la capacidad de estudiar una fotografía o un video y “proporcionar un porcentaje de probabilidad, o puntuación de confianza” que dice si el formato ha sido manipulado artificialmente, explicó la empresa en una entrada de blog.

Si se trata de un video, el ‘software’ puede brindar dicho porcentaje en tiempo real de cada fragmento durante la reproducción, pues tiene en cuenta aspectos que no detecta el ojo humano, como modificaciones en la escala de grises y desvanecimientos sutiles, apuntó la firma.

La tecnología fue desarrollada gracias a los esfuerzos de Microsoft Research, el equipo de inteligencia artificial de la organización, y el comité de Ética y Efectos en Ingeniería e Investigación (AETHER, por su sigla en inglés), indicó la compañía.

Según el comunicado, la idea del proyecto es que los usuarios puedan descifrar los archivos que no son verdaderos, pero que “hacen que las personas digan cosas que no hicieron o estén en lugares en los que no estaban”.

La empresa aseguró ser consciente de que los métodos que detectan inteligencia artificial tienen una tasa de falla, por lo que debe estar preparada para responder a los ‘deepfakes’ que no sean descubiertos por el programa y trabajar en sistemas “más sólidos”.

En el siguiente tuit, Microsoft explica el funcionamiento de la herramienta.

Los ‘deepfakes’ pueden ser perjudiciales porque ofrecen información falsa de una persona o hecho. Por tanto, Facebook, por ejemplo, se ha encargado de eliminar todos los que encuentre en la plataforma, señaló TreceBits.

Asimismo, Twitter advierte a sus usuarios cuando ven un contenido manipulado y agrega una etiqueta especial en dichos tuits para evitar que lo compartan, resaltó el portal mencionado.