Por: El Colombiano

El Colombiano es un grupo editorial multiplataforma con más de 110 años de existencia. Nació en la ciudad de Medellín en Antioquia. Fundado el 6 de febrero de 1912 por Francisco de Paula Pérez, se ha especializado en la investigación y generación de contenidos periodísticos para diferentes plataformas en las que provee a las audiencias de piezas mult...

Este artículo fue curado por Andrea Castillo   Feb 19, 2024 - 1:02 pm
Visitar sitio

En tiempos en los que el descrédito con las palabras es fuerte y las opiniones, en redes sociales, sobre todo, se polarizan y convierten en incendiarias, qué esperar de una herramienta que puede crear un video, en el que fácilmente se perjudique a una persona con una escena inventada. Y ni que hablar de los Deep Fake, esas noticias falsas que a simple vista se ven real, pero no lo son. A eso se puede llegar con Sora, la nueva herramienta de Inteligencia Artificial de OpenAI.

Un caso reciente, muy sonado, fue el de Taylor Swift e imágenes pornográficas. “Las redes sociales se llenaron de imágenes de Taylor Swift desnuda, aparentemente reales, que en realidad eran fotografías retocadas con herramientas de IA generativa que suplantaron la imagen de la cantante sin su conocimiento ni consentimiento”, informaron en Europa Press en enero de este año.

(Vea también: Las 5 periodistas más destacadas del mundo según ChatGPT; unas duras en el campo)

“Y era Taylor Swift y se generó el escándalo, llegaron a la compañía que lo hizo, X bloqueó la cuenta, pero es porque era Taylor Swift”, detalla Paola Hincapié, directora de contenidos de la agencia El Grifo.

El ser humano hoy busca la certeza y algo que sucede con estas herramientas es que no sabemos diferenciar entre realidad e irrealidad de lo que vemos en la pantalla, “yo soy una de las que veo una imagen y ya dudo y ni siquiera porque sea obsceno o no me lo crea sino porque es tan bien hecha, tan linda, que lo dudo. Siento que Sora va a permear aún más la actitud que tengamos o la conducta en cómo asimilamos algo que es real o no”.

El asunto es que si hay herramientas para, por ejemplo, diferenciar una imagen falsa de una real, pero son superadas en cada desarrollo y ahí vuelve y juega la debilidad.

El Global Investigative Journalism Network actualiza constantemente una guía para detectar imágenes falsas y confirmar si una fotografía encontrada en redes sociales es real o no. Esta incluye herramientas como TinEye, la misma búsqueda por imágenes de Google, Photo Sherlock y Fake Image Detector.

Desde la agencia El Grifo recomiendan la web www.aiornot.com para determinar si una imagen ha sido generada por inteligencia artificial o por un ser humano.

Por eso algo que estará a prueba es que a la par que se desarrollan estas tecnologías, la velocidad exponencial en que esto avanza, los sistemas legislativos y reguladores van más lento.

(Vea también: ¿Es verdad que los perros ven a blanco y negro? ChatGPT responde esta gran incógnita)

Jaron Lanier, el creador de la Realidad Virtual y un gurú en temas tecnológicos, le dijo recientemente a Bloomberg que la solución al problema de los Deep Fake es conocer las fuentes y “para eso el sistema de procedencia debe ser sólido y no falsificable. Controlar las fuentes es la única forma de combatir el fraude, además los reguladores deberían involucrarse en esto, Microsoft, OpenAI y todas las empresas de tecnología deberían exigir regulaciones, pero la pregunta es cómo”.

Lanier reitera, y ese es otro gran problema, que aun con todo lo que se ha hablado, todavía no sabemos que es la privacidad en el contexto de internet.

La sombra de este asunto es, en definitiva, el no control, ¿en manos de quién estamos?

“En Sora afirman que están atentos a los temas legales, que tienen comité de éticas”, explica Paola, quien añade que si algo ha demostrado la Inteligencia Artificial es que se hace un primer paso en la propuesta, pero los desarrollos son infinitos y el control no es posible.

“Ahí es donde viene la gran pregunta y cuya respuesta es que no sabemos qué va a pasar y eso genera una incertidumbre demasiado alta, en especial para quienes deberían garantizar el tema de seguridad. Hay que estar atentos a los cambios y ser más conscientes de la información que nosotros mismos damos, no es generar pánico, pero sí tener clara cuál es nuestra responsabilidad”.

Lee todas las noticias de tecnología hoy aquí.