Imágenes falsas, deepfakes y leyes: lo que debes saber antes de usar IA para editar o crear contenido

Tecnología
Tiempo de lectura: 4 min

Tú navegador no es compatible para reproducir este audio

por: 

Hola! Somos el noticiero regional más visto en Colombia, u00a1Conéctate con nosotros y entérate de las noticias del suroccidente colombiano!, Emisión digital en vivo a las 8 a.m. por todos nuestros canales digitales, Emisión central a la 1:00 p.m. por el canal Telepacífico y nuestros canales digitales.

Visitar sitio

Descubre cómo la IA revoluciona la creación de imágenes y los nuevos retos legales que plantea su uso.

La inteligencia artificial (IA) se ha convertido en una herramienta capaz de transformar la manera en que creamos, editamos e innovamos imágenes, videos y textos. Plataformas como Gemini y Images for ChatGPT de OpenAI actualizan continuamente sus versiones, ofreciendo incluso accesos gratuitos para los usuarios, lo que pone estos desarrollos al alcance de una audiencia cada vez más amplia. Este escenario marca un avance tecnológico significativo, pero también plantea retos en cuanto a la responsabilidad de usuarios y plataformas en el uso de la IA, especialmente al manipular imágenes que pueden contener información altamente sensible.

El uso de la IA, si no se maneja con precaución, abre la puerta al almacenamiento y apropiación indebida de datos por parte de terceros, lo que puede derivar en actividades delictivas. Los modelos de inteligencia artificial funcionan identificando patrones en grandes volúmenes de datos para predecir comportamientos, tomar decisiones o crear contenido. Según Jesús Alfonso López, director de la maestría en inteligencia artificial y ciencia de datos, actualmente basta con indicar a la IA qué se desea hacer, simplificando procesos antes considerados complejos y haciéndolos accesibles para casi cualquier persona.

Sin embargo, este avance también implica riesgos legales. Según el abogado Jorge Villegas, consultado por el portal 90 Minutos, existen vacíos regulatorios en algunos usos pero también leyes que han comenzado a adaptarse a los retos de la IA. Destaca la Ley 2502 de 2025, que modificó el artículo 296 del Código Penal y agrava las penas para quienes utilicen IA, como deepfakes, para suplantar identidades. Manipular el rostro de otra persona en contenidos falsos puede acarrear entre 16 y 72 meses de prisión, además de altas multas si hay un perjuicio económico o a la reputación. Tal conducta también vulnera derechos fundamentales como la protección de datos y la imagen, reconocidos en la Constitución y en la Ley 1581 de 2012.

Ante situaciones de violencia sexual digital, la legislación contempla mecanismos concretos de protección y sanción, incluyendo la obligación de las plataformas de retirar el contenido en menos de 24 horas cuando hay orden judicial. Para víctimas, es fundamental preservar todas las pruebas—como capturas y metadatos—y acudir a entidades como Fiscalía, Unidades de Ciberdelitos o la Línea 155. En el caso de utilizar IA para editar la propia imagen en una hoja de vida, la ley no sanciona esta práctica, pero si exagera o modifica de manera significativa la apariencia y es descubierto, puede perder credibilidad ante empleadores.

La recomendación general para los usuarios es actuar éticamente, solicitar permisos por escrito si se utilizan imágenes de terceros y emplear marcas de agua para señalar el origen de contenidos generados por IA. Para los afectados, es esencial la denuncia oportuna, la conservación de pruebas y el uso de herramientas de detección de falsificaciones. En definitiva, tanto la protección de derechos individuales como el desarrollo de la innovación tecnológica deben avanzar en equilibrio para prevenir daños y aprovechar los beneficios de la era digital.

¿De qué manera las plataformas tecnológicas ayudan a prevenir el uso indebido de la inteligencia artificial en imágenes?

El papel de las plataformas tecnológicas es relevante frente al crecimiento del uso de la inteligencia artificial, sobre todo en la generación y manipulación de imágenes digitales. Estas empresas suelen implementar políticas de uso, supervisión de contenido automatizada y actualizaciones en sus términos y condiciones. Hay plataformas que han establecido límites técnicos e, incluso, prohíben expresamente crear imágenes dañinas, siguiendo regulaciones vigentes o, en algunos casos, anticipándose a ellas.

Dicha responsabilidad se refleja también en la rapidez con la que se exige retirar contenidos dañinos tras recibir una orden legal. De esta manera, las plataformas se convierten en agentes clave para garantizar que el acceso masivo a la IA ocurra en un entorno donde los derechos de los individuos, en especial su imagen y datos personales, se encuentren resguardados conforme a la ley.


* Este artículo fue curado con apoyo de inteligencia artificial.

Temas Relacionados:

Te puede interesar

Sigue leyendo