El Espectador es el periódico más antiguo del país, fundado el 22 de marzo de 1887 y, bajo la dirección de Fidel Cano, es considerado uno de los periódicos más serios y profesionales por su independencia, credibilidad y objetividad.
La inteligencia artificial (IA) ocupa cada vez un lugar más central en la vida cotidiana y el debate público. Sin embargo, según plantea la periodista Karen Hao —en entrevista citada por El Espectador—, es fundamental comprender que la tecnología no es neutral: está profundamente marcada por los valores y decisiones de quienes la conciben. Hao subraya el papel de Sam Altman, director de OpenAI y figura clave tras ChatGPT, como ejemplo de cómo una única visión puede determinar el rumbo de una industria. Altman, señala Hao, demuestra un gran interés por el poder, y eso se refleja en las dinámicas y prioridades de la empresa, que van desde la acumulación de recursos hasta el modo en que los productos impactan a la sociedad.
Uno de los principales peligros que rodean al desarrollo de la IA se relaciona con la utilización de datos: estos modelos emplean información privada y la propiedad intelectual de muchos individuos sin consentimiento ni reconocimiento económico. Artistas y escritores, en particular, pierden oportunidades laborales porque empresas como OpenAI optan por sistemas automatizados en lugar de contratar talento humano. Además, detrás del funcionamiento de estas plataformas se oculta una explotación laboral poco visible: cientos de miles de personas, muchas en comunidades vulnerables, realizan el trabajo esencial de entrenamiento del software. A pesar de su rol indispensable, frecuentemente reciben escasa compensación y carecen de protección laboral, tal como revela El Espectador.
El impacto ambiental también resulta alarmante. Las grandes compañías tecnológicas requieren infraestructuras gigantescas, como centros de datos que consumen enormes cantidades de energía y agua. Sam Altman ha propuesto invertir billones de dólares para alcanzar 250 gigavatios de potencia—una cifra que representa aproximadamente una vez y media el consumo anual de energía del Reino Unido. Esta expansión, advierten autoridades estadounidenses y europeas citadas por la entrevista, pone en peligro la estabilidad de los sistemas eléctricos y de los recursos hídricos en múltiples territorios.
En el contexto latinoamericano y colombiano, la situación adquiere relevancia adicional. Colombia, por ahora reticente a abrirse a la instalación masiva de centros de datos, enfrenta presiones por parte del sector tecnológico internacional. Además, el auge de la inteligencia artificial aumenta la demanda por minerales como cobre, plata y oro—recursos cuya extracción puede implicar grandes costos socioambientales y afectar la disponibilidad de agua dulce, situación ejemplificada en Jericó.
Frente a este panorama surge un interrogante sobre el verdadero significado del progreso. Hao señala que la sociedad ha caído en la confusión de igualar progreso tecnológico con avance humano, cuando en realidad, el beneficio se concentra en grupos cada vez más pequeños. Para que la IA contribuya positivamente, sostiene la periodista, es esencial que sus desarrollos contemplen el consentimiento, la educación comunitaria y el respeto por la diversidad cultural e histórica de los pueblos. Destaca como ejemplo el caso de Te Hiku Media en Nueva Zelanda, cuyo proyecto de preservación lingüística demuestra que una IA inclusiva y responsable es posible.
Finalmente, Hao recalca la necesidad de repensar desde la filosofía y la política cómo gestionar el poder que otorgan estas tecnologías. Al calificar la mentalidad detrás de la industria como propia de un "imperio" —centrado en el control de pocos sobre muchos—, invita a apostar por modelos más democráticos, participativos y equitativos.
¿Existe una alternativa ética y sostenible para el desarrollo de la inteligencia artificial?
El debate en torno a la inteligencia artificial no solo gira en torno a sus capacidades, sino también a los valores que rigen su evolución. Tal como señala Karen Hao, los riesgos sociales, ambientales y laborales que plantea el desarrollo actual de la IA no son inevitables. Ejemplos como Te Hiku Media demuestran que sí existen caminos distintos. Poner en el centro el consentimiento informado, la protección del entorno y la equidad puede transformar tanto los riesgos como los beneficios de esta tecnología.
Reflexionar sobre estos modelos alternativos resulta crucial, especialmente para países en vías de desarrollo y comunidades tradicionalmente marginadas. Al discutir abiertamente qué tipo de tecnología se desea y bajo qué reglas se implementa, se abre la puerta a que el progreso tecnológico se traduzca también en progreso social. Así, cabe preguntarse: ¿qué compromisos deberían asumir empresas, gobiernos y comunidades para una IA que respete tanto los derechos humanos como el medioambiente?
* Este artículo fue curado con apoyo de inteligencia artificial.
* Pulzo.com se escribe con Z
LO ÚLTIMO