France 24 la componen cuatro cadenas mundiales de información continua (en francés, árabe, inglés y español), que emiten las 24/7 en 355 millones de hogares en los 5 continentes. France 24 cuenta con 61,2 millones de telespectadores semanales (medición realizada en 67 países de los 183 en los que se emite al menos una de las cadenas) y es el primer ca...
El secretario de Defensa de Estados Unidos Pete Hegseth, fijó un plazo, hasta el 27 de febrero, a Dario Amodei, director ejecutivo de la empresa Anthropic, para que dé acceso sin restricciones al Pentágono a su modelo de inteligencia artificial, a lo que el contratista se ha negado anteriormente.
De acuerdo con fuentes que hablaron con el portal ‘Axios’, en una reunión con el empresario, Hegseth habría incluido en el ultimátum la amenaza de fuertes sanciones si la empresa de IA se niega a la solicitud.
La información fue reproducida también por la agencia Reuters, que había anticipado un encuentro no amistoso, aunque un vocero de la empresa dijo a ‘Axios’: “Estamos teniendo conversaciones productivas, de buena fe”.
Funcionarios de Defensa que declararon a ‘Axios’ indicaron que esas represalias podían ir desde el corte de lazos comerciales hasta la declaración de la empresa como “riesgo en la cadena de suministro”, pasando por la aplicación de la Ley de Producción de Defensa, que obligaría a Anthropic a ajustar su modelo a las demandas del Pentágono.
Anthropic es una de las cuatro compañías de IA a las que el Pentágono asignó contratos de defensa por encima de los 200 millones de dólares cada uno el año pasado, junto a Google, OpenAI y xAI, de Elon Musk.
Pero es la única que opera en un entorno clasificado, indispensable para el manejo de información sensible como la militar.
Una fuente familiarizada con la reunión que conversó con la agencia Reuters sostuvo que la empresa no tiene intenciones de relajar sus restricciones, a pesar de las presiones del Pentágono.
Diferencia de visiones
Se cree que el chatbot de Anthropic, Claude, fue utilizado tanto para la planificación como para la ejecución de la captura del presidente Nicolás Maduro durante una audaz incursión de fuerzas Delta estadounidenses en Caracas el 3 de enero, un uso que podría haber sido una fuente decisiva de desavenencias entre el Pentágono y Anthropic.
De acuerdo con un alto funcionario de la Administración Trump citado por ‘Axios’, Anthropic pidió información sobre si Claude había sido empleado durante la operación, una versión que coincide con el esfuerzo corporativo por conocer las condiciones de uso de su tecnología. Eso habría desatado la molestia del Departamento de Guerra.
“Cualquier empresa que ponga en peligro el éxito operativo de nuestros combatientes sobre el terreno es una empresa con la que debemos reevaluar nuestra colaboración en el futuro”, dijo la fuente a ‘Axios’.
Un portavoz de Anthropic negó que se hubieran producido consultas “fuera de las conversaciones rutinarias sobre cuestiones estrictamente técnicas”.
Anthropic se ha posicionado como una empresa líder en IA que privilegia la seguridad y el uso de sus herramientas de acuerdo con regulaciones específicas.
Estas restricciones se mantienen desde la presidencia de Joe Biden, quien consideraba que era necesario garantizar el uso responsable de una tecnología con potencial para ciberataques, vigilancia masiva o desarrollo de dispositivos letales autónomos.
La puerta cerrada a contratistas ‘woke’
Poco antes de su salida de la Casa Blanca, Biden promulgó un marco que prohibía aplicaciones de sistemas de IA que pudieran violar derechos protegidos constitucionalmente o automatizaran el despliegue de armas nucleares.
Esas regulaciones siguen vigentes en las políticas corporativas de Anthropic, que se niega a abrir sus herramientas al Pentágono sin aplicar las mismas líneas rojas que imponen para otros usuarios: que su tecnología no se use para elaborar armas autónomas ni para el espionaje de ciudadanos estadounidenses.
“Una IA poderosa que analiza miles de millones de conversaciones de millones de personas podría medir el sentimiento público, detectar focos de deslealtad que se forman y erradicarlos antes de que crezcan”, escribió el director ejecutivo de Anthropic Dario Amodei en un ensayo publicado en enero.
Las demandas del contratista han enfurecido a Hegseth, quien ha defendido que los sistemas de IA deben operar “sin restricciones ideológicas que limiten las aplicaciones militares legales” y ha insistido en que bajo su gestión la “IA del Pentágono no será woke”.
El principal asesor del Gobierno de Donald Trump en materia de IA, David Sacks, ha acusado a Anthropic de “llevar a cabo una sofisticada estrategia de captura regulatoria basada en el alarmismo”.
Precisamente como una alternativa a las políticas progresistas, Elon Musk desarrolló el bot Grok, que opera incrustado en X y es usado por el Pentágono. En su momento, buscaba oponerse a las interacciones con otros chatbots de IA como Gemini de Google o ChatGPT de OpenIA, que a juicio de Musk estaban permeados por el pensamiento ‘woke’.
Pero Grok no ha sido precisamente una experiencia confiable. En sus inicios causó polémica con comentarios antisemitas y elogios a Adolfo Hitler y más recientemente generó escándalo por la elaboración de imágenes hipersexualizadas de mujeres e incluso de niñas.
Con Reuters, AP y medios locales
* Pulzo.com se escribe con Z
LO ÚLTIMO