Según se informa, el secretario de Defensa, Pete Hegseth, está “cerca” de cortar los vínculos del Pentágono con la empresa de inteligencia artificial Anthropic y colocarla en una lista negra que obligaría a varias otras empresas a dejar de utilizar el chatbot Claude, según un informe publicado el lunes.
Las tensiones alcanzaron un punto de ebullición después de meses de acaloradas negociaciones, mientras Anthropic buscaba garantizar que sus herramientas no se utilizaran para la vigilancia masiva de estadounidenses o para desarrollar armas capaces de disparar sin intervención humana. según Axios.
Hegseth planea designar a Anthropic como un “riesgo de la cadena de suministro”, lo que significa que cualquier empresa que quiera hacer negocios con el Departamento de Guerra tendrá que cortar los lazos con la empresa de inteligencia artificial de rápido crecimiento, dijo al medio un alto funcionario del Pentágono.
“Va a ser un gran dolor desenredarlo, y nos aseguraremos de que paguen el precio por forzarnos de esa manera”, dijo el funcionario a Axios.
La etiqueta de “riesgo de la cadena de suministro” es una sanción estricta que normalmente se reserva para adversarios extranjeros sospechosos de representar un riesgo para la seguridad nacional, pero los altos funcionarios de defensa se han sentido frustrados con Anthropic durante mucho tiempo y están ansiosos por buscar pelea, dijo una fuente a Axios.
El Post informó en septiembre pasado que Anthropic estaba considerando un posible enfrentamiento con la Casa Blanca por la preocupación de que la empresa de IA tuviera un sesgo de izquierda.
El director ejecutivo de Anthropic, Dario Amodei, es un destacado donante demócrata, y la Fundación Ford, un notorio grupo de izquierda, compró acciones de Anthropic por valor de 5 millones de dólares en marzo de 2024.
“La relación del Departamento de Guerra con Anthropic está bajo revisión. Nuestra nación exige que nuestros socios estén preparados para ayudar a nuestros combatientes a ganar cualquier combate”, dijo el portavoz del Pentágono, Sean Parnell, al Post.
“Al final del día, se trata de nuestras tropas y la seguridad del pueblo estadounidense”.
Un portavoz de Anthropic enfatizó que Claude es el primer y único modelo de IA utilizado actualmente en los sistemas clasificados del ejército. Fue utilizado recientemente en la operación estadounidense para capturar al dictador venezolano Nicolás Maduro, según múltiples informes.
“Estamos teniendo conversaciones productivas y de buena fe con el Departamento de Guerra sobre cómo continuar este trabajo y resolver estas cuestiones complejas”, dijo el portavoz al Post.
Los críticos temen que el acceso irrestricto a la IA pueda fortalecer la capacidad del Pentágono para atacar a civiles.
El Departamento de Guerra de Hegseth argumentó que las excepciones solicitadas por Anthropic son demasiado restrictivas, insistiendo en que se debería permitir al Pentágono utilizar herramientas de inteligencia artificial para “cualquier propósito legal”.
Si Hegseth califica a Anthropic como un riesgo para la cadena de suministro, la compañía podría ver a algunos socios deshacer sus acuerdos comerciales para mantener buenas relaciones con el Pentágono.
El contrato del Pentágono con Anthropic está valorado en alrededor de 200 millones de dólares, aunque eso es sólo una fracción de los 14 mil millones de dólares en ingresos anuales de la compañía.
Si bien ChatGPT de OpenAI ha tenido más éxito entre los consumidores, Anthropic ha tomado la delantera en las transacciones comerciales. La compañía anunció recientemente que se ha asociado con ocho de las diez mayores empresas estadounidenses.
Tampoco sería un cambio sencillo para el Pentágono, ya que los robots de IA competidores de OpenAI, Google y xAI “están justo detrás” cuando se trata de aplicaciones gubernamentales, dijo a Axios un alto funcionario de la administración Trump.
OpenAI, Google y xAI acordaron eliminar sus protecciones contra chatbots para su uso en sistemas militares no clasificados, pero ninguno de estos bots se utiliza actualmente en sistemas clasificados.
Un alto funcionario de la administración dijo que el Pentágono confiaba en que estas tres empresas de inteligencia artificial aceptarían estándares más flexibles, aunque otra fuente le dijo a Axios que las discusiones aún estaban en curso.



