Según se informa, el Pentágono le dijo a Anthropic que oficialmente sería etiquetado como un riesgo para la cadena de suministro, pocos días después de que el director ejecutivo de la compañía de inteligencia artificial, Dario Amodei, distribuyera una carta a los empleados menospreciando los esfuerzos de la administración Trump contra la compañía.
El Departamento de Guerra informó formalmente a los ejecutivos de Anthropic el jueves que la compañía y sus herramientas de inteligencia artificial, incluido el chatbot Claude, plantean graves riesgos de seguridad. informó el Wall Street Journalcitando a un alto funcionario del Pentágono.
El funcionario dijo que el ejército no permitiría que un proveedor pusiera en riesgo a los miembros del servicio restringiendo el uso legal de su tecnología, después de que Anthropic intentara prohibir al gobierno el uso de su IA para vigilancia doméstica masiva y armas totalmente autónomas.
El secretario de Guerra, Pete Hegseth, argumentó que las excepciones solicitadas por Anthropic eran demasiado restrictivas, insistiendo en que se debería permitir al Pentágono utilizar herramientas de inteligencia artificial para “cualquier propósito legal”.
Según se informa, Amodei mantuvo conversaciones con Emil Michael, subsecretario de investigación e ingeniería del Departamento de Guerra, como parte de un “último esfuerzo” para llegar a un contrato, días después de que el ejecutivo acusara a su rival OpenAI de decir “mentiras descaradas” sobre la disputa de Anthropic con el gobierno.
Esta es una de las primeras veces que una empresa estadounidense recibirá la etiqueta de riesgo de la cadena de suministro, lo que potencialmente podría prohibir que cualquier organización que trabaje con el ejército se asocie con Anthropic, lo que podría afectar a inversores como Lockheed Martin, Amazon y Google.
El Pentágono, Anthropic y OpenAI no respondieron de inmediato a las solicitudes de comentarios del Post.
En su memorando de 1.600 palabras dirigido al personal el viernes, Amodei dijo que creía que el gobierno apuntó a Anthropic porque se oponía al programa de inteligencia artificial de la Casa Blanca y no “elogiaba a Trump de una manera dictatorial”.
Amodei también dijo que Anthropic estaba siendo castigada porque no “donó a Trump”, “mientras que OpenAI/Greg donó mucho”, refiriéndose al presidente de OpenAI, Greg Brockman. la información reportada.
Amodei, que hizo donaciones a la fallida campaña presidencial de la ex vicepresidenta demócrata Kamala Harris, criticó a OpenAI y al Pentágono por supuestamente difamar el nombre de su empresa.
“Quiero ser muy claro sobre el mensaje proveniente de OpenAI y su naturaleza engañosa”, escribió en la nota.
Añadió que “muchos mensajes de OpenAI y (del Departamento de Guerra) mienten abiertamente sobre estos temas o intentan confundirlos”, insistiendo en que los términos del contrato de OpenAI, por ejemplo, nunca fueron ofrecidos a Anthropic.

Mientras tanto, OpenAI anunció el viernes que intervendría para proporcionar servicios de inteligencia artificial al Pentágono, lo que avivó la reacción de los trabajadores de inteligencia artificial preocupados por el riesgo de que se utilicen nuevas tecnologías para la vigilancia ciudadana.
Altman “se presentó como alguien que quería ‘hacer el mismo trato para todos en la industria'” mientras trabajaba “entre bastidores” con el Departamento de Guerra para reemplazar a Anthropic “desde el momento en que fuimos designados como un riesgo para la cadena de suministro”, escribió Amodei.
El acuerdo de OpenAI incluye salvaguardias que son “quizás un 20% reales y un 80% seguras”, añadió.
En una conferencia de tecnología de Morgan Stanley el jueves, Altman rechazó las críticas y atacó a Anthropic.
“Se supone que el gobierno es más poderoso que las empresas privadas”, dijo, y agregó que sería “malo para la sociedad” si las empresas comenzaran a abandonar su compromiso con el proceso democrático porque “a algunas personas no les agrada la persona o personas que actualmente están a cargo”.
Altman reconoció, sin embargo, que el momento del acuerdo con OpenAI, que se produjo pocas horas después del colapso de las negociaciones con Anthropic, “parecía oportunista y descuidado”.



