El jefe de IA del Pentágono, Emil Michael, no se preocupa por el apoyo legal de Microsoft a Anthropic. De hecho, me dijo que toda la situación era “totalmente trivial”.
Michael desestimó el escrito amicus curiae de Microsoft, que la compañía presentó a principios de esta semana en apoyo de Anthropic y en contra del Departamento de Guerra, como nada más que una medida para apaciguar a los empleados.
“Es una tarea normal demostrarles a sus empleados que tiene cierta camaradería (con otras empresas tecnológicas de izquierda)”, dijo Michael, subsecretario de Defensa para investigación e ingeniería y supervisor de contratos de IA, en una llamada telefónica a principios de esta semana. “Si lees sus memorias, dice que cualquier cosa que el Departamento de Guerra quiera hacer es legal”.
Aunque el informe amicus curiae afirma que Microsoft y Anthropic quieren proteger a los combatientes, Michael no lo cree.
Es el gobierno, me dijo, el que está tratando de garantizar la seguridad de los militares.
“(Nuestra decisión de designar a Anthropic como un riesgo en la cadena de suministro) es para proteger a los combatientes, porque Anthropic estaba tratando de insertarse en la cadena de mando”, explicó Michael. “El riesgo en la cadena de suministro consiste en eliminar ese riesgo, no en añadir otro”.
Michael dijo que era el último episodio de una saga aún más extraña por el hecho de que Anthropic trabajó estrechamente con el Departamento de Guerra durante años antes de que el gobierno rescindiera su contrato en febrero.
Tras la redada estadounidense de enero de 2026 que capturó y extraditó a Nicolás Maduro de Venezuela, un ejecutivo de Anthropic preguntó a su homólogo en Palantir, a través del cual se integró Claude AI de Anthropic, si se estaba utilizando su inteligencia artificial y cómo.
Anthropic había suministrado una versión especializada de Claude a algunos de los comandos militares más sensibles, incluidos el Comando Central y el Comando Indo-Pacífico, en un contrato valorado en alrededor de 200 millones de dólares.
Palantir informó a los funcionarios del Pentágono sobre la investigación de Anthropic y el gobierno federal la interpretó como una posible desaprobación ex post facto. La medida encendió las alarmas sobre los riesgos de depender de un proveedor de IA que podría cuestionar operaciones clasificadas, provocando una revisión del contrato y una ruptura en las negociaciones.
Anthropic insistió en salvaguardias que prohibieran la vigilancia interna masiva de ciudadanos estadounidenses (algo que Estados Unidos niega haber hecho) y armas letales y totalmente autónomas sin supervisión humana. En respuesta, el Pentágono calificó a Anthropic como un “riesgo para la cadena de suministro” el 4 de marzo y reemplazó la tecnología de Anthropic con OpenAI.
Anthropic presentó la demanda el 9 de marzo, cuestionándola como ilegal y como represalia.
La preocupación del Pentágono es que sus contratistas puedan intentar dictar sus operaciones. “No quiero y no puedo tener un modelo a seguir que tenga un sesgo político que podría ser envenenado porque no quiere llevar a cabo ciertas actividades militares, o una amenaza interna que no concuerde con los líderes democráticamente elegidos de este país”, dijo Michael.
Es una posición que Michael lucha por conciliar con las propias afirmaciones de Anthropic sobre su tecnología.
“Dicen que esta tecnología es muy poderosa –más poderosa que un arma nuclear, más poderosa que algunos gobiernos- (y) no quieren usar ese poder para ayudar a nuestro país o a nuestro Departamento de Guerra”, me dijo Michael con incredulidad.
“Esto nunca sucedería en China… Y, sin embargo, no quieren servir a la parte más importante del gobierno en tiempos de conflicto. Parece muy inapropiado”.
Esta historia es parte de NYNext, una mirada privilegiada indispensable a las innovaciones, los éxitos y los movimientos de ajedrez político que más importan a los jugadores poderosos de Nueva York (y a aquellos que aspiran a serlo).
Añadió que lo que hace que la situación sea más extraña es que esto se produce después de años de trabajar con el Pentágono.
“Lo que es muy sorprendente es que para una empresa que no quería hacer cosas para el Departamento de Guerra, ¿por qué venden e implementan su software para el Departamento de Guerra durante tres años? » dijo.
El episodio es un recordatorio de que, aunque empresas como Palantir o Anduril apoyan con entusiasmo a Estados Unidos y aceptan contratos para apoyar a la Aduana, la Patrulla Fronteriza y el ICE, una parte de Silicon Valley todavía se resiste a apoyar al ejército.
“Cuando acepté este trabajo, pensé que esos días de la revuelta de los empleados de Google en 2018 habían quedado atrás”, dijo, refiriéndose al levantamiento de los empleados que obligó a Google a abandonar el Proyecto Maven, un contrato del Pentágono para utilizar IA para el análisis de imágenes de drones. El incidente se convirtió en un símbolo definitorio de la resistencia de Silicon Valley al trabajo militar.
Pero hoy en día cree que Anthropic es la excepción, no la norma. “No creo que Elon se haya dado cuenta de la IA y Grok”, dijo. ¿E incluso una empresa como Google? Ellos “aprendieron la lección de 2018”.
A medida que el Pentágono ultima contratos masivos con socios de larga data, también está invirtiendo en nuevos proveedores para garantizar que Estados Unidos esté siempre a la cabeza.
En las próximas semanas, dijo Michael, el departamento anunciará una ola de nuevas asociaciones con empresas de defensa más pequeñas y no tradicionales: nuevas empresas liberadas de la carga ideológica que descarriló a Anthropic. Para Michael, este es el buen final de una extraña saga: el futuro de la IA militar estadounidense, construida por empresas que realmente quieren trabajar.
Dijo: “(Ellos) están construyendo cosas para la próxima generación de guerra”.



