Home Economía El jefe de IA del Pentágono, Emil Michael, dice que Anthropic es...

El jefe de IA del Pentágono, Emil Michael, dice que Anthropic es un “plátano”

9
0

El jefe de IA del Pentágono, Emil Michael, no se preocupa por el apoyo legal de Microsoft a Anthropic. De hecho, me dijo que toda la situación era “totalmente trivial”.

Michael desestimó el escrito amicus curiae de Microsoft, que la compañía presentó a principios de esta semana en apoyo de Anthropic y en contra del Departamento de Guerra, como nada más que una medida para apaciguar a los empleados.

“Es una tarea normal demostrarles a sus empleados que tiene cierta camaradería (con otras empresas tecnológicas de izquierda)”, dijo Michael, subsecretario de Defensa para investigación e ingeniería y supervisor de contratos de IA, en una llamada telefónica a principios de esta semana. “Si lees sus memorias, dice que cualquier cosa que el Departamento de Guerra quiera hacer es legal”.

Emil Michael (derecha, con Peter Hegseth) es subsecretario de Defensa para Investigación e Ingeniería y supervisa los contratos de IA. Imágenes falsas

Aunque el informe amicus curiae afirma que Microsoft y Anthropic quieren proteger a los combatientes, Michael no lo cree.

Es el gobierno, me dijo, el que está tratando de garantizar la seguridad de los militares.

“(Nuestra decisión de designar a Anthropic como un riesgo en la cadena de suministro) es para proteger a los combatientes, porque Anthropic estaba tratando de insertarse en la cadena de mando”, explicó Michael. “El riesgo en la cadena de suministro consiste en eliminar ese riesgo, no en añadir otro”.

Michael dijo que era el último episodio de una saga aún más extraña por el hecho de que Anthropic trabajó estrechamente con el Departamento de Guerra durante años antes de que el gobierno rescindiera su contrato en febrero.

Tras la redada estadounidense de enero de 2026 que capturó y extraditó a Nicolás Maduro de Venezuela, un ejecutivo de Anthropic preguntó a su homólogo en Palantir, a través del cual se integró Claude AI de Anthropic, si se estaba utilizando su inteligencia artificial y cómo.

Anthropic (el director ejecutivo, Dario Amodei, aparece en la foto) trabajó en estrecha colaboración con el Departamento de Guerra durante años antes de trazar abruptamente la línea. REUTERS

Anthropic había suministrado una versión especializada de Claude a algunos de los comandos militares más sensibles, incluidos el Comando Central y el Comando Indo-Pacífico, en un contrato valorado en alrededor de 200 millones de dólares.

Palantir informó a los funcionarios del Pentágono sobre la investigación de Anthropic y el gobierno federal la interpretó como una posible desaprobación ex post facto. La medida encendió las alarmas sobre los riesgos de depender de un proveedor de IA que podría cuestionar operaciones clasificadas, provocando una revisión del contrato y una ruptura en las negociaciones.

Anthropic insistió en salvaguardias que prohibieran la vigilancia interna masiva de ciudadanos estadounidenses (algo que Estados Unidos niega haber hecho) y armas letales y totalmente autónomas sin supervisión humana. En respuesta, el Pentágono calificó a Anthropic como un “riesgo para la cadena de suministro” el 4 de marzo y reemplazó la tecnología de Anthropic con OpenAI.

Anthropic presentó la demanda el 9 de marzo, cuestionándola como ilegal y como represalia.

La preocupación del Pentágono es que sus contratistas puedan intentar dictar sus operaciones. “No quiero y no puedo tener un modelo a seguir que tenga un sesgo político que podría ser envenenado porque no quiere llevar a cabo ciertas actividades militares, o una amenaza interna que no concuerde con los líderes democráticamente elegidos de este país”, dijo Michael.

Es una posición que Michael lucha por conciliar con las propias afirmaciones de Anthropic sobre su tecnología.

“Dicen que esta tecnología es muy poderosa –más poderosa que un arma nuclear, más poderosa que algunos gobiernos- (y) no quieren usar ese poder para ayudar a nuestro país o a nuestro Departamento de Guerra”, me dijo Michael con incredulidad.

“Esto nunca sucedería en China… Y, sin embargo, no quieren servir a la parte más importante del gobierno en tiempos de conflicto. Parece muy inapropiado”.


Esta historia es parte de NYNext, una mirada privilegiada indispensable a las innovaciones, los éxitos y los movimientos de ajedrez político que más importan a los jugadores poderosos de Nueva York (y a aquellos que aspiran a serlo).


Añadió que lo que hace que la situación sea más extraña es que esto se produce después de años de trabajar con el Pentágono.

“Lo que es muy sorprendente es que para una empresa que no quería hacer cosas para el Departamento de Guerra, ¿por qué venden e implementan su software para el Departamento de Guerra durante tres años? » dijo.

El episodio es un recordatorio de que, aunque empresas como Palantir o Anduril apoyan con entusiasmo a Estados Unidos y aceptan contratos para apoyar a la Aduana, la Patrulla Fronteriza y el ICE, una parte de Silicon Valley todavía se resiste a apoyar al ejército.

El Pentágono calificó a Anthropic como un “riesgo para la cadena de suministro” (una designación típicamente reservada para adversarios extranjeros) y OpenAI intervino para ganar el contrato. PENSILVANIA.

“Cuando acepté este trabajo, pensé que esos días de la revuelta de los empleados de Google en 2018 habían quedado atrás”, dijo, refiriéndose al levantamiento de los empleados que obligó a Google a abandonar el Proyecto Maven, un contrato del Pentágono para utilizar IA para el análisis de imágenes de drones. El incidente se convirtió en un símbolo definitorio de la resistencia de Silicon Valley al trabajo militar.

Pero hoy en día cree que Anthropic es la excepción, no la norma. “No creo que Elon se haya dado cuenta de la IA y Grok”, dijo. ¿E incluso una empresa como Google? Ellos “aprendieron la lección de 2018”.

A medida que el Pentágono ultima contratos masivos con socios de larga data, también está invirtiendo en nuevos proveedores para garantizar que Estados Unidos esté siempre a la cabeza.

En las próximas semanas, dijo Michael, el departamento anunciará una ola de nuevas asociaciones con empresas de defensa más pequeñas y no tradicionales: nuevas empresas liberadas de la carga ideológica que descarriló a Anthropic. Para Michael, este es el buen final de una extraña saga: el futuro de la IA militar estadounidense, construida por empresas que realmente quieren trabajar.

Dijo: “(Ellos) están construyendo cosas para la próxima generación de guerra”.

Enlace de origen

Previous articleLa visita de King a EE.UU. debe realizarse a pesar de la terrible agresión militar de Trump | Simón Jenkins
Next articleMiles de personas se reúnen en Teherán para protestar en Al-Quds a pesar de la guerra en curso
Faustino Falcón
Faustino Falcón es un reconocido columnista y analista español con más de 12 años de experiencia escribiendo sobre política, sociedad y cultura. Licenciado en Ciencias de la Comunicación por la Universidad Complutense de Madrid, Faustino ha desarrollado su carrera en medios nacionales y digitales, ofreciendo opiniones fundamentadas, análisis profundo y perspectivas críticas sobre los temas m A lo largo de su trayectoria, Faustino se ha especializado en temas de actualidad política, reformas sociales y tendencias culturales, combinando un enfoque académico con la experiencia práctica en periodismo. Sus columnas se caracterizan por su claridad, rigor y compromiso con la veracidad de los hechos, lo que le ha permitido ganarse la confianza de miles de lectores. Además de su labor como escritor, Faustino participa regularmente en programas de debate televisivos y podcasts especializados, compartiendo su visión experta sobre cuestiones complejas de la sociedad moderna. También imparte conferencias y talleres de opinión y análisis crítico, fomentando el pensamiento reflexivo entre jóvenes periodistas y estudiantes. Teléfono: +34 612 345 678 Correo: faustinofalcon@sisepuede.es

LEAVE A REPLY

Please enter your comment!
Please enter your name here