Algunos inversores antropogénicos están desarrollando frustrado con el CEO Dario Amodei postura combativa hacia la administración Trump, incluso cuando el contratista de defensa Lockheed Martin dijo que cumpliría con la prohibición del gobierno sobre las nuevas empresas de IA, según los informes.
Los inversores se quejaron en privado de que Amodei se enfadó con los funcionarios del Pentágono en lugar de trabajar para suavizar las relaciones a medida que la disputa se intensificaba.
Estos partidarios han instado a Anthropic a encontrar una manera de contener las consecuencias, incluso mientras continúan apoyando la posición más amplia de la compañía, porque temen que la postura de Amodei intensifique las tensiones y aumente el riesgo de un retroceso empresarial más amplio relacionado con la lucha contra el Pentágono, informó Reuters.
“Es un problema de ego y diplomacia”, dijo al medio una persona informada sobre las discusiones.
A principios de esta semana, The Post informó que extrañas publicaciones de blog escritas por la investigadora de Anthropic y “filósofa” interna Amanda Askell habían resurgido después de que el presidente Trump llamara a la startup de IA “despertada” y “izquierda radical” mientras anunciaba una prohibición de que la empresa sirviera a agencias federales.
Los artículos, incluido uno que compara el consumo de carne con el “canibalismo ritual” y otro que critica el encarcelamiento, han alimentado las preocupaciones entre algunos funcionarios en Washington sobre las inclinaciones políticas y las influencias ideológicas que dan forma a la empresa detrás del chatbot Claude.
El enfrentamiento se centra en la negativa de Anthropic a abandonar las salvaguardias que impiden el uso de Claude AI para armas autónomas o para la vigilancia masiva de Estados Unidos.
Las tensiones ya están afectando a la industria de defensa.
Lockheed Martin lo dijo estaría en línea con la directiva del gobierno para eliminar gradualmente la tecnología de Anthropic, y se espera que otros contratistas de defensa hagan lo mismo si la puesta en marcha se designa oficialmente como un “riesgo para la cadena de suministro”.
“Seguiremos las instrucciones del presidente y del Departamento de Guerra”, dijo Lockheed Martin a The Post en un comunicado cuando se le preguntó sobre su uso antropogénico tras las acciones tomadas por la administración Trump.
“Esperamos impactos mínimos”, dijo la compañía, y agregó que no depende de ningún proveedor de IA “para ninguna parte de nuestro trabajo”.
Reuters citó a abogados cercanos a empresas gubernamentales que dijeron que esperaban que otras empresas de defensa siguieran el ejemplo de Lockheed.
“La mayoría de las empresas que hacen negocios importantes con el gobierno son muy conscientes de lo que quiere el gobierno de Estados Unidos y probablemente ya estén tomando medidas para limpiar sus cadenas de suministro de Anthropic”, dijo a Reuters Franklin Turner, un abogado especializado en contratos gubernamentales.
“Cualquiera que sea la justificación legal, creo que la amenaza es el punto importante… ya ha causado un daño significativo a la empresa”, añadió, refiriéndose a Anthropic.
Un portavoz de L3Harris declinó hacer comentarios.
El Post buscó comentarios de Anthropic, General Dynamics y RTX, la empresa matriz de Raytheon.
La startup de IA está respaldada por un quién es quién de la tecnología y las finanzas, incluidos Amazon, Google, Microsoft y Nvidia, así como por capitalistas de riesgo como Lightspeed Venture Partners, Iconiq Capital y Coatue.
El director ejecutivo de Amazon, Andy Jassy, también habló con Amodei sobre la disputa en los últimos días, dijeron a Reuters personas familiarizadas con el asunto, aunque la posición que adoptó durante esas conversaciones sigue sin estar clara.
Lightspeed e Iconiq también han estado en contacto con ejecutivos de Anthropic, informó Reuters. El Post solicitó comentarios de Amazon, Lightspeed e Iconiq.
La disputa se intensificó a finales de febrero después de que el Pentágono presionara a las empresas de inteligencia artificial para que aceptaran una cláusula de “cualquier uso legal” que permitiría al ejército desplegar su tecnología sin exclusiones.
Anthropic se negó, manteniendo salvaguardias que prohíben que su Claude AI se utilice para armas totalmente autónomas o vigilancia nacional masiva.
La confrontación se intensificó la semana pasada cuando la administración Trump ordenó a las agencias federales que dejaran de usar la tecnología de Anthropic y comenzaran a eliminarla gradualmente en un plazo de seis meses.
Al mismo tiempo, el secretario de Defensa, Pete Hegseth, decidió etiquetar la startup como un “riesgo potencial para la cadena de suministro”, una designación que podría impedir que los contratistas gubernamentales utilicen sus herramientas.
En los días siguientes, agencias y contratistas comenzaron a luchar para cumplir con la directiva.
OpenAI, un rival de Anthropic, se convirtió en uno de los primeros beneficiarios de la escisión.
La compañía dijo la semana pasada que había llegado a su propio acuerdo clasificado con el Pentágono y ha argumentado públicamente que Anthropic no debería ser etiquetado como un riesgo para la cadena de suministro, incluso cuando los críticos advierten que la disputa podría empujar a las empresas de inteligencia artificial a relajar las salvaguardias para ganar lucrativos contratos de defensa.
Después de que la administración ordenó a los departamentos que eliminaran gradualmente la tecnología de Anthropic, el Departamento de Estado decidió reemplazar su sistema interno “StateChat” con un modelo OpenAI.
El Post ha solicitado comentarios del Pentágono y de la Casa Blanca.



