Anthropic está de vuelta en negociaciones de “último momento” con el Pentágono para resolver una amarga disputa sobre las salvaguardias de la IA, días después de que el director ejecutivo Dario Amodei afirmara que el conflicto se debía en parte a su negativa a dar “elogios al estilo dictatorial” al presidente Trump, según informes.
Amodei mantuvo conversaciones con Emil Michael, subsecretario de investigación e ingeniería del Departamento de Guerra, como parte de un “último esfuerzo” para llegar a un contrato que regule el uso militar de los modelos de IA de la compañía. informó el Financial Times JUEVES.
Según se informa, las conversaciones se reanudaron pocos días después de que Amodei hiciera circular un memorando de 1.600 palabras entre el personal acusando a su rival OpenAI de inventar “mentiras descaradas” sobre sus diferencias con el Pentágono sobre vigilancia y armas autónomas.
El jefe de Anthropic también dijo a los empleados en el memorando del viernes que creía que la animosidad de la administración se debía a su negativa a “donar a Trump”, un sitio de noticias tecnológicas. la informacion informado anteriormente.
“La verdadera razón por la que no les agradamos al DoW y al administrador de Trump es porque no donamos a Trump (mientras que OpenAI/Greg donaron mucho)…” escribió Amodei, refiriéndose a Greg Brockman, presidente y cofundador de OpenAI.
Un acuerdo permitiría al Pentágono continuar usando la tecnología de Anthropic y podría ayudar a la compañía a evitar ser designada oficialmente como “riesgo de la cadena de suministro”, una medida amenazada por el Secretario de Defensa, Pete Hegseth, que obligaría a las empresas de la cadena de suministro militar a cortar los vínculos con la startup.
Hegseth aún no ha hecho la designación.
Amodei, quien hizo una donación a la fallida candidata presidencial demócrata Kamala Harris, criticó lo que describió como mensajes deshonestos de OpenAI y el Pentágono, escribiendo en el memorando: “Quiero ser muy claro sobre el mensaje que proviene de OpenAI y su naturaleza engañosa”.
Añadió que “muchas publicaciones de OpenAI y DoW mienten abiertamente sobre estos temas o intentan confundirlos” e insistió en que “es falso decir que ‘nos ofrecieron los términos de OpenAI y los rechazamos’.
El memorando se envió justo cuando OpenAI anunció que proporcionaría servicios de inteligencia artificial al Pentágono tras la ruptura de las negociaciones entre Anthropic y la administración Trump.
La administración ordenó a todas las agencias federales que dejaran de utilizar los servicios de Anthropic, lo que llevó al contratista de defensa Lockheed Martin a hacer lo mismo.
Amodei, a la que los inversores han instado a hacer paz con la administración TrumpTambién apuntó al enfoque de OpenAI sobre las salvaguardias militares, diciendo que el acuerdo de la compañía con el Pentágono se basa en protecciones que son “quizás un 20% reales y un 80% de seguridad teatral”.
Argumentó que el Pentágono rechazó las salvaguardias más fuertes ofrecidas por Anthropic y aceptó las más débiles de OpenAI.
El jefe de Anthropic también acusó al CEO de OpenAI, Sam Altman, de intentar socavar su empresa mientras llegaba a su propio acuerdo con el Pentágono, escribiendo que Altman “se presentó como alguien que quiere ‘establecer el mismo acuerdo para todos en la industria'” mientras trabajaba “entre bastidores” con el Departamento de Guerra para reemplazar a Anthropic “en el momento en que se nos designe un riesgo en la cadena de suministro”.
Las conversaciones siguen a una acalorada ruptura en las negociaciones entre Amodei y funcionarios del Pentágono sobre el lenguaje que Anthropic quería incluir en el contrato para bloquear el uso de su IA para vigilancia doméstica masiva y armas totalmente autónomas.
Mientras tanto, OpenAI está trabajando para agregar disposiciones a su contrato con el Pentágono que impondrían salvaguardias adicionales destinadas a evitar que su tecnología se utilice para espiar a ciudadanos estadounidenses. según el Financial Times.
El creador de ChatGPT ya revisó el lenguaje del contrato para prohibir la vigilancia “intencional”, “deliberada” o “dirigida” de ciudadanos estadounidenses y está trabajando para agregar protecciones adicionales durante un período de implementación de tres meses, según personas familiarizadas con las negociaciones.
El esfuerzo se produce después de que su rival Anthropic se negara a aceptar términos contractuales similares debido a preocupaciones sobre la vigilancia interna y las armas autónomas, lo que llevó al Pentágono a buscar un acuerdo con OpenAI, informó el Financial Times.
El Post buscó comentarios de la Casa Blanca, OpenAI, Anthropic y el Departamento de Guerra.



