Home Economía Los inversores antropogénicos piden una tregua con el Pentágono, mientras Lockheed Martin...

Los inversores antropogénicos piden una tregua con el Pentágono, mientras Lockheed Martin elimina silenciosamente la tecnología del gigante de la IA

9
0

Algunos inversores antropogénicos están desarrollando frustrado con el CEO Dario Amodei postura combativa hacia la administración Trump, incluso cuando el contratista de defensa Lockheed Martin dijo que cumpliría con la prohibición del gobierno sobre las nuevas empresas de IA, según los informes.

Los inversores se quejaron en privado de que Amodei se enfadó con los funcionarios del Pentágono en lugar de trabajar para suavizar las relaciones a medida que la disputa se intensificaba.

Estos partidarios han instado a Anthropic a encontrar una manera de contener las consecuencias, incluso mientras continúan apoyando la posición más amplia de la compañía, porque temen que la postura de Amodei intensifique las tensiones y aumente el riesgo de un retroceso empresarial más amplio relacionado con la lucha contra el Pentágono, informó Reuters.

“Es un problema de ego y diplomacia”, dijo al medio una persona informada sobre las discusiones.

Según se informa, Dario Amodei, director ejecutivo de Anthropic, ha recibido críticas de los inversores por su manejo de los contactos con la administración Trump. REUTERS

A principios de esta semana, The Post informó que extrañas publicaciones de blog escritas por la investigadora de Anthropic y “filósofa” interna Amanda Askell habían resurgido después de que el presidente Trump llamara a la startup de IA “despertada” y “izquierda radical” mientras anunciaba una prohibición de que la empresa sirviera a agencias federales.

Los artículos, incluido uno que compara el consumo de carne con el “canibalismo ritual” y otro que critica el encarcelamiento, han alimentado las preocupaciones entre algunos funcionarios en Washington sobre las inclinaciones políticas y las influencias ideológicas que dan forma a la empresa detrás del chatbot Claude.

El enfrentamiento se centra en la negativa de Anthropic a abandonar las salvaguardias que impiden el uso de Claude AI para armas autónomas o para la vigilancia masiva de Estados Unidos.

Las tensiones ya están afectando a la industria de defensa.

Lockheed Martin lo dijo estaría en línea con la directiva del gobierno para eliminar gradualmente la tecnología de Anthropic, y se espera que otros contratistas de defensa hagan lo mismo si la puesta en marcha se designa oficialmente como un “riesgo para la cadena de suministro”.

El secretario de Defensa, Pete Hegseth, ha decidido etiquetar a Anthropic como un “riesgo potencial para la cadena de suministro”, una designación que podría impedir que los contratistas gubernamentales utilicen sus herramientas. PENSILVANIA.

“Seguiremos las instrucciones del presidente y del Departamento de Guerra”, dijo Lockheed Martin a The Post en un comunicado cuando se le preguntó sobre su uso antropogénico tras las acciones tomadas por la administración Trump.

“Esperamos impactos mínimos”, dijo la compañía, y agregó que no depende de ningún proveedor de IA “para ninguna parte de nuestro trabajo”.

Reuters citó a abogados cercanos a empresas gubernamentales que dijeron que esperaban que otras empresas de defensa siguieran el ejemplo de Lockheed.

“La mayoría de las empresas que hacen negocios importantes con el gobierno son muy conscientes de lo que quiere el gobierno de Estados Unidos y probablemente ya estén tomando medidas para limpiar sus cadenas de suministro de Anthropic”, dijo a Reuters Franklin Turner, un abogado especializado en contratos gubernamentales.

“Cualquiera que sea la justificación legal, creo que la amenaza es el punto importante… ya ha causado un daño significativo a la empresa”, añadió, refiriéndose a Anthropic.

El presidente Trump calificó a la startup de IA como “despertada” y “de izquierda radical” al tiempo que anunció la prohibición de que la empresa preste servicios a agencias federales. PENSILVANIA.

Un portavoz de L3Harris declinó hacer comentarios.

El Post buscó comentarios de Anthropic, General Dynamics y RTX, la empresa matriz de Raytheon.

La startup de IA está respaldada por un quién es quién de la tecnología y las finanzas, incluidos Amazon, Google, Microsoft y Nvidia, así como por capitalistas de riesgo como Lightspeed Venture Partners, Iconiq Capital y Coatue.

El director ejecutivo de Amazon, Andy Jassy, ​​también habló con Amodei sobre la disputa en los últimos días, dijeron a Reuters personas familiarizadas con el asunto, aunque la posición que adoptó durante esas conversaciones sigue sin estar clara.

Lightspeed e Iconiq también han estado en contacto con ejecutivos de Anthropic, informó Reuters. El Post solicitó comentarios de Amazon, Lightspeed e Iconiq.

La disputa se intensificó a finales de febrero después de que el Pentágono presionara a las empresas de inteligencia artificial para que aceptaran una cláusula de “cualquier uso legal” que permitiría al ejército desplegar su tecnología sin exclusiones.

Anthropic se negó, manteniendo salvaguardias que prohíben que su Claude AI se utilice para armas totalmente autónomas o vigilancia nacional masiva.

Lockheed Martin, fabricante del avión de combate F-35 Lightning II, siguió el ejemplo del gobierno y excluyó la tecnología Anthropic de sus sistemas. A1C Aidan Martínez Rosiere/USAF/SWNS

La confrontación se intensificó la semana pasada cuando la administración Trump ordenó a las agencias federales que dejaran de usar la tecnología de Anthropic y comenzaran a eliminarla gradualmente en un plazo de seis meses.

Al mismo tiempo, el secretario de Defensa, Pete Hegseth, decidió etiquetar la startup como un “riesgo potencial para la cadena de suministro”, una designación que podría impedir que los contratistas gubernamentales utilicen sus herramientas.

En los días siguientes, agencias y contratistas comenzaron a luchar para cumplir con la directiva.

OpenAI, un rival de Anthropic, se convirtió en uno de los primeros beneficiarios de la escisión.

La compañía dijo la semana pasada que había llegado a su propio acuerdo clasificado con el Pentágono y ha argumentado públicamente que Anthropic no debería ser etiquetado como un riesgo para la cadena de suministro, incluso cuando los críticos advierten que la disputa podría empujar a las empresas de inteligencia artificial a relajar las salvaguardias para ganar lucrativos contratos de defensa.

Después de que la administración ordenó a los departamentos que eliminaran gradualmente la tecnología de Anthropic, el Departamento de Estado decidió reemplazar su sistema interno “StateChat” con un modelo OpenAI.

El Post ha solicitado comentarios del Pentágono y de la Casa Blanca.

Enlace de origen

Previous articleCasa de tres habitaciones en Pleasanton se vende por $1,7 millones
Next articlePutin acusa a Ucrania de “ataque terrorista” mientras un petrolero golpea Malta
Faustino Falcón
Faustino Falcón es un reconocido columnista y analista español con más de 12 años de experiencia escribiendo sobre política, sociedad y cultura. Licenciado en Ciencias de la Comunicación por la Universidad Complutense de Madrid, Faustino ha desarrollado su carrera en medios nacionales y digitales, ofreciendo opiniones fundamentadas, análisis profundo y perspectivas críticas sobre los temas m A lo largo de su trayectoria, Faustino se ha especializado en temas de actualidad política, reformas sociales y tendencias culturales, combinando un enfoque académico con la experiencia práctica en periodismo. Sus columnas se caracterizan por su claridad, rigor y compromiso con la veracidad de los hechos, lo que le ha permitido ganarse la confianza de miles de lectores. Además de su labor como escritor, Faustino participa regularmente en programas de debate televisivos y podcasts especializados, compartiendo su visión experta sobre cuestiones complejas de la sociedad moderna. También imparte conferencias y talleres de opinión y análisis crítico, fomentando el pensamiento reflexivo entre jóvenes periodistas y estudiantes. Teléfono: +34 612 345 678 Correo: faustinofalcon@sisepuede.es

LEAVE A REPLY

Please enter your comment!
Please enter your name here