Sam Altman de OpenAI dijo al personal que quería “ayudar a desactivar” el conflicto entre el Pentágono y su principal rival de AI, Anthropic, que enfrenta una lista negra después de decir que no eliminaría las salvaguardias militares antes de la fecha límite clave del viernes.
Altman dijo a su personal en un memorando el jueves por la noche que OpenAI comparte las mismas “líneas rojas” de seguridad que Anthropic, es decir, que sus herramientas de IA no deben usarse para la vigilancia masiva de estadounidenses o para impulsar armas capaces de disparar sin supervisión humana.
OpenAI está en conversaciones con el Pentágono sobre un posible acuerdo para permitir que sus modelos de IA se utilicen en entornos militares clasificados, según Altman, quien escribió que las discusiones fueron importantes para generar consenso y evitar sentar un precedente peligroso en toda la industria.
“Independientemente de cómo llegamos aquí, esto ya no es sólo un problema entre Anthropic y (el Pentágono); es un problema para toda la industria y es importante aclarar nuestra posición”, escribió Altman en el memorándum: según Axios.
Al mismo tiempo, Altman sugirió que OpenAI podría llegar a un acuerdo con el Pentágono sobre cómo deberían usarse los modelos sin violar sus líneas rojas.
“Creemos que esta disputa no se trata de cómo se utilizará la IA, sino de control. Creemos que una empresa privada estadounidense no puede ser más poderosa que el gobierno estadounidense elegido democráticamente, aunque las empresas pueden tener muchos aportes e influencia. La democracia es complicada, pero estamos comprometidos con ella”, escribió Altman.
El Wall Street Journal fue el primero en informar en la nota.
Anthropic, cuyo chatbot Claude es el único modelo utilizado actualmente por el ejército estadounidense en entornos clasificados, tiene hasta las 5 p.m. ET el viernes para eliminar las salvaguardias. Sec. de Defensa. Pete Hegseth dijo que clasificaría a Anthropic como un “riesgo de la cadena de suministro” o invocaría la Ley de Producción de Defensa para obligarlo a adaptar sus diseños para uso militar a menos que cumpla.
El memorando de Altman apareció horas después de que el director ejecutivo de Anthropic, Dario Amodei, dijera que su empresa, obsesionada con la seguridad, “no podía cumplir con la conciencia tranquila” con las demandas del Pentágono.
Amodei dijo que la última oferta del Pentágono en tensas negociaciones “prácticamente no logró ningún progreso para evitar que Claude sea utilizado para la vigilancia masiva de estadounidenses o en armas totalmente autónomas”.
Emil Michael, subsecretario de Defensa para investigación e ingeniería, criticó duramente a Amodei por su postura, escribiendo en
La posible intervención de OpenAI se produce en medio de relaciones tensas entre Altman y Amodei, quienes recientemente se negaron a darse la mano en el escenario durante una sesión de fotos viral en una cumbre de IA en India.
A principios de esta semana, un alto funcionario de defensa le dijo al Post que Grok de Elon Musk había recibido aprobación para su uso en contextos clasificados, mientras que OpenAI y Google estaban “cerca”.



