El mismo modelo de IA que puede ayudarte a escribir un correo electrónico de marketing o una receta para una cena rápida también se utilizó para atacar a Irán. El Comando Central de EE. UU. utilizó Claude AI de Anthropic para “evaluar inteligencia, identificar objetivos y simular escenarios de batalla” durante los ataques al país, según un informe del Wall Street Journal.
Horas antes, el presidente Donald Trump había ordenado a las agencias federales que dejaran de usar Claude después de una disputa con su fabricante, pero la herramienta estaba tan profundamente arraigada en los sistemas del Pentágono que llevaría meses desenredarla en favor de un rival más dócil. También se utilizó en la operación de enero que condujo a la captura de Nicolás Maduro.
Pero, ¿qué significan en la práctica las “evaluaciones de inteligencia” y la “identificación de objetivos”? ¿Claude estaba señalando los lugares donde atacar o haciendo una estimación de las víctimas? Nadie ha hecho esta divulgación y, sorprendentemente, nadie está obligado a hacerlo.
La inteligencia artificial se ha utilizado durante mucho tiempo en la guerra para analizar imágenes de satélite, detectar amenazas cibernéticas y guiar los sistemas de defensa antimisiles. Pero el uso de chatbots (la misma tecnología subyacente que miles de millones de personas utilizan para tareas mundanas como escribir correos electrónicos) se está utilizando ahora en el campo de batalla.
En noviembre pasado, Anthropic se asoció con Palantir Technologies Inc., una empresa de análisis de datos que realiza mucho trabajo para el Pentágono, convirtiendo su gran modelo de lenguaje Claude en un motor de razonamiento dentro de un sistema de apoyo a las decisiones para los militares.
Luego, en enero, Anthropic presentó una propuesta de 100 millones de dólares al Pentágono para desarrollar tecnología de enjambre de drones autónomos controlados por voz, informó Bloomberg News. El discurso de la empresa: utilizar a Claude para traducir la intención de un comandante en instrucciones digitales para coordinar una flota de drones.
Su oferta fue rechazada, pero la competencia requería mucho más que simplemente resumir informes de inteligencia, como se esperaría que hiciera un chatbot. Este contrato tenía como objetivo desarrollar “concienciación e intercambio de objetivos” y “lanzamiento hasta su finalización” para enjambres de drones potencialmente letales.
tierra de nadie
Sorprendentemente, todo esto ocurrió en un vacío regulatorio y con una tecnología conocida por cometer errores. Las alucinaciones de los grandes modelos lingüísticos son el resultado de su entrenamiento, cuando se les recompensa por buscar una respuesta en lugar de admitir su incertidumbre. Algunos científicos dicen que es posible que el desafío actual de la confabulación de la IA nunca se resuelva.
Esta no sería la primera vez que se utilizan sistemas de inteligencia artificial poco fiables en la guerra. Lavender era una base de datos impulsada por inteligencia artificial que se utilizaba para ayudar a identificar objetivos militares asociados con Hamás en Gaza. No era un modelo de lenguaje grande, pero analizaba grandes cantidades de datos de vigilancia, como conexiones sociales e historial de ubicación, para asignar a cada individuo una puntuación del 1 al 100. Cuando la puntuación de una persona excedía un cierto umbral, Lavender la marcaba como un objetivo militar.
El problema era que Lavender se equivocaba el 10 por ciento de las veces, según un informe de investigación publicado por el periódico israelí-palestino +972. “Unas 3.600 personas fueron atacadas por error”, me dijo Mariarosaria Taddeo, profesora de ética digital y tecnología de defensa en el Oxford Internet Institute.
“Existen vulnerabilidades tan increíbles en estos sistemas y una falta de confiabilidad tan extrema… para algo tan dinámico, sensible y humano como la guerra”, dice Elke Schwarz, profesora de teoría política en la Universidad Queen Mary de Londres y autora de Death Machines: The Ethics of Violent Technologies.
Schwarz señala que la IA se utiliza a menudo en la guerra para acelerar las cosas, lo que lleva a resultados indeseables. Se toman decisiones más rápidas a mayor escala y con menos control humano. En los últimos 15 años, el uso militar de la IA se ha vuelto aún más opaco, afirma.
Y el secreto es inherente al funcionamiento de los laboratorios de IA incluso antes de las aplicaciones bélicas. Estas empresas se niegan a revelar con qué datos se entrenan sus modelos o cómo llegan sus sistemas a conclusiones.
Por supuesto, las operaciones militares a menudo deben permanecer en secreto para proteger a los combatientes y mantener a raya a los enemigos. Pero la defensa está fuertemente regulada por el derecho internacional humanitario y las normas de prueba de armas, que en teoría también deberían abordar el uso de inteligencia artificial. Sin embargo, estas normas faltan o son lamentablemente inadecuadas.
Reglas obsoletas
Taddeo señala que el artículo 36 de la Convención de Ginebra exige que los nuevos sistemas de armas se prueben antes de su despliegue, pero que un sistema de IA que aprende de su entorno se convierte en un nuevo sistema con cada actualización. Esto hace que sea casi imposible hacer cumplir la norma.
En un mundo ideal, gobiernos como el de Estados Unidos revelarían cómo se utilizan estos sistemas en el campo de batalla, y existe un precedente. Los estadounidenses comenzaron a utilizar drones armados después del 11 de septiembre y ampliaron su uso bajo la administración de Barack Obama, negándose a reconocer la existencia de tal programa.
Fueron necesarios casi 15 años de documentos filtrados, presión sostenida de la prensa y demandas de la Unión Estadounidense por las Libertades Civiles antes de que la Casa Blanca de Obama finalmente publicara el número de víctimas de los ataques con aviones no tripulados en 2016. Estas medidas fueron ampliamente consideradas subestimadas, pero permitieron que el público, el Congreso y los medios de comunicación responsabilizaran al gobierno por primera vez.
El trabajo policial de Amnistía Internacional será aún más difícil y requerirá aún más presión pública y legislativa para obligar a una administración recalcitrante de Trump a crear un tipo similar de marco de presentación de informes.
El objetivo no sería revelar exactamente cómo se utilizó a Claude en algo como la Operación Furia Épica, sino revelar las líneas generales, según Schwarz. Y sobre todo informar cuando algo anda mal.
El actual debate público sobre la disputa entre Antropógenos y el Pentágono –sobre qué es legal y ético para la IA cuando se trata de vigilancia masiva de estadounidenses o la creación de armas totalmente autónomas– pasa por alto la cuestión más amplia de la falta de visibilidad sobre cómo la tecnología ya se está utilizando en la guerra. Con sistemas tan nuevos y no probados propensos a errores, esto es absolutamente necesario. “Como sociedad, no hemos decidido si aceptamos que una máquina decida si un ser humano debe ser asesinado o no”, afirma Taddeo.
Es esencial impulsar esta transparencia antes de que la IA en la guerra se vuelva tan rutinaria que a nadie se le ocurra pedirla ya. De lo contrario, corremos el riesgo de encontrarnos esperando un error catastrófico y sólo imponer transparencia una vez que el daño ya esté hecho.
Parmy Olson es columnista de opinión de Bloomberg que cubre tecnología. Ex periodista del Wall Street Journal y Forbes, es autora de “Supremacy: AI, ChatGPT and the Race That Will Change the World”. ©2026 Bloomberg LP Visite Bloomberg.com/opinion. Distribuido por la agencia Tribune Content.



