Google llegó a un acuerdo con el Pentágono que permite que sus modelos de inteligencia artificial se utilicen en sistemas clasificados, lo que provocó un enfrentamiento con cientos de empleados que exigieron que el director ejecutivo, Sundar Pichai, rescindiera el contrato.
El acuerdo permite al Pentágono utilizar la IA de Google para “cualquier propósito gubernamental legítimo”. Información reportadacitando una fuente con conocimiento del tema. Sus rivales OpenAI y xAI llegaron recientemente a acuerdos similares después de que el Departamento de Guerra rompiera sus vínculos con Anthropic por su negativa a eliminar las “líneas rojas” de seguridad relacionadas con las armas autónomas y la vigilancia masiva.
La asociación surgió el mismo día en que más de 600 empleados de Google escribieron una carta a Pichai diciendo que estaban “profundamente preocupados” por las negociaciones de la empresa con el Pentágono.
“Actualmente, la única forma de garantizar que Google no esté asociado con tales daños es rechazar cualquier carga de trabajo clasificada”, afirma la carta, que se publicó por primera vez. informado por Bloomberg. “De lo contrario, tales usos podrían tener lugar sin nuestro conocimiento y sin que tengamos el poder de detenerlos. »
Los trabajadores añadieron que “tomar la decisión equivocada ahora causaría un daño irreparable a la reputación, el negocio y el papel de Google en el mundo”.
El Post se ha puesto en contacto con Google para solicitar comentarios.
Un portavoz de Google confirmó la asociación con el Pentágono y la describió como una actualización del contrato existente de la compañía, que permitía que sus modelos fueran utilizados en entornos militares no clasificados.
“Estamos orgullosos de ser parte de un amplio consorcio de laboratorios de inteligencia artificial y empresas de tecnología y nube líderes que brindan servicios e infraestructura de inteligencia artificial en apoyo de la seguridad nacional”, dijo el portavoz en un comunicado.
“Seguimos comprometidos con el consenso de los sectores público y privado de que la IA no debe utilizarse para vigilancia masiva nacional o armamento autónomo sin una supervisión humana adecuada”, añadió el portavoz.
El texto del acuerdo de Google establece que la compañía y el Pentágono “acuerdan que el sistema de IA no está destinado ni debe usarse para vigilancia masiva doméstica o armas autónomas (incluida la selección de objetivos) sin supervisión y control humanos adecuados”, según los informes.
Al mismo tiempo, reconoce que Google no se reserva ningún derecho a “controlar o vetar decisiones operativas legales del gobierno”.
El acuerdo podría crear nuevos problemas internos para Google, que a menudo ha enfrentado presiones de empleados activistas dentro de sus filas por trabajar con aplicaciones militares.
En abril de 2024, los empleados de Google realizaron sentadas en las oficinas de la empresa en Nueva York y California para protestar por sus vínculos comerciales con el gobierno israelí durante la guerra de Gaza.
El gigante tecnológico finalmente despidió a decenas de trabajadores que participaron en las sentadas.
Mientras tanto, Anthropic y su controvertido director ejecutivo, Dario Amodei, están demandando al Pentágono por su decisión de etiquetar a la empresa como “riesgo de la cadena de suministro”, una designación normalmente reservada para entidades extranjeras.



