Microsoft, DeepMind de Google y xAI de Elon Musk acordaron compartir las primeras versiones de sus potentes modelos de IA con el gobierno de Estados Unidos para autorizaciones previas y revisiones de seguridad, anunció el martes el Departamento de Comercio.
El Centro de Estándares e Innovación de IA del ministerio dijo que “realizará evaluaciones previas al despliegue e investigaciones específicas” para comprender mejor las capacidades y los riesgos asociados con las nuevas herramientas.
Los acuerdos anteriores con Anthropic y OpenAI también fueron “renegociados” para reflejar las nuevas directrices del secretario de Comercio, Howard Lutnick, y del presidente Trump sobre revisiones de seguridad, dijo el centro.
Las medidas se producen en medio de crecientes temores sobre las nuevas herramientas de inteligencia artificial como Mythos de Anthropic, que los ejecutivos de la compañía temen que puedan provocar una ola de hackeos y ataques terroristas si caen en las manos equivocadas.
Google DeepMind declinó hacer comentarios. Tom Lue, vicepresidente de asuntos globales de IA en el laboratorio de investigación, confirmó la asociación en una publicación en las redes sociales el martes.
La Casa Blanca, el Departamento de Comercio, Microsoft y xAI no respondieron de inmediato a las solicitudes de comentarios del Post.
“La ciencia de medición independiente y rigurosa es esencial para comprender la IA fronteriza y sus implicaciones para la seguridad nacional”, dijo el martes Chris Fall, director del Centro de Estándares e Innovación de IA, o CAISI, en un comunicado.
“Estas colaboraciones ampliadas con la industria nos ayudan a ampliar nuestro trabajo en pro del interés público en un momento crítico”, añadió.
Fall fue anunciado recientemente como director del centro después de que el ex investigador de antropología Collin Burns fuera despedido después de sólo cuatro días en el puesto, según el Washington Post. El cambio de liderazgo se produce mientras la Casa Blanca y Anthropic discuten sobre políticas de seguridad.
El AI Safety Institute se creó en 2023 bajo la administración Biden. Pasó a llamarse CAISI bajo la administración Trump, ya que la Casa Blanca pretendía levantar las barreras de seguridad de la IA para estimular el despliegue de nuevos modelos.
Trump había pregonado anteriormente la necesidad de una rápida aceleración tecnológica en un esfuerzo por vencer a China en la carrera mundial de la IA.
Pero el controvertido lanzamiento de Mythos por parte de Anthropic ha hecho reflexionar a algunos responsables políticos.
El análisis de Nightmare del propio Anthropic mostró que Mythos podría explotar fácilmente las redes eléctricas, las plantas de energía y los hospitales si fuera pirateado.
El modelo ya ha “encontrado miles de vulnerabilidades de alta gravedad, incluidas algunas en todos los principales sistemas operativos y navegadores web”, había pregonado anteriormente la compañía de inteligencia artificial. Se dice que el acceso estaría limitado a un grupo de empresas, entre ellas Amazon, Google y JPMorgan.
El director general de Anthropic, Dario Amodei, predijo que otros competidores se pondrían al día en unos pocos meses.
OpenAI está planeando un lanzamiento limitado de su último modelo, llamado GPT-5.5-Cyber, por razones de seguridad.
Los estadounidenses parecen cada vez más escépticos ante la innovación en IA.
A Encuesta del Centro de Investigación Pew El año pasado, el 50% de los republicanos y el 51% de los demócratas dijeron que estaban más preocupados que entusiasmados por el mayor uso de la IA en la vida diaria.



