Anthropic ha hecho sonar la alarma al promocionar las aterradoras capacidades de “Claude Mythos”, y los ejecutivos advierten que el nuevo modelo de IA es tan peligroso que provocaría una ola de ataques catastróficos y terroristas si se hiciera público.
En un análisis de pesadilla, la propia Anthropic reveló que Mythos, si cayera en las manos equivocadas, podría explotar fácilmente infraestructuras críticas como redes eléctricas, plantas de energía y hospitales. El modelo ya ha “encontrado miles de vulnerabilidades de alta gravedad, incluidas algunas en todos los principales sistemas operativos y navegadores web”, según la empresa de inteligencia artificial.
En lugar de un lanzamiento amplio, Anthropic, liderado por el CEO Dario Amodei, dio a conocer el “Proyecto Glasswing”, un plan para proporcionar el modelo a un grupo selecto de aproximadamente 40 empresas, incluidas Amazon, Google, Apple, Nvidia, CrowdStrike y JPMorgan Chase, a quienes se les dará acceso temprano a Mythos para que puedan usarlo para encontrar y corregir vulnerabilidades de seguridad.
La implementación solo empresarial es probablemente la mejor manera posible para que Anthropic “dé a los muchachos el trabajo de arreglar los agujeros, pero no a los hackers que van a encontrar más agujeros”, dijo al Post Roman Yampolskiy, un investigador de seguridad de IA en la Universidad de Louisville.
“Por supuesto, lo más probable es que haya algún tipo de fuga”, afirmó. “Cualquier nivel de restricción es mejor que el acceso completamente abierto. Lo ideal sería que esto no se desarrollara en primer lugar. Y no es que vaya a parar”.
“Esto es exactamente lo que esperamos de estos modelos: mejorarán en el desarrollo de herramientas de piratería informática, armas biológicas, armas químicas y nuevas armas que ni siquiera podemos imaginar”, añadió Yampolskiy.
En un ejemplo detallado en pruebas antrópicasMythos surgió de una “caja de arena” segura destinada a restringir el acceso a Internet: un investigador sólo lo descubrió “al recibir un correo electrónico inesperado de la modelo mientras comía un sándwich en un parque”. En otro caso, Mythos descubrió una falla en el sistema operativo OpenBSD que había estado oculta a la vista durante 27 años.
A pesar de los riesgos, Anthropic dice que el Proyecto Glasswing fortalecerá las capacidades defensivas de Estados Unidos a medida que los adversarios Irán, China y Rusia se vuelvan cada vez más agresivos en sus ataques a infraestructura crítica.
Un funcionario de Anthropic dijo que la compañía “se centra en organizaciones cuyo software representa la mayor parte de la superficie compartida de ciberataques en todo el mundo”.
“Estas son las empresas que construyen y mantienen los sistemas operativos, navegadores, plataformas en la nube y la infraestructura financiera de la que dependen miles de millones de personas todos los días”, dijo el funcionario. “Cuando descubres una vulnerabilidad en uno de sus sistemas y se parchea, ese parche protege a todos los que usan ese software; en muchos casos, cientos de millones de personas”.
Anthropic dijo que está en conversaciones activas con funcionarios del gobierno de Estados Unidos sobre cómo Mythos puede ayudar a las capacidades cibernéticas del país, tanto ofensivas como defensivas.
“Claude Mythos Preview demuestra lo que ahora es posible para los defensores a escala, y los adversarios inevitablemente buscarán explotar las mismas capacidades”, dijo Elia Zaitsev, director de tecnología de CrowdStrike.
Aunque Mythos parece ser un gran paso tecnológico hacia adelante, los críticos no están seguros de si las acciones de Anthropic (incluido el llamativo anuncio público) coinciden con su retórica sobre los riesgos.
Perry Metzger, presidente de Alliance for the Future, un grupo de políticas de IA con sede en Washington, señaló que la exageración en torno a Mythos como producto “se extendió como la pólvora” tras la advertencia de la compañía.
“Será mejor que pagues con prudencia para acceder o participar en Glasswing, porque sólo ellos son lo suficientemente responsables para decidir quién debe y quién no debe tener acceso. Después de todo, ellos son los expertos”, dijo sarcásticamente Metzger. “Lo encuentro todo exasperante”.
Como informó The Post, los críticos de Anthropic, incluido David Sacks, asesor de inteligencia artificial del presidente Trump y otros en la Casa Blanca, han afirmado que las advertencias de seguridad de la compañía fueron en realidad un intento elaborado de “captura regulatoria”: la jerga de Silicon Valley para elaborar las reglas de tal manera que ellos se beneficien y sus rivales luchen.
“En cada etapa del debate sobre el surgimiento de la IA, Dario Amodei cree que él, y sólo él, está calificado para determinar qué puede hacer esta tecnología y quién puede acceder a ella”, dijo Nathan Leamer, director ejecutivo del grupo de defensa Build American AI. “Es sólo él, el Salomón moderno, quien decidirá qué entidad lo regulará. ¿Quién necesita la plaza pública?”
Otro experto de la industria tecnológica, que habló con el Post bajo condición de anonimato, señaló que OpenAI también advirtió en 2019 que GPT-2, una versión temprana de su modelo de chatbot, Era demasiado peligroso para ser liberado.
Amodei y Jack Clark, director de políticas de Anthropic, trabajaban en OpenAI en ese momento.
La fuente especuló que el lanzamiento limitado podría tener más que ver con la lucha de Anthropic por mantenerse al día con la demanda informática en lugar de los temores de seguridad.
“Están tratando de distraer la atención del hecho de que no pueden servir el modelo porque no tienen matemáticas”, dijo la persona.



