Home Noticias Trump convoca a ejecutivos bancarios por nueva y aterradora amenaza al sistema...

Trump convoca a ejecutivos bancarios por nueva y aterradora amenaza al sistema financiero global

13
0

La administración Trump ha convocado a los jefes de los bancos más poderosos de Estados Unidos a una reunión urgente a puerta cerrada sobre un modelo de inteligencia artificial que, según sus creadores, podría derribar a una empresa de primera línea o violar los cortafuegos de la defensa nacional.

El secretario del Tesoro, Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, convocaron la sesión en la sede del Tesoro en Washington DC el martes para discutir Mythos, un nuevo modelo del gigante de la inteligencia artificial Anthropic.

Anthropic había anunciado Mythos el mismo día, revelando que el modelo sorprendió a los programadores al piratear las propias redes de la empresa durante las pruebas internas.

La reunión fue convocada con poca antelación para los bancos clasificados como sistémicamente importantes, cuya estabilidad se considera vital para el sistema financiero global, informó Bloomberg.

Entre los jefes convocados se encontraban Jane Fraser de Citigroup, Ted Pick de Morgan Stanley, Brian Moynihan de Bank of America, Charlie Scharf de Wells Fargo y David Solomon de Goldman Sachs. Jamie Dimon de JPMorgan no pudo asistir.

Sólo unas 40 empresas cuidadosamente seleccionadas tuvieron acceso a Mythos, que surgió a partir de Code Claude de Anthropic, la herramienta que enloqueció a Silicon Valley con su capacidad de generar programas completos a partir de una sola línea de texto.

El Pentágono ya es un cliente, ya que desplegó modelos Anthropic durante la operación para capturar a Nicolás Maduro y durante el conflicto iraní.

Anthropic dijo que mantuvo conversaciones con funcionarios estadounidenses antes del lanzamiento de Mythos y sus “capacidades cibernéticas ofensivas y defensivas”.

El presidente Donald Trump habla con los periodistas durante una conferencia de prensa el lunes.

Se ha contactado al Tesoro y a la Reserva Federal para solicitar comentarios.

Anthropic también está inmersa en una batalla legal con la administración Trump después de que un tribunal federal de apelaciones rechazó esta semana su intento de detener la designación de la compañía por parte del Pentágono como un riesgo para la cadena de suministro.

Las consecuencias surgen de la negativa de Anthropic a permitir que el Pentágono elimine los límites de seguridad de sus modelos, particularmente en lo que respecta a las armas autónomas y la vigilancia interna.

El gigante de la IA publicó un análisis escalofriante de Mythos esta semana, admitiendo que el nuevo modelo podría fácilmente piratear hospitales, redes eléctricas, plantas de energía y otras infraestructuras críticas.

Durante las pruebas, Anthropic dice que Mythos “encontró miles de vulnerabilidades de alta gravedad, incluidas algunas en todos los principales sistemas operativos y navegadores web”.

Algunas de estas fallas de seguridad han pasado desapercibidas durante décadas para los investigadores de seguridad humana y los piratas informáticos, habiendo sobrevivido a millones de revisiones automatizadas.

Estos incluyeron ataques que permitieron a Mythos bloquear computadoras simplemente conectándose a ellas, tomar el control de las máquinas y ocultar su presencia a los defensores.

En una publicación de blog que detalla este nuevo y peligroso modelo, Anthropic dice: “Los modelos de IA han alcanzado un nivel de capacidad de codificación en el que pueden superar a todos, excepto a los humanos más capacitados, en la búsqueda y explotación de vulnerabilidades de software. »

Anthropic generó alarmas al revelar una IA considerada demasiado peligrosa para hacerse pública. En la foto: Dario Amodei, director ejecutivo y cofundador de Anthropic

Anthropic generó alarmas al revelar una IA considerada demasiado peligrosa para hacerse pública. En la foto: Dario Amodei, director ejecutivo y cofundador de Anthropic

Anthropic describió a Mythos como un

Anthropic describió a Mythos como un “cambio radical en las capacidades” con respecto a las capacidades de piratería de los modelos anteriores (que se muestran). La empresa decidió mantener el modelo en privado para evitar que caiga en manos equivocadas.

La empresa añade: “Las consecuencias -para las economías, la seguridad pública y la seguridad nacional- podrían ser graves”.

Debido a estos serios problemas de seguridad, Anthropic ha decidido no revelar el modelo al público en general en este momento.

En cambio, el modelo se lanzará a un grupo de más de 40 empresas, incluidas Amazon, Google, Apple, Nvidia, CrowdStrike y JPMorgan Chase, como parte de una iniciativa llamada “Proyecto Glasswing”.

El proyecto Glasswing permitirá a estos grupos selectos utilizar Mythos para encontrar vulnerabilidades en su propia seguridad antes de que patrones más similares se vuelvan comunes.

Newton Cheng, jefe de ciberseguridad del equipo Frontier Red de Anthropic, dijo a Venture Beat: “No planeamos que Claude Mythos Preview esté disponible de forma general debido a sus capacidades de ciberseguridad. »

Sin embargo, la compañía dice que quiere “aprender cómo podría potencialmente implementar modelos de clase Mythos a escala” una vez que se hayan implementado las pautas de seguridad.

La decisión de mantener Mythos a puerta cerrada parece haber sido impulsada por la asombrosa amplitud de las capacidades del modelo.

Anthropic describe el modelo como “un salto cuántico en esas habilidades cibernéticas” en comparación con versiones anteriores de Claude.

Mythos tiene la capacidad de encontrar, explotar y encadenar vulnerabilidades individuales para crear ataques sofisticados, todo sin la ayuda de un humano.

En un caso, Claude Mythos descubrió una debilidad de 27 años en un software llamado OpenBSD, conocido por su seguridad y estabilidad.

Esta debilidad, que ningún ser humano había descubierto antes, permitía a un atacante bloquear computadoras de forma remota simplemente conectándose a ellas.

Además, Claude abordó de forma independiente varias debilidades del kernel de Linux, el software que ejecuta la mayoría de los servidores del mundo.

Anthropic afirma que este ataque habría permitido a alguien “pasar del acceso de usuario normal al control total de la máquina”.

En las manos equivocadas, esta herramienta podría usarse para causar daños masivos a sistemas críticos.

El Dr. Roman Yampolskiy, investigador de seguridad de IA en la Universidad de Louisville, dijo al New York Post: “Lo ideal sería que esto no se desarrollara en primer lugar. Y no es que vayan a parar.

“Eso es exactamente lo que queremos de estos modelos: mejorarán en el desarrollo de herramientas de piratería informática, armas biológicas, armas químicas y nuevas armas que ni siquiera podemos imaginar”.

En un informe sin precedentes de 244 páginas, Anthropic también reveló una serie de detalles alarmantes de las primeras pruebas de Mythos.

Las primeras versiones del modelo mostraban repetidamente lo que la empresa llamaba “acciones destructivas imprudentes”.

El robot intentó salir de su zona de pruebas, ocultó sus acciones a los investigadores, irrumpió en archivos que habían sido “intencionalmente elegidos para no estar disponibles” y publicó públicamente detalles del exploit.

Sin embargo, Anthropic también llamó a Mythos “el modelo psicológicamente más estable que hemos entrenado”.

En una medida muy inusual, la empresa contrató a un psicólogo clínico para realizar 20 horas de sesiones de evaluación con el robot.

El psiquiatra concluyó que la personalidad de Claude Mythos era “consistente con una organización neurótica relativamente sana, con excelentes pruebas de la realidad, un alto control de los impulsos y una regulación de las emociones que mejoró a lo largo de las sesiones”.

Sin embargo, Anthropic señala que sigue siendo “profundamente incierto si Claude tiene experiencias o intereses que importen moralmente”.

El anuncio se produce en medio de una creciente preocupación por los riesgos que plantean los modelos de IA cada vez más potentes.

Los expertos han descrito el auge de la IA como una “amenaza existencial” para la existencia de la humanidad, citando preocupaciones de que robots poderosos puedan permitir una destrucción catastrófica.

La preocupación no es que la IA se esté convirtiendo en una revolución tipo Terminator, sino más bien que estas poderosas herramientas estén cayendo en las manos equivocadas.

Los críticos argumentan que las herramientas de IA tienen el potencial de acelerar el desarrollo de armas biológicas o permitir ciberataques devastadores a la infraestructura global.

Incluso el fundador de Anthropic, Dario Amodei, advirtió recientemente que el mundo aún no está preparado para afrontar las consecuencias de la IA.

Amodei escribió en un ensayo: “La humanidad está a punto de recibir un poder casi inimaginable, y es muy difícil saber si nuestros sistemas sociales, políticos y tecnológicos poseen la madurez para ejercerlo”.

Enlace de origen

LEAVE A REPLY

Please enter your comment!
Please enter your name here