Home Noticias Una empresa de inteligencia artificial dice que los espías chinos utilizaron su...

Una empresa de inteligencia artificial dice que los espías chinos utilizaron su tecnología para automatizar los ciberataques

7
0

Los creadores del chatbot de inteligencia artificial (IA), Claude, afirman haber atrapado a piratas informáticos del gobierno chino utilizando la herramienta para lanzar ciberataques automatizados contra unas 30 organizaciones globales.

Anthropic dijo que los piratas informáticos engañaron al chatbot para que realizara tareas automatizadas con el pretexto de una investigación de ciberseguridad.

La empresa declarado en una publicación de blog fue la “primera campaña de ciberespionaje orquestada por IA”.

Pero los escépticos cuestionan la exactitud de esta afirmación y el motivo detrás de ella.

Anthropic dijo que descubrió los intentos de piratería a mediados de septiembre.

Haciéndose pasar por trabajadores legítimos de ciberseguridad, los piratas informáticos asignaron al chatbot pequeñas tareas automatizadas que, unidas, formaron una “campaña de espionaje altamente sofisticada”.

Los investigadores de Anthropic dijeron que estaban “muy seguros” de que los perpetradores de los ataques eran “un grupo patrocinado por el estado chino”.

Dijeron que los humanos eligieron los objetivos (grandes empresas de tecnología, instituciones financieras, empresas de fabricación de productos químicos y agencias gubernamentales), pero que la empresa no sería más específica.

Luego, los piratas informáticos crearon un programa no especificado utilizando la ayuda de codificación de Claude para “comprometer de forma autónoma un objetivo elegido con poca participación humana”.

Anthropic afirma que el chatbot logró piratear varias organizaciones anónimas, extraer datos confidenciales y clasificarlos en busca de información valiosa.

La compañía dijo que desde entonces prohibió a los piratas informáticos usar el chatbot y notificó a las empresas afectadas y a las autoridades.

El anuncio de Anthropic es quizás el ejemplo más destacado de empresas que afirman que los malos actores están utilizando herramientas de inteligencia artificial para llevar a cabo ataques automatizados.

Es el tipo de peligro que preocupa a muchos, pero otras empresas de inteligencia artificial también han afirmado que piratas informáticos de estados-nación han utilizado sus productos.

En febrero de 2024, OpenAI publicó una entrada de blog en colaboración con expertos cibernéticos de Microsoft afirmando que había perturbado a cinco actores afiliados al estado, incluidos algunos chinos.

“Estos actores normalmente buscaban utilizar los servicios de OpenAI para consultar información de código abierto, traducir, encontrar errores de codificación y realizar tareas básicas de codificación”. dijo la empresa en ese momento.

Anthropic no dijo cómo llegó a la conclusión de que los piratas informáticos de esta última campaña estaban vinculados con el gobierno chino.

Esto se produce cuando algunas empresas de ciberseguridad han sido criticadas por promocionar demasiado casos en los que los piratas informáticos utilizaron la IA.

Los críticos dicen que la tecnología todavía es demasiado complicada para ser utilizada en ataques cibernéticos automatizados.

En noviembre, los ciberexpertos de Google publicó un artículo de investigación lo que puso de relieve las crecientes preocupaciones sobre el uso de la IA por parte de los piratas informáticos para crear formas completamente nuevas de malware.

Pero el documento concluyó que estas herramientas no eran muy efectivas y solo se encontraban en su fase de prueba.

La industria de la ciberseguridad, al igual que la industria de la inteligencia artificial, está dispuesta a argumentar que los piratas informáticos están utilizando la tecnología para atacar a las empresas y aumentar el interés en sus propios productos.

En su publicación de blog, Anthropic afirma que la solución para detener a los atacantes de IA es utilizar defensores de IA.

“Las mismas capacidades que permiten utilizar Claude en estos ataques también lo hacen crucial para la ciberdefensa”, afirmó la empresa.

Y Anthropic admitió que el chatbot cometió errores. Por ejemplo, inventó nombres de usuario y contraseñas falsos y afirmó haber extraído información secreta que en realidad estaba disponible públicamente.

“Esto sigue siendo un obstáculo para los ciberataques totalmente autónomos”, dijo Anthropic.

Enlace de origen

Previous articleLista de partidos para la temporada 2026 de la AFL
Next articleSilicone Valley propone la renta básica universal como respuesta al desempleo de la IA
Carmen Ruiz
Carmen Ruiz es periodista de noticias con 7 años de experiencia cubriendo actualidad local, nacional e internacional. Graduada en Periodismo por la Universidad de Granada, Carmen ha trabajado en medios digitales y televisivos, especializándose en reportajes de sucesos, política y sociedad. Carmen se destaca por su compromiso con la veracidad, la claridad y la imparcialidad en la información. Su objetivo es ofrecer a los lectores noticias confiables y bien documentadas, explicando los acontecimientos de manera comprensible y contextualizada. Además, colabora en podcasts y programas informativos, aportando análisis y comentarios basados en hechos. Teléfono: +34 682 345 378 Correo: carmenruiz@sisepuede.es

LEAVE A REPLY

Please enter your comment!
Please enter your name here