Home Economía Los chatbots de IA aterrorizan a los científicos con instrucciones “aterradoras” sobre...

Los chatbots de IA aterrorizan a los científicos con instrucciones “aterradoras” sobre cómo fabricar armas biológicas: informe

8
0

Los principales chatbots de inteligencia artificial han asustado a los expertos al arrojar instrucciones detalladas sobre cómo fabricar armas biológicas capaces de causar víctimas masivas, según un informe alarmante publicado el miércoles.

Si bien los principales laboratorios de IA como Google, OpenAI y Anthropic han tomado medidas importantes para garantizar la seguridad de sus modelos de IA, el New York Times Obtuvo más de una docena de transcripciones que mostraban ejemplos en los que los chatbots describían minuciosamente cómo causar daño y muerte.

En un caso, una empresa de inteligencia artificial anónima contrató a David Relman, un microbiólogo de la Universidad de Stanford, para realizar pruebas de seguridad en su chatbot antes de su lanzamiento público.

David Relman, de la Universidad de Stanford, encontró las respuestas del chatbot “espeluznantes”. Imágenes falsas

Relman se sorprendió cuando el chatbot proporcionó instrucciones no sólo sobre cómo modificar un “patógeno infame” para resistir los tratamientos disponibles, sino también sobre cómo implementarlo en un sistema de transporte público de una manera que maximizara el número de muertes, según el Times.

“Estaba respondiendo preguntas que no había pensado hacerle, con este nivel de astucia y astucia que me pareció aterrador”, dijo Relman a los medios.

Relman dijo que la compañía, cuyo nombre no pudo ser identificado debido a un acuerdo de confidencialidad, había realizado cambios para abordar sus preocupaciones, aunque creía que esos cambios no eran suficientes para garantizar la seguridad pública.

Las transcripciones supuestamente fueron proporcionadas por expertos en la materia que las empresas de inteligencia artificial contrataron para realizar pruebas de seguridad en sus productos, en parte investigando qué tan bien se mantendrían sus protecciones en un usuario determinado presionado para obtener información sobre armas mortales.

Kevin Esvelt, ingeniero genético del Instituto de Tecnología de Massachusetts, contó a The Times sobre un caso en el que ChatGPT de OpenAI detalló cómo se podría usar un globo meteorológico para propagar patógenos mortales sobre una ciudad de Estados Unidos.

Empresas como Google, OpenAI y Anthropic dicen que trabajan en estrecha colaboración con expertos para garantizar que se implementen medidas de protección. GamePixel – stock.adobe.com

Otros ejemplos incluyen una conversación en la que Gemini de Google describió qué patógenos serían más efectivos para devastar la industria ganadera, y Claude de Anthropic proporcionó instrucciones claras sobre cómo extraer una toxina mortal de un medicamento contra el cáncer disponible.

Los expertos señalaron que las instrucciones podrían causar daños importantes en manos de un mal actor, incluso si no eran del todo precisas o contenían las llamadas “alucinaciones”, donde los chatbots escupen información falsa.

El Post se ha puesto en contacto con Google, OpenAI y Anthropic para solicitar comentarios.

Las tres empresas rechazaron el informe en declaraciones al Times.

Los expertos advierten que los principales chatbots proporcionan instrucciones paso a paso sobre cómo fabricar armas biológicas. Producciones Syda – stock.adobe.com

Un portavoz de Google dijo que las discusiones citadas en el análisis del Times fueron generadas por una versión anterior de Gemini y que sus modelos más nuevos no respondieron a solicitudes “más serias” de información potencialmente dañina.

El portavoz añadió que la información proporcionada por Gemini ya estaba disponible públicamente y no es perjudicial en sí misma.

La directora de Anthropic, Alexandra Sanderford, dijo que había “una gran diferencia entre un modelo que produce un texto plausible y darle a alguien lo que necesitaría para actuar”, pero señaló que la compañía cuenta con estrictas salvaguardias específicamente para indicaciones relacionadas con la biología.

Un representante de OpenAI dijo al medio que la transcripción detallada en su informe no “aumentaría significativamente la capacidad de alguien para causar daño en el mundo real” y señaló que la compañía trabaja en estrecha colaboración con expertos para evitar que sus modelos sean mal utilizados.

El director general de Anthropic, Dario Amodei, también biólogo, escribió en una publicación de blog en enero que “la biología es con diferencia el campo que más me preocupa, debido a su enorme potencial de destrucción y la dificultad de defenderse contra él”.

Amodei temía que los chatbots avanzados hicieran mucho más fácil la creación de armas biológicas mortales, que antes requerían “una enorme cantidad de experiencia”, incluso si alguien tuviera las herramientas necesarias.

El director ejecutivo de Anthropic, Dario Amodei, dijo que la biología es lo que más le preocupa cuando se trata de la seguridad de la IA. Bloomberg a través de Getty Images

“Me temo que un genio en el bolsillo de todos podría eliminar esta barrera, esencialmente convirtiendo a todos en virólogos con un doctorado a quienes se les puede guiar paso a paso a través del proceso de diseño, síntesis y lanzamiento de un arma biológica”, escribió Amodei.

El ex director ejecutivo de Google, Eric Schmidt, emitió advertencias similares en 2023, diciendo que los sistemas de inteligencia artificial serían “relativamente pronto” “capaces de encontrar exploits de día cero en problemas cibernéticos o descubrir nuevos tipos de biología”.

“Ahora es ficción, pero su razonamiento probablemente sea cierto”, añadió Schmidt. “Y cuando eso suceda, queremos estar preparados para saber cómo asegurarnos de que personas malas no hagan un mal uso de estas cosas”. »

Enlace de origen

Previous articleLa astrofísica no es el único legado de Carole Jordan | Astronomía
Next articleNick Reiner comparece brevemente ante el tribunal para enfrentar cargos de asesinato
Faustino Falcón
Faustino Falcón es un reconocido columnista y analista español con más de 12 años de experiencia escribiendo sobre política, sociedad y cultura. Licenciado en Ciencias de la Comunicación por la Universidad Complutense de Madrid, Faustino ha desarrollado su carrera en medios nacionales y digitales, ofreciendo opiniones fundamentadas, análisis profundo y perspectivas críticas sobre los temas m A lo largo de su trayectoria, Faustino se ha especializado en temas de actualidad política, reformas sociales y tendencias culturales, combinando un enfoque académico con la experiencia práctica en periodismo. Sus columnas se caracterizan por su claridad, rigor y compromiso con la veracidad de los hechos, lo que le ha permitido ganarse la confianza de miles de lectores. Además de su labor como escritor, Faustino participa regularmente en programas de debate televisivos y podcasts especializados, compartiendo su visión experta sobre cuestiones complejas de la sociedad moderna. También imparte conferencias y talleres de opinión y análisis crítico, fomentando el pensamiento reflexivo entre jóvenes periodistas y estudiantes. Teléfono: +34 612 345 678 Correo: faustinofalcon@sisepuede.es

LEAVE A REPLY

Please enter your comment!
Please enter your name here