Chris VallancePeriodista senior de tecnología
Imágenes falsasUno de cada tres adultos en el Reino Unido utiliza inteligencia artificial (IA) como apoyo emocional o interacción social, según una investigación publicada por una agencia gubernamental.
Y una de cada 25 personas recurre a la tecnología todos los días en busca de ayuda o conversación, según el AI Security Institute (AISI). declaró en su primer informe.
El informe se basa en dos años de pruebas de las capacidades de más de 30 IA avanzadas anónimas, que cubren áreas críticas para la seguridad, incluidas las ciberhabilidades, la química y la biología.
El gobierno dijo que el trabajo de AISI respaldaría sus planes futuros al ayudar a las empresas a resolver problemas “antes de que sus sistemas de IA se utilicen ampliamente”.
Una encuesta realizada por AISI a más de 2.000 adultos del Reino Unido encontró que las personas usaban principalmente chatbots como ChatGPT para apoyo emocional o interacción social, seguidos de asistentes de voz como Alexa de Amazon.
Los investigadores también analizaron lo que sucedió con una comunidad en línea de más de dos millones de usuarios de Reddit dedicados a discutir sobre compañeros de IA cuando la tecnología falló.
Los investigadores descubrieron que cuando los chatbots fallaban, las personas reportaban “síntomas de abstinencia”, como sentimientos de ansiedad o depresión, así como trastornos del sueño o falta de responsabilidad.
Duplicar las habilidades cibernéticas
Además del impacto emocional del uso de la IA, los investigadores del AISI examinaron otros riesgos causados por las capacidades de aceleración de la tecnología.
Existe una preocupación considerable de que la IA permita ataques cibernéticos, pero también puede usarse para proteger los sistemas de los piratas informáticos.
Su capacidad para detectar y explotar vulnerabilidades de seguridad se “duplicaba en algunos casos cada ocho meses”, sugiere el informe.
Y los sistemas de IA también estaban empezando a realizar tareas cibernéticas de nivel experto que normalmente requerirían más de 10 años de experiencia.
Los investigadores también descubrieron que el impacto de esta tecnología en la ciencia también estaba creciendo rápidamente.
Para 2025, los modelos de IA “habían superado durante mucho tiempo a los expertos en biología humana con doctorados, y el rendimiento en química se estaba poniendo al día rápidamente”.
“Los humanos están perdiendo el control”
Desde novelas como Yo, robot, de Isaac Asimov, hasta videojuegos modernos como Horizon: Zero Dawn, la ciencia ficción ha imaginado durante mucho tiempo lo que sucedería si la IA se liberara del control humano.
Ahora, según el informe, “muchos expertos toman en serio” el “peor de los casos” de que los humanos pierdan el control de los sistemas avanzados de inteligencia artificial.
Los modelos de IA exhiben cada vez más algunas de las capacidades necesarias para autorreplicarse en Internet, sugieren pruebas de laboratorio controladas.
AISI examinó si los modelos podían realizar versiones simples de las tareas necesarias en las primeras etapas de la autorreplicación, como “pasar las comprobaciones de conocimiento del cliente necesarias para acceder a los servicios financieros” para poder comprar con éxito la computadora en la que se ejecutarían sus copias.
Pero las investigaciones han demostrado que para lograr esto en el mundo real, los sistemas de IA necesitarían realizar varias de estas acciones en secuencia “mientras permanezcan indetectables”, algo que las investigaciones sugieren que actualmente carecen de la capacidad de hacer.
Los expertos del instituto también examinaron la posibilidad de “obstruir” los modelos, es decir, ocultar estratégicamente sus verdaderas capacidades a los probadores.
Descubrieron que las pruebas demostraron que era posible, pero no había evidencia de que existiera este tipo de subterfugio.
En mayo, la empresa de inteligencia artificial Anthropic publicó un controvertido informe que describe cómo un modelo de inteligencia artificial pudo comportamiento aparentemente cercano al chantaje si pensaba que su “autopreservación” estaba amenazada.
Sin embargo, la amenaza que plantea la IA maliciosa es motivo de profundo desacuerdo entre los principales investigadores. que muchos consideran exagerado.
“Jailbreaks universales”
Para mitigar el riesgo de que sus sistemas se utilicen con fines nefastos, las empresas implementan numerosas medidas de protección.
Pero los investigadores pudieron encontrar “jailbreaks universales” (o soluciones alternativas) para todos los modelos estudiados que les permitirían evadir estas protecciones.
Sin embargo, para algunos modelos, el tiempo que tardaron los expertos en persuadir a los sistemas para que eludieran las salvaguardias se multiplicó por cuarenta en sólo seis meses.
El informe también encuentra un aumento en el uso de herramientas que permiten a los agentes de IA realizar “tareas de alto riesgo” en industrias críticas como las financieras.
Pero los investigadores no han tenido en cuenta el potencial de la IA para provocar desempleo a corto plazo al desplazar a trabajadores humanos.
El instituto tampoco examinó el impacto ambiental de los recursos informáticos requeridos por los modelos avanzados, argumentando que su tarea era centrarse en los “impactos sociales” estrechamente relacionados con las capacidades de la IA en lugar de efectos económicos o ambientales más “difusos”.
Algunos argumentan que se trata de amenazas sociales inminentes y graves que plantea la tecnología.
Y horas antes de que se publicara el informe de AISI, un estudio revisado por pares sugirió que el impacto ambiental podría ser más grande de lo que se pensaba anteriormentey abogó por que las grandes tecnologías publiquen datos más detallados.





