Home Opiniones La visión de The Guardian sobre la IA: las salidas del personal...

La visión de The Guardian sobre la IA: las salidas del personal de seguridad generan preocupación sobre la búsqueda de ganancias por parte de la industria a toda costa | Editorial

11
0

hApenas pasa un mes sin que un destacado especialista en inteligencia artificial advierta que esta tecnología representa una amenaza existencial para la humanidad. Muchas de estas advertencias pueden ser vagas o ingenuas. Otros pueden estar interesados. Es necesario un examen tranquilo y sensato. Sin embargo, algunas advertencias merecen ser tomadas en serio.

La semana pasada, algunos investigadores destacados de seguridad de IA dimitieron. advertencia que las empresas que buscan ganancias descuidan la seguridad y prefieren productos riesgosos. En el corto plazo, esto sugiere una rápida “enhitificación” en pos de objetivos de corto plazo. ingreso. Sin regulación, el interés público da paso al beneficio. Sin duda, el creciente papel de la IA en el gobierno y la vida cotidiana –así como el deseo de ganancias de los propietarios multimillonarios– exige responsabilidad.

La elección de utilizar agentes (chatbots) como principal interfaz de consumo de la IA fue sobre todo comercial. La apariencia de conversación y reciprocidad promueve una interacción del usuario más profunda que una barra de búsqueda de Google. Zoë Hitzig, investigadora de OpenAI prevenido que la introducción de anuncios en esta dinámica corre el riesgo de ser manipulada. OpenAI afirma que los anuncios no influyen en las respuestas de ChatGPT. Pero, como ocurre con las redes sociales, pueden volverse menos visibles y más psicológicamente específicas, dependiendo de muchos intercambios privados.

Cabe señalar Un rescate por Simoque hizo crecer el negocio publicitario de Facebook, se unió a OpenAI el año pasado. Y OpenAI despidió recientemente a su gerente Ryan Beiermeister por “discriminación sexual”. Varios informes indican que ella se había opuesto firmemente al despliegue de contenido para adultos. En conjunto, estos acontecimientos sugieren que las presiones comerciales están dando forma a la dirección de la empresa y probablemente a la de la industria en su conjunto. La forma en que las herramientas AI Grok de Elon Musk se dejaron activas el tiempo suficiente para generar abusos, luego se restringieron mediante acceso pago antes de finalmente cerrarse después de investigaciones en el Reino Unido y la UE, plantea dudas sobre la monetización de los daños.

Es más difícil evaluar sistemas más especializados creados para fines sociales como la educación y el gobierno. Pero así como la búsqueda frenética de ganancias tiende a introducir sesgos irresistibles en cada sistema humano que tenemos, también lo hará la IA.

Este no es un problema dentro de una sola empresa. Una carta de renuncia más vaga del investigador de seguridad de Anthropic Mrinank Sharma advierte sobre un “mundo en peligro”y que había “visto repetidamente lo difícil que es dejar que nuestros valores gobiernen verdaderamente nuestras acciones”. OpenAI alguna vez fue aparentemente una organización sin fines de lucro; Después de participar en la comercialización a partir de 2019, Anthropic se mostró prometedor como la alternativa más segura y prudente. La partida de Sharma sugiere que incluso las empresas basadas en la disciplina están luchando por resistir el mismo aumento de ganancias.

La causa de este realineamiento es clara. Las empresas están gastando capital de inversión a tasas históricas, sus ingresos no están creciendo lo suficientemente rápido y, a pesar de los impresionantes resultados técnicos, aún no está claro qué puede “hacer” la IA para generar ganancias. Tabaco drogasHemos visto cómo los incentivos a las ganancias pueden distorsionar el juicio. La crisis financiera de 2008 mostró lo que sucede cuando los sistemas críticos están impulsados ​​por necesidades de corto plazo y una supervisión insuficiente.

Se necesita una regulación estatal fuerte para abordar este problema. El reciente Informe global sobre seguridad de la IA 2026 ofrece una evaluación sobria de los riesgos reales (desde la automatización defectuosa hasta la desinformación) y un plan de regulación claro. Sin embargo, a pesar de haber sido aprobado por 60 países, los gobiernos de EE.UU. y el Reino Unido se negó a firmarlo. Esta es una señal preocupante de que están optando por proteger la industria en lugar de obligarla.

Enlace de origen

Previous articlePuede que Eileen Gu esté compitiendo por China, pero la única entidad que realmente representa es Eileen Gu, Inc.
Next article¿Por qué las celebridades evitan la política en el Festival de Cine de Berlín?
Faustino Falcón
Faustino Falcón es un reconocido columnista y analista español con más de 12 años de experiencia escribiendo sobre política, sociedad y cultura. Licenciado en Ciencias de la Comunicación por la Universidad Complutense de Madrid, Faustino ha desarrollado su carrera en medios nacionales y digitales, ofreciendo opiniones fundamentadas, análisis profundo y perspectivas críticas sobre los temas m A lo largo de su trayectoria, Faustino se ha especializado en temas de actualidad política, reformas sociales y tendencias culturales, combinando un enfoque académico con la experiencia práctica en periodismo. Sus columnas se caracterizan por su claridad, rigor y compromiso con la veracidad de los hechos, lo que le ha permitido ganarse la confianza de miles de lectores. Además de su labor como escritor, Faustino participa regularmente en programas de debate televisivos y podcasts especializados, compartiendo su visión experta sobre cuestiones complejas de la sociedad moderna. También imparte conferencias y talleres de opinión y análisis crítico, fomentando el pensamiento reflexivo entre jóvenes periodistas y estudiantes. Teléfono: +34 612 345 678 Correo: faustinofalcon@sisepuede.es

LEAVE A REPLY

Please enter your comment!
Please enter your name here