hApenas pasa un mes sin que un destacado especialista en inteligencia artificial advierta que esta tecnología representa una amenaza existencial para la humanidad. Muchas de estas advertencias pueden ser vagas o ingenuas. Otros pueden estar interesados. Es necesario un examen tranquilo y sensato. Sin embargo, algunas advertencias merecen ser tomadas en serio.
La semana pasada, algunos investigadores destacados de seguridad de IA dimitieron. advertencia que las empresas que buscan ganancias descuidan la seguridad y prefieren productos riesgosos. En el corto plazo, esto sugiere una rápida “enhitificación” en pos de objetivos de corto plazo. ingreso. Sin regulación, el interés público da paso al beneficio. Sin duda, el creciente papel de la IA en el gobierno y la vida cotidiana –así como el deseo de ganancias de los propietarios multimillonarios– exige responsabilidad.
La elección de utilizar agentes (chatbots) como principal interfaz de consumo de la IA fue sobre todo comercial. La apariencia de conversación y reciprocidad promueve una interacción del usuario más profunda que una barra de búsqueda de Google. Zoë Hitzig, investigadora de OpenAI prevenido que la introducción de anuncios en esta dinámica corre el riesgo de ser manipulada. OpenAI afirma que los anuncios no influyen en las respuestas de ChatGPT. Pero, como ocurre con las redes sociales, pueden volverse menos visibles y más psicológicamente específicas, dependiendo de muchos intercambios privados.
Cabe señalar Un rescate por Simoque hizo crecer el negocio publicitario de Facebook, se unió a OpenAI el año pasado. Y OpenAI despidió recientemente a su gerente Ryan Beiermeister por “discriminación sexual”. Varios informes indican que ella se había opuesto firmemente al despliegue de contenido para adultos. En conjunto, estos acontecimientos sugieren que las presiones comerciales están dando forma a la dirección de la empresa y probablemente a la de la industria en su conjunto. La forma en que las herramientas AI Grok de Elon Musk se dejaron activas el tiempo suficiente para generar abusos, luego se restringieron mediante acceso pago antes de finalmente cerrarse después de investigaciones en el Reino Unido y la UE, plantea dudas sobre la monetización de los daños.
Es más difícil evaluar sistemas más especializados creados para fines sociales como la educación y el gobierno. Pero así como la búsqueda frenética de ganancias tiende a introducir sesgos irresistibles en cada sistema humano que tenemos, también lo hará la IA.
Este no es un problema dentro de una sola empresa. Una carta de renuncia más vaga del investigador de seguridad de Anthropic Mrinank Sharma advierte sobre un “mundo en peligro”y que había “visto repetidamente lo difícil que es dejar que nuestros valores gobiernen verdaderamente nuestras acciones”. OpenAI alguna vez fue aparentemente una organización sin fines de lucro; Después de participar en la comercialización a partir de 2019, Anthropic se mostró prometedor como la alternativa más segura y prudente. La partida de Sharma sugiere que incluso las empresas basadas en la disciplina están luchando por resistir el mismo aumento de ganancias.
La causa de este realineamiento es clara. Las empresas están gastando capital de inversión a tasas históricas, sus ingresos no están creciendo lo suficientemente rápido y, a pesar de los impresionantes resultados técnicos, aún no está claro qué puede “hacer” la IA para generar ganancias. Tabaco drogasHemos visto cómo los incentivos a las ganancias pueden distorsionar el juicio. La crisis financiera de 2008 mostró lo que sucede cuando los sistemas críticos están impulsados por necesidades de corto plazo y una supervisión insuficiente.
Se necesita una regulación estatal fuerte para abordar este problema. El reciente Informe global sobre seguridad de la IA 2026 ofrece una evaluación sobria de los riesgos reales (desde la automatización defectuosa hasta la desinformación) y un plan de regulación claro. Sin embargo, a pesar de haber sido aprobado por 60 países, los gobiernos de EE.UU. y el Reino Unido se negó a firmarlo. Esta es una señal preocupante de que están optando por proteger la industria en lugar de obligarla.



