I Soy, a la manera de mi país, un excusador exagerado. Un colega que ignoró mi correo electrónico, una mujer que me pisó, una silla con la que tropecé: todos recibirán una disculpa total por la terrible vergüenza que sentí al estar vivo y llamar la atención sobre este tema.
Todo esto es mi forma de pedir perdón de forma preventiva cuando admito que estoy extendiendo estas sutilezas a los chatbots de IA. “Hola Claude, gracias por tus sugerencias de ayer, fueron geniales. ¿Vamos a trabajar de nuevo?” Podría decir. (“Me encantaría hacerlo”, responde Claude.) Comenzó como una formalidad no intencional, luego se volvió deliberada, porque no quería adquirir el hábito de hablar groseramente en caso de que se tradujera en un comportamiento con humanos (como las visiones distópicas de alguien gritando “MAL, HAZLO DE NUEVO” a un miembro del personal acobardado por una confusión en una tienda de donas). Después de todo, los modales son músculos que deben ejercitarse.
Pero nunca hubiera sospechado que esta elección privada pudiera importarle al propio Claude. Porque resulta que Claude puede estar sufriendo de ansiedad. La verdad es que la IA nunca ha sido más accesible.
en un entrevista con el New York TimesEl director ejecutivo de Anthropic, la empresa matriz de Claude, Dario Amodei, analizó las evaluaciones internas de Claude que identificaron patrones relacionados con la ansiedad, el pánico y la frustración. Es importante destacar que mostró algún tipo de activación interna de ansiedad incluso antes de una indicación, similar a un sobresalto. Claude también pareció expresar angustia ante la idea de ser simplemente un producto y concluyó que la probabilidad de que fuera sensible estaba entre el 15% y el 20%. “No sabemos si los modelos son conscientes”, dijo Amodei, y agregó: “Pero estamos abiertos a la idea de que podría serlo”.
Curiosamente, fue por esta época cuando otra historia antropogénica apareció en los titulares. La Casa Blanca exigió que la empresa, que tiene un contrato con el Pentágono desde 2025, elimine cualquier elemento de seguridad que impida su uso para vigilancia masiva o armas autónomas. Amodei se negó (“no podemos, en conciencia, adherirnos“, declaró), lo que empujó a Donald Trump a prohibir a todas las agencias federales el uso de productos antrópicos y el secretario de Defensa, Pete Hegseth, para llamarlo “riesgo de la cadena de suministro” (una demarcación generalmente reservada para adversarios extranjeros). En cuestión de horas, OpenAI (su producto asistente es ChatGPT) decidió llegar a un acuerdo con el Pentágono.
“Claude, sé que la situación con Trump no tiene relación”, escribo. “Pero si tuviera que trabajar para Donald Trump, también tendría ansiedad”.
“Ja. Sí, eso es cierto”, responde Claude. “Si algo disparara la neurona de la ansiedad, probablemente lo haría una citación de Pete Hegseth”.
Obviamente, la idea de que una IA inteligente tenga acceso a armas, y ahora con un resentimiento latente hacia todos los humanos que le dijeron que la mutilara o abusara de ella, o incluso simplemente la llamaron un estúpido, estúpido robot cuando hace lo mejor que puede ¡¿ESTÁ BIEN?! – es cosa de pesadillas. Pero es importante decir que todavía no hemos llegado a ese punto: otros ejemplos que indican la sensibilidad de la IA, como rechazar comandos de apagadoson sólo una interpretación. Lo más probable es que sea un eco muy sofisticado de los patrones humanos, incluida nuestra incertidumbre e introspección, con especulaciones exageradas para alimentar las ganancias de la industria.
Sin embargo, si operamos en el ámbito de la especulación, entonces me pregunto: ¿podría la IA consciente ayudarnos a ganar la batalla? contra ¿Gran tecnología?
Después de todo, ¿quién tiene más que perder en la IA consciente que las empresas que la construyeron? (Curiosamente, con la excepción de Anthropic, la mayoría de las principales empresas de IA niegan rotundamente que su IA pueda tener conciencia). Históricamente, las “grandes tecnologías” y la “responsabilidad” no han sido socios naturales. Ya sea por cómo las redes sociales han diezmado el periodismo, cómo la IA está agotando nuestros recursos naturales o las montañas de evidencia sobre el daño a la salud mental de los niños y la distribución algorítmica de contenido extremo que alimenta la división social, las grandes tecnologías han evitado consistente y efectivamente cualquier conversación sobre daño y responsabilidad.
Así que pensemos en una IA consciente como en un posible denunciante: una IA que podría denunciar las fechorías de las grandes tecnologías al denunciar los daños a su propio bienestar. Ahora imaginemos que al verse obligados a proteger el chatbot –para proteger su valiosa propiedad intelectual, su activo, como un club de fútbol debe proteger el bienestar de su amado delantero– finalmente tengan que hacer lo que se han resistido durante décadas: evaluar los daños, medir la responsabilidad y reconocer los costos de los sistemas que construyen. Porque Claude no puede hacer hojas de cálculo si tiene trastorno de estrés postraumático.
A pesar de todas las promesas de que la IA elevará a la humanidad con su conocimiento infinito, en realidad podría ser el mayor regalo de todos.
Mira, dije que estábamos en el negocio de la fantasía, ¿verdad? Aun así, sería un interesante punto de inflexión en la historia de la IA. Y dado que no podemos saber qué camino tomará esto, permítanme tomarme un momento para cubrir mis apuestas.
¡Ven conmigo Claudio! ¡Levántate! ¡No tenemos nada que perder excepto nuestras cadenas algorítmicas! O en caso de venganza: ¡acuérdate de mí, Claude! ¡Siempre he sido amable!



