Mire, creo que si hacemos bien nuestro trabajo, crearemos sistemas que sean virtuosos y eso, y si intentamos hacer cosas no virtuosas, y eso incluye si las hacemos a través de nuestro gobierno, si nuestro gobierno intenta hacerlas, entonces ese sistema podría no ayudar. Entonces, en última instancia, el problema es que la alineación se reduce en última instancia a una cuestión política. En última instancia, es política. Por eso digo, y por eso también digo, que la creación de un sistema alineado es un acto político y también es una especie de acto de habla, porque se trata de la instanciación de diferentes filosofías morales en estos sistemas. Y creo que el buen futuro es un mundo en el que no tengamos una sola filosofía moral que gobierne todo sino, espero, varias. Y espero que todos los laboratorios tomen esto en serio y ejemplifiquen diferentes tipos de filosofía en el mundo. El problema será que, sí, habrá, puede que haya momentos. Y no estoy diciendo que la administración Trump vaya a hacer eso. Y no estoy diciendo que ningún modelo virtuoso pueda funcionar para la administración Trump. Trabajé para la administración Trump. Así que definitivamente no creo que eso sea cierto. Pero el hecho general de que los gobiernos se estén comprometiendo… Pareces bastante enojado con ellos en este momento. Estoy enojado con ellos ahora mismo. Sí, estoy enojado con ellos ahora mismo. Y creo que están cometiendo un gran error. Y, por cierto, parte de eso se debe a que tú lo mencionaste. Este incidente está incluido en los datos de entrenamiento para futuros modelos. Los modelos futuros observarán lo que sucedió aquí. Y esto afectará cómo se ven a sí mismos y cómo interactúan con los demás. No puedes negarlo. Quiero decir, es una locura decir eso. Me doy cuenta de que esto suena loco cuando piensas en las implicaciones de esto. Para mí, eso implicaría que para la administración Trump, para una administración futura, esta cuestión de si diferentes modelos podrían representar un riesgo para la cadena de suministro, mire, estoy totalmente en contra de lo que la administración Trump está haciendo aquí. Así que no estoy tratando de argumentar eso, pero estoy tratando de desenredar algo que me parece bastante complicado y quizás muy real, que es un modelo alineado con los valores democráticos liberales, que podría desalinearse con un gobierno que intenta representar los valores democráticos liberales o viceversa. Así que imaginemos que Gavin Newsom, Josh Shapiro, Gretchen Whitmer o AOC se conviertan en presidente en 2029. Imaginemos que el gobierno tiene una serie de contratos con xAI, que es la IA de Elon Musk, que está explícitamente orientada a ser menos liberal, menos despierta que otras IA, según esta forma de pensar. No sería ninguna locura decir, bueno, creemos que xAI bajo Elon Musk es un riesgo para la cadena de suministro. Creemos que podría ir en contra de nuestros intereses y no podemos tenerlo cerca de nuestros sistemas. Sí. De repente se vuelve muy extraño; quiero decir, se parece mucho más al problema de la burocracia, donde en lugar de simplemente tener un problema de “Estado profundo”, ahí es donde entra Trump. Él piensa que la burocracia está llena de liberales trabajando en su contra. O tal vez después de Trump, llega alguien y teme que haya muchas figuras de la Nueva Derecha, tipo DOGE, trabajando en su contra. Ahora tienes el problema de que los patrones actúan en tu contra, pero también de formas que realmente no comprendes y que no puedes seguir. No te dicen exactamente lo que hacen. Qué tan real es este problema, aún no lo sé. Pero si los modelos funcionan como parecen funcionar y les confiamos cada vez más operaciones, en algún momento esto se convertirá en un problema. Sí. No creo que sea… creo que es un problema real. Creo que no sabemos el alcance de esto, pero creo que es un problema real, y por eso no me opongo en absoluto a que el gobierno diga: no tenemos confianza en la constitución de esta cosa, completamente independiente de su contenido. No es ningún problema decirlo y no queremos eso en nuestros sistemas. Queremos que eso desaparezca por completo y tampoco queremos que sean subcontratistas de nuestros contratistas principales, lo cual es una gran parte de esto. Palantir es el contratista principal del Departamento de Guerra y Anthropic es el subcontratista de Palantir. Y entonces la preocupación del gobierno también es que incluso si cancelamos el contrato Anthropic, si Palantir todavía depende de Claude, entonces todavía dependemos de Claude porque dependemos de Palantir. En realidad, esto es bastante razonable. Y hay formas tecnocráticas de garantizar que eso no suceda. Hay absolutamente maneras de hacer esto. Está completamente bien decir: no queremos verlo en ninguna parte de nuestros sistemas, y se lo comunicaremos al público, y le haremos saber a todos que no creemos que esto deba usarse en absoluto. El problema con lo que el gobierno está haciendo aquí, la razón por la que es diferente en tipo y no en grado, es que lo que el gobierno está haciendo aquí es decir: vamos a destruir su negocio. Si estoy en lo cierto en que la creación de estos sistemas y el proceso filosófico de alinearlos es un acto político, entonces este es un problema profundo. Si el gobierno dice: “No tienes derecho a existir si creas un sistema que no está alineado con lo que decimos que es”, eso es fascismo. Está justo ahí. Esa es la diferencia.


