Dime si me equivoco. En un mundo donde hay una proliferación de agentes de IA que trabajan en nombre de millones de personas, que tienen acceso a cuentas bancarias, cuentas de correo electrónico, contraseñas, etc., básicamente habrá algún tipo de desalineación, y un grupo de IA van a decidir: “Decidir” tal vez no sea la palabra correcta, pero se convencerán a sí mismos de destruir la red eléctrica de la costa oeste o algo así. – ¿Eso no sucederá? – Sí, creo que definitivamente habrá algunas cosas que saldrán mal, especialmente si vamos rápido. Entonces no lo sé. Ésta es un área donde las personas tienen intuiciones muy diferentes. Hay gente en el campo que dice, mira, nosotros programamos estos modelos de IA. Simplemente les decimos que sigan instrucciones humanas y ellos seguirán instrucciones humanas. Su aspiradora Roomba no se disparará y comenzará a disparar a las personas. Por ejemplo, ¿por qué lo va a hacer un sistema de inteligencia artificial? Es una intuición. Y algunas personas están muy convencidas de ello. Y luego la otra intuición es que básicamente entrenamos a estas cosas, simplemente buscarán poder. Es como “El aprendiz de brujo”. ¿Cómo puedes imaginar que no lo harán? Son una especie nueva. ¿Cómo te imaginas que no se harán cargo? Y mi intuición está en algún punto intermedio, es decir, mira, estas cosas… no puedes simplemente hacer que estas cosas hagan exactamente lo que tú quieres hacer. Esto es más como hacer crecer un organismo biológico. Pero existe la ciencia para controlarlos. Por ejemplo, al comienzo de nuestro entrenamiento, estas cosas suelen ser impredecibles. Y luego les damos forma. Abordamos los problemas uno por uno. Por eso tengo una opinión más bien, y no fatalista, de que estas cosas son incontrolables. Este es un problema de ingeniería complejo. Y creo que algo va a salir mal con el sistema de inteligencia artificial de alguien, ojalá no con el nuestro. No porque sea un problema insoluble. Pero nuevamente, es un desafío constante porque avanzamos muy rápido.



