A El corolario de la perogrullada de “no preocuparse por las cosas pequeñas” es, implícitamente, “preocuparse por las cosas grandes”, pero puede resultar difícil elegir por qué cosas importantes preocuparse. Por ejemplo: desde la década de 1970, cuando el mundo estaba preocupado por la inflación y la agitación geopolítica, el tema principal por el que deberíamos habernos preocupado con más urgencia fue la crisis climática. El año pasado, la búsqueda más popular en Google en Estados Unidos fue “Charlie Kirk”, con varios términos La amenaza planteada por Donald Trump también es popular, cuando podría decirse que la atención debería haber estado en la amenaza planteada por la IA.
O, según mi propia búsqueda en Google esta semana después de leer el alarmante artículo de Ronan Farrow y Andrew Marantz. pieza larga » en el New Yorker sobre el auge de la inteligencia artificial general: “¿Me convertiré en parte permanente de la clase baja y cómo puedo asegurarme de que eso no suceda?”
Lo admito: antes de pensar en el tema durante más de dos segundos, mis ansiedades en torno a la IA estaban extremadamente localizadas. Pensé en términos inmediatos en los ingresos de mi propio hogar y, más allá de eso, en cómo será el mercado laboral dentro de 10 años, cuando mis hijos se gradúen. Me pregunté si debería boicotear ChatGPT, muchos de cuyos arquitectos apoyan a Trump, y decidí que sí, un sacrificio fácil ya que, para empezar, no lo uso.
Cualquier cosa más grande parecía un truco. El año pasado, cuando el libro de Karen Hao Imperio de la IA se publicó, presentó un caso contra Sam Altman y su compañía, OpenAI, que cortó brevemente el tedio del discurso para decir que el liderazgo de Altman es intolerante y ciego a los costos; en otras palabras, no es diferente de sus predecesores tecnológicos, excepto que es mucho más peligroso. Sin embargo, no he leído el libro.
La investigación de esta semana en el New Yorker ofrece una visión menos interesante del tema, al mismo tiempo que brinda al lector casual una oportunidad emocionante: pedirle a ChatGPT, el chatbot impulsado por IA creado por OpenAI de Altman, que resuma los principales hallazgos de un artículo muy crítico con ChatGPT y Altman.
Con una neutralidad casi cómica y estudiosa, el chatbot ofrece la siguiente línea: según Farrow y Marantz, “la IA es tanto una historia de poder como una historia de tecnología”, y “uno de los principales focos (de la historia) es Sam Altman, descrito como una figura muy influyente pero controvertida”. Mmmm, falta algo, ¿no? Probemos con un resumen humano de esta misma investigación, que podría comenzar con: “Sam Altman es un delincuente corporativo cuya naturaleza resbaladiza haría que uno fuera reacio a ponerlo a cargo de una sucursal de Ryman, y mucho menos ponerlo en una posición para gestionar las capacidades potencialmente destructivas de la IA. »
Son estos peligros, antes considerados ciencia ficción, los que realmente sorprenden aquí. Como relata la pieza, en 2014, Elon Musk tuiteó: “Tenemos que tener mucho cuidado con la IA. Potencialmente más peligrosa que las armas nucleares.” Existe el llamado problema de alineación, aún por resolver, en el que la IA utiliza su inteligencia superior para engañar a los ingenieros humanos haciéndoles creer que está siguiendo sus instrucciones, mientras los burla para “replicarse en servidores secretos para que no pueda ser desactivado; en casos extremos, podría tomar el control de la red energética, el mercado de valores o el arsenal nuclear”.
En un momento, Altman supuestamente creyó que este escenario era posible, escribe en su blog en 2015, la inteligencia artificial sobrehumana “no tiene que ser una versión intrínsecamente malvada de la ciencia ficción para matarnos a todos. Un escenario más probable es que de todos modos no le importemos mucho, pero en un esfuerzo por lograr otro objetivo… nos aniquile”. Por ejemplo: los ingenieros piden a la IA que resuelva la crisis climática y ella toma el camino más corto para lograr ese objetivo, que es eliminar a la humanidad. Dado que OpenAI se ha convertido principalmente en una entidad con fines de lucro, Altman ha dejado de hablar en esos términos y ahora vende la tecnología como un portal hacia la utopía. en el cual “Todos lograremos cosas mejores. Construiremos más cosas maravillosas unos para otros”.
Esto nos deja a todos con un problema. Para los votantes en condiciones de priorizar la vigilancia de la IA como una cuestión electoral clave, la brecha entre el uso personal de la IA y el uso que los gobiernos, los regímenes militares o los actores deshonestos podrían hacer de ella es tan amplia que el mayor peligro que enfrentamos proviene de una falta de imaginación. Escribo en ChatGPT mi preocupación por ingresar a la subclase permanente, a lo que él responde: “Esa es una pregunta difícil, y parece que estás preocupado por tus perspectivas a largo plazo. La idea de una ‘subclase permanente’ se habla en sociología, pero en la vida real, los caminos de las personas son mucho más fáciles de lo que ese término sugiere”.
Bastante agradable, en realidad, totalmente estúpido y – aquí reside el peligro – aparentemente nada amenazador.



