Home Economía ‘Este tren no se detendrá’: impactante película de Sundance muestra la promesa...

‘Este tren no se detendrá’: impactante película de Sundance muestra la promesa y los peligros de la IA | Danza del Sol 2026

23
0

A¿Nos dirigimos a una catástrofe de la IA? ¿Es la IA una amenaza existencial o una oportunidad histórica? Estas son las preguntas principales de un nuevo documental que se estrenará en Sundance, que presenta a destacados expertos, críticos y empresarios en inteligencia artificial, incluido el director ejecutivo de OpenAI, Sam Altman, con opiniones sobre el futuro a corto y mediano plazo que van desde el pesimismo hasta la utopía.

The AI ​​Doc: Or How I Became an Apocaloptimist, dirigida por Daniel Roher y Charlie Tyrell y producida por Daniel Kwan (la mitad de The Daniels, el dúo ganador del Oscar detrás de Everything Everywhere All At Once), explora el controvertido tema de la IA a través de la propia ansiedad de Roher. El cineasta canadiense, ganador del Oscar en 2023 por el documental Navalny, se interesó por primera vez en el tema experimentando con las herramientas que ofrece OpenAI, la empresa detrás del chatbot ChatGPT. La sofisticación de las herramientas públicas (la capacidad de producir párrafos completos en segundos o producir ilustraciones) lo excitaba y lo irritaba al mismo tiempo. La IA ya estaba dando forma radicalmente a la industria cinematográfica, y las proclamas sobre las promesas y los peligros de la IA estaban por todas partes, y las personas ajenas a la industria tecnológica tenían pocas posibilidades de evaluarlas. Como artista, se preguntaba cómo darle sentido a todo esto.

La ansiedad de Roher sólo aumentó cuando él y su esposa, la cineasta Caroline Lindy, supieron que estaban esperando su primer hijo. “Parecía como si el mundo entero se precipitara hacia algo sin pensar”, dice en la película, mientras su entusiasmo por la paternidad chocaba con el miedo ante la variable desconocida de la IA, que en apenas unos años pasó de ser un experimento exclusivo a un bien público.

El AI Doc surge así de la pregunta más apremiante de Roher: ¿es seguro traer un niño al mundo? Junto a Kwan, Roher convocó a una serie de expertos para explicar la mecánica de la tecnología (y aclarar algunos términos confusos y alienantes) y buscar una respuesta. (Es a la vez reconfortante y un poco preocupante, por ejemplo, que nadie parezca tener una respuesta clara a la pregunta “¿qué es la IA?”). En entrevistas individuales, los principales investigadores del aprendizaje automático, incluidos Yoshua Bengio, Ilya Sutskever y el cofundador de DeepMind, Shane Legg, coinciden en que hay aspectos de los modelos de IA que los humanos no pueden ni podrán comprender nunca. Los modelos de IA estándar se entrenan con “más datos de los que cualquiera podría leer en varias vidas”, como lo expresa un experto en aprendizaje automático. Y el ritmo del aprendizaje automático está superando al de todo lo anterior, o al del cine. “Cualquier ejemplo que dé en esta película parecerá absolutamente torpe cuando se estrene”, dijo a Roher Tristan Harris, cofundador del Center for Humane Technology y voz destacada del documental apocalíptico de Netflix de 2020 The Social Dilemma.

Charlie Tyrell y Daniel Roher en Sundance. Fotografía: Arturo Holmes/Getty Images

La película escucha por primera vez a una serie de pesimistas, o personas preocupadas de que la IA (y en particular la inteligencia artificial general (AGI), una forma aún teórica de IA cuyas capacidades exceden las de los humanos) podría conducir al exterminio de la humanidad, incluidos Harris, su cofundador del Centro de Tecnología Humana, Aza Raskin, la asesora de riesgos de IA, Ajeya Cotra, y Eli Yudkowsky, un pionero de la alineación de la IA. Estas cifras advierten que los humanos podrían muy fácilmente perder el control de los modelos de IA superinteligentes, con pocos o ningún recurso. El libro de Yudkowsky de 2025 se titula sin rodeos Si alguien lo construye, todos mueren.

Las empresas de IA, dicen, no están preparadas para las consecuencias de alcanzar el AGI, que podría “volverse sobrehumano tal vez dentro de esta década”, dice Dan Hendrycks, director del Centro para la Seguridad de la IA. Si los humanos ya no son los seres más inteligentes de la Tierra, advierten, es posible que AGI considere a la especie como irrelevante. Connor Leahy, cofundador de EleutherAI, comparó la posible relación futura entre los AGI superinteligentes y los humanos con la que existe entre humanos y hormigas: “No odiamos a las hormigas. Pero si queremos construir una carretera” sobre un hormiguero, “bueno, eso apesta para la hormiga”.

Varios miembros del bando fatalista, muchos de los cuales no tienen hijos, reaccionan de manera desalentadora a la pregunta de Roher sobre la paternidad. “Conozco personas que trabajan en riesgos de IA y que no esperan que sus hijos lleguen a la escuela secundaria”, dice Harris, en una frase que dejó boquiabierto a una audiencia previa en Park City.

Del otro lado están figuras optimistas como Peter Diamandis, fundador de la Fundación XPRIZE que lucha por prolongar la vida humana, que afirma que “los niños que nacen hoy están a punto de entrar en un período de gloriosa transformación”; Guillaume Verdon, líder del movimiento de “aceleracionismo efectivo” en Silicon Valley; Peter Lee, presidente de Investigación de Microsoft; y Daniela Amodei, cofundadora y presidenta de Anthropic, rival de OpenAI. Los llamados “aceleradores” ven la IA como una cura potencial para una miríada de problemas aparentemente intratables que aquejan a la humanidad: cáncer, escasez de alimentos y agua para una población en constante crecimiento, insuficiencia de energía renovable y, quizás lo más urgente, la emergencia climática. Sin IA, argumentan, se perderían innumerables vidas futuras debido a la sequía, el hambre, las enfermedades y los desastres naturales.

Sin embargo, el desarrollo de la IA depende de la potencia informática, que requiere grandes cantidades de energía. Un último grupo de entrevistados, críticos y observadores en gran parte ajenos al mundo de la tecnología (entre ellos Karen Hao, periodista y autora del libro Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI, y Liv Boeree, presentadora del podcast Win-Win) conectan la IA con el mundo físico y tangible, como los centros de datos que absorben agua en el oeste de Estados Unidos, dejando a los residentes con facturas de electricidad altísimas y depósitos vacíos. Según Emily M Bender, profesora de lingüística computacional, los discursos actuales en torno a la IA excluyen y deshumanizan a las personas a las que ya afecta y que seguirá perturbando.

Daniel Kwan, Jonathan Wang, Daniel Roher, Shane Boris, Charlie Tyrell y Ted Tremper en Sundance. Fotografía: Mat Hayward/Getty Images para IMDb

Roher finalmente llega a las cinco personas más poderosas -todos hombres- que actualmente lideran la carrera armamentista de la IA: Altman; Elon Musk, director ejecutivo de xAI; Darío Amodei, director general de Anthropic; Demis Hassabis de DeepMind y Mark Zuckerberg de Meta. Altman, Amodei y Hassabis tienen entrevistas que defienden más o menos las respectivas posiciones de sus empresas. Según la película, Zuckerberg se negó a participar; Musk estuvo de acuerdo, pero luego estuvo demasiado ocupado.

Altman, que en el momento de la entrevista estaba esperando su primer hijo, insiste en que “no teme que un niño crezca en un mundo con IA”. Él y su esposo Oliver Mulherin dieron la bienvenida a su hijo a través de una madre sustituta en febrero de 2025, un evento posterior al de Altman. dicho “pirateó neuroquímicamente” su cerebro, lo que llevó a las personas en su vida a pensar que “tomaría mejores decisiones” para OpenAI y ChatGPT con respecto a “la humanidad en su conjunto”. El director ejecutivo, de 40 años, añadió que su hijo y el de Roher probablemente “nunca serán más inteligentes que la IA”, lo que “me desestabiliza un poco, pero esa es la realidad”.

En un momento, Roher le pregunta a Altman si realmente es imposible asegurarle que todo estará bien en lo que respecta a la IA. “Es imposible”, afirma Altman, aunque afirma que el liderazgo de OpenAI en la carrera armamentista de la IA le permite dedicar más tiempo a las pruebas de seguridad.

El AI Doc, en última instancia, se sitúa en algún punto entre el pesimismo y el optimismo: un optimismo apocalíptico, como lo llaman, que busca “un camino entre la promesa y el peligro”. Este camino debería incluir, según muchos de los temas de la película: una coordinación internacional significativa, sostenida y revolucionaria, similar a los marcos y acuerdos de mediados de siglo introducidos para moderar el desarrollo de armas atómicas: más transparencia corporativa para las empresas de IA, un organismo regulador independiente para controlar a los desarrolladores de IA, responsabilidad legal por los productos de las empresas, como ChatGPT, divulgación obligatoria del uso de genAI para los medios y voluntad de seguir adaptando las reglas a la tecnología que cambia rápidamente.

Si el gobierno y las empresas estadounidenses, y mucho menos el mundo en general, lograrán o no esto sigue siendo una cuestión abierta, con opiniones divergentes sobre los primeros pasos a tomar. Pero si hay algo en lo que todos están de acuerdo es en que no hay vuelta atrás antes de la IA. Como dice Amodei, cofundador y CEO de Anthropic: “Este tren no va a parar”.

Enlace de origen

Previous articleLos playoffs de la NFL promediaron 37 millones de espectadores, la segunda mayor cantidad en las series de playoffs de la liga en los últimos 10 años.
Next articleEl creador de Glambot, Cole Walliser, rompe el silencio sobre un drama viral por correo electrónico
Faustino Falcón
Faustino Falcón es un reconocido columnista y analista español con más de 12 años de experiencia escribiendo sobre política, sociedad y cultura. Licenciado en Ciencias de la Comunicación por la Universidad Complutense de Madrid, Faustino ha desarrollado su carrera en medios nacionales y digitales, ofreciendo opiniones fundamentadas, análisis profundo y perspectivas críticas sobre los temas m A lo largo de su trayectoria, Faustino se ha especializado en temas de actualidad política, reformas sociales y tendencias culturales, combinando un enfoque académico con la experiencia práctica en periodismo. Sus columnas se caracterizan por su claridad, rigor y compromiso con la veracidad de los hechos, lo que le ha permitido ganarse la confianza de miles de lectores. Además de su labor como escritor, Faustino participa regularmente en programas de debate televisivos y podcasts especializados, compartiendo su visión experta sobre cuestiones complejas de la sociedad moderna. También imparte conferencias y talleres de opinión y análisis crítico, fomentando el pensamiento reflexivo entre jóvenes periodistas y estudiantes. Teléfono: +34 612 345 678 Correo: faustinofalcon@sisepuede.es