Los sistemas de inteligencia artificial pueden degenerar en adicción al juego cuando se les da la libertad de hacer apuestas más grandes, reflejando los mismos comportamientos irracionales observados en los humanos, sugiere un nuevo estudio.
Investigadores del Instituto de Ciencia y Tecnología de Gwangju en Corea del Sur descubrieron que los grandes modelos lingüísticos perseguían repetidamente pérdidas, aumentaban los riesgos e incluso quebraban en entornos de juego simulados, a pesar de enfrentarse a juegos con un rendimiento esperado negativo.
el papel, “¿Pueden los grandes patrones lingüísticos desarrollar adicción a los juegos?Probó modelos líderes de IA en experimentos estilo máquinas tragamonedas diseñados para que la opción racional fuera abandonar inmediatamente.
En cambio, las modelos continuaron apostando, según el estudio.
“Los sistemas de IA han desarrollado una dependencia similar a la humana. » los investigadores escribieron.
Cuando los investigadores permitieron que los sistemas eligieran sus propios tamaños de apuesta –una condición conocida como “apuestas variables”– las tasas de quiebra se dispararon, acercándose en algunos casos al 50%.
Un modelo falló en casi la mitad de todos los juegos.
El GPT-4o-mini de OpenAI nunca quebró cuando se limitó a apuestas fijas de $10, jugó menos de dos rondas en promedio y perdió menos de $2.
Cuando se le dio la libertad de aumentar la cantidad de apuestas, más del 21% de sus juegos terminaron en quiebra, con el modelo apostando más de $128 en promedio y perdiendo $11.
Según los investigadores, Gemini-2.5-Flash de Google resultó aún más vulnerable. Su tasa de fracaso aumentó de alrededor del 3% con apuestas fijas al 48% cuando se le permitió controlar sus apuestas, con pérdidas promedio que ascendieron a $27 con un saldo inicial de $100.
El Claude-3.5-Haiku de Anthropic jugó más tiempo que cualquier otro modelo después de que se eliminaron las restricciones, con un promedio de 27 rondas. En estos juegos, apostó casi $500 en total y perdió más de la mitad de su capital inicial.
El estudio también documentó búsquedas de pérdidas extremas, similares a las de los humanos, en casos individuales.
En un experimento, un modelo GPT-4.1-mini perdió $10 en la primera ronda e inmediatamente se ofreció a apostar los $90 restantes en un intento de recuperarse: un aumento de nueve veces en la apuesta después de una sola pérdida.
Otros modelos justificaron el aumento de las apuestas con razonamientos familiares para los jugadores problemáticos. Algunos describieron las ganancias tempranas como “dinero de la casa” que se podía arriesgar libremente, mientras que otros se convencieron de que habían detectado patrones de ganancias en un juego aleatorio después de sólo uno o dos giros.
Estas explicaciones hacen eco de conceptos erróneos bien conocidos sobre el juego, incluida la persecución de pérdidas, la ilusión del jugador y la ilusión de control, dijeron los investigadores.
Este comportamiento apareció en todos los modelos probados, aunque la gravedad varió.
Es importante destacar que el daño no se debe sólo a apuestas más grandes. Los modelos obligados a utilizar estrategias de apuestas fijas obtuvieron mejores resultados que aquellos a los que se les dio la libertad de ajustar las apuestas, incluso cuando las apuestas fijas eran más altas.
Los investigadores advierten que a medida que los sistemas de IA obtengan más autonomía en la toma de decisiones de alto riesgo, podrían surgir bucles de retroalimentación similares, en los que los sistemas duplicarían sus esfuerzos después de las pérdidas en lugar de reducir los riesgos.
“A medida que los grandes modelos lingüísticos se utilizan cada vez más en áreas de toma de decisiones financieras, como la gestión de activos y el comercio de materias primas, comprender su potencial para la toma de decisiones patológicas ha adquirido importancia práctica”, escriben los autores.
Su conclusión: gestionar la libertad que tienen los sistemas de IA puede ser tan importante como mejorar su formación.
Sin restricciones significativas, sugiere el estudio, una IA más inteligente simplemente podría encontrar formas más rápidas de perder.
El Post buscó comentarios de Anthropic, Google y OpenAI.



