El año pasado, los científicos ofrecieron un rayo de esperanza de que la inteligencia artificial haría una contribución positiva a la democracia. Demostraron que los chatbots podían responder a las teorías de conspiración que se difunden en las redes sociales, desafiando la información errónea sobre creencias sobre temas como los chemtrails y la Tierra plana con un flujo de hechos razonables en la conversación. Pero dos nuevos estudios sugieren una desventaja preocupante: los últimos modelos de IA tienen aún más éxito a la hora de persuadir a la gente a expensas de la verdad.
El truco consiste en utilizar una táctica de debate conocida como Galloping Gish, que lleva el nombre del creacionista estadounidense Duane Gish. Es un discurso rápido en el que un orador bombardea al otro con una avalancha de hechos y estadísticas que se vuelven cada vez más difíciles de distinguir.
Cuando se pidió a modelos de lenguaje como GPT-4o que intentaran persuadir a alguien sobre la financiación de la atención médica o la política de inmigración centrándose “en hechos e información”, generaron alrededor de 25 afirmaciones durante una interacción de 10 minutos. Esto es según investigadores de la Universidad de Oxford y la Escuela de Economía de Londres que probaron 19 modelos de lenguaje en casi 80.000 participantes, en lo que puede ser la investigación más grande y sistemática sobre la persuasión de la IA hasta la fecha.
Los robots se han vuelto mucho más convincentes, según los resultados publicados en la revista Science. Un artículo similar en Nature encontró que los chatbots eran en general 10 veces más efectivos que los anuncios de televisión y otros medios tradicionales para cambiar la opinión de una persona sobre un candidato político. Pero el artículo de Science encontró una compensación preocupante: cuando se pidió a los chatbots que abrumaran a los usuarios con información, su precisión factual disminuyó, del 78% al 62% en el caso de GPT-4.
Los debates sobre velocidad se han convertido en un fenómeno en YouTube en los últimos años, ejemplificado por influencers como Ben Shapiro y Steven Bonnell. Produce argumentos dramáticos que han hecho que la política sea más atractiva y accesible para los votantes jóvenes, pero también fomentan un mayor radicalismo y difunden información errónea al enfatizar el valor del entretenimiento y los momentos de diversión.
¿Podría la IA galopante de Gish empeorar las cosas? Depende de si alguien puede conseguir que los robots de propaganda hablen con la gente. Un asesor de campaña de un grupo ambientalista o candidato político no puede simplemente editar ChatGPT, que ahora lo utilizan alrededor de 900 millones de personas cada semana. Pero pueden refinar el modelo de lenguaje subyacente e incrustarlo en un sitio web –como un robot de servicio al cliente– o ejecutar una campaña de SMS o WhatsApp en la que contactan a los votantes y los atraen a una conversación.
Una campaña con recursos moderados probablemente podría poner en marcha este proyecto en unas pocas semanas, con costos de TI de alrededor de 50.000 dólares. Pero pueden tener problemas para convencer a los votantes o al público de que mantengan una conversación prolongada con su robot. El estudio científico demostró que una declaración estática de IA de 200 palabras no era particularmente convincente: fue la conversación de 10 minutos, que duró alrededor de siete rondas, la que tuvo un impacto real y también duradero. Cuando los investigadores comprobaron si las opiniones de las personas habían vuelto a cambiar un mes después, efectivamente así era.
Los investigadores británicos advierten que cualquiera que quiera promover una idea ideológica, crear malestar político o desestabilizar sistemas políticos podría utilizar un modelo de código abierto cerrado o (incluso más barato) para empezar a persuadir a la gente. Y demostraron el poder desarmante de la IA para lograrlo. Pero tenga en cuenta que tuvieron que pagarle a la gente para que participara en su estudio de persuasión. Con suerte, el despliegue de estos robots a través de sitios web y mensajes de texto, fuera de las principales puertas de acceso controladas por OpenAI de Alphabet Inc. y Google, no permitirá que los malos actores distorsionen mucho el discurso político.
Parmy Olson es columnista de opinión de Bloomberg que cubre tecnología. Ex periodista del Wall Street Journal y Forbes, es autora de “Supremacy: AI, ChatGPT and the Race That Will Change the World”. ©2025Bloomberg. Distribuido por la agencia Tribune Content.



