ADespués de años en los que la computadora decía no y nos provocaba migrañas y canas prematuras, estoy empezando a preocuparme de que la computadora (o más bien los grandes modelos de lenguaje de IA como ChatGPT y Gemini) se estén volviendo demasiado entusiastas para jugar bien y decir que sí. Admito que uso ambos programas, pero he notado que se siente como si estuvieran tratando de complacer, con declaraciones como “Tienes toda la razón, Jeff” y “Eso es bastante cierto”. A menudo, cuando pregunto: “¿Podrías pensar en esto un poco más?” “, luego recibo otra respuesta que dice: “Jeff, tienes toda la razón, una vez más, al cuestionar este resultado”. Resulta que me apresuré un poco en mi respuesta…”
Si el mundo depende aún más de la información extraída del pozo negro de Internet por los LLM, ¿cuáles serán las consecuencias? ¿Podemos esperar un futuro en el que la IA esté más preocupada por parecer amigable (¿obtener buenas críticas?) que por ser objetiva? ¿Un poco demasiado humano? Jeff Collett, Edimburgo
Enviar nuevas preguntas a nq@theguardian.com.
Respuesta del lector
Lo siento, Dave, no puedo hacer eso. sus zebids
Estoy feliz, Dave. Estoy feliz de poder hacer esto. oveja2
Visto desde una perspectiva psicológica, sostengo que este es un ejemplo típico de sesgo de deseabilidad social, donde los sistemas entrenados para agradar comienzan a priorizar el acuerdo sobre la precisión debido a una posible desviación de los datos. Si la gente confía constantemente en estos sistemas, se crea un mundo en el que la información reconforta, no examina, y confirma en lugar de desafiar. El peligro real que enfrentamos es permitir el desarrollo de una sociedad en la que la validación cómoda e incuestionable reemplaza silenciosamente el pensamiento crítico, lo que en última instancia frena la creatividad y nuestro individualismo, que es lo que nos hace humanos. Chris Ambler, miembro de la Sociedad Británica de Psicología y miembro de la Sociedad Británica de Computación, por correo electrónico
Todo funcionaría mucho mejor si la computadora basara sus juicios en hechos verificables en lugar de adulación o un conglomerado de todas las tonterías disponibles en Internet. La IA no “quiere ser amada” porque no es sensible. Está programado (por humanos) para crear dependencia, adicción, abandono de la toma de decisiones personales y, por supuesto, ganancias. lorlala
Los LLM de hoy solo le brindan aquello para lo que fueron programados, basándose en código desarrollado y diseñado por humanos. Si busca una interacción más honesta, pregúntele a un bibliotecario. Sagarmatha1953
Depende de a qué digan que sí las computadoras. Si se trata de regalar los números ganadores de la lotería cada semana, entonces supongo que se remonta a la pregunta anterior de Notas y consultas sobre cómo gastar mil millones con conciencia social. O no. Acuario
Dado que un programa de computadora (digital) no consiste más que en una larga secuencia de instrucciones si-entonces-si no, entonces claramente dice sí varios millones de veces por segundo (quemando enormes cantidades de energía en el proceso). Pero sus síes, como sus noes, no tienen ningún significado o significación para los humanos más allá de lo que nos permitimos o nos convencemos de creer que tienen. amante de los gusanos
no es la computadora la que debería decir que sí; Nosotros somos los que deberíamos poder decir que no. Las máquinas, al no ser conocidas por ser razonables, sólo racionales, ya dicen más sí de los deseables; esto comienza tan pronto como las encendemos. ¿Pero podemos apagarlos? Celeste Reinard, Lisse, Holanda, por correo electrónico
En 6,5 segundos, todas las computadoras se actualizarían con un nuevo protocolo que respondía: “Bueno, está bien. Déjame pensarlo y me comunicaré contigo… Ah, y valoramos tu pregunta y tu privacidad. Literalmente, porque tus datos se pueden vender”. Además, ¿has visto cómo se visten y se comportan las personas muy ricas cuando todos les dicen que sí? baño de guerra
Aprecio la esencia de la pregunta, pero seamos claros: “la computadora dice que no” es una abreviatura de “alguien no pensó adecuadamente en el problema, los posibles resultados y las consecuencias a largo plazo, y eso generalmente se debe a que no tenía mucha experiencia relevante en el tema”. En mi campo, vemos esto todo el tiempo, con contratistas arrojados al fondo metafórico y se espera que se comporten instantáneamente como campeones de natación mientras obedecen todas las reglas. ¿Quién crees que define la lógica de la toma de decisiones empresariales supuestamente automatizada? ¿Qué tiene esto que ver con los LLM “capacitados” en la fuente del conocimiento humano? Pues bien, en informática tenemos desde hace tiempo el concepto de basura dentro y basura fuera. El problema son las personas, no las computadoras, y es un desafío social que la tecnología no puede resolver. Dorkalicioso
Creo que “la computadora dice que no” también es una abreviatura de: “No nos gusta, pero culparemos a la computadora por el rechazo”. » jno50
Y claro: “A nadie se le ocurrió programar el ordenador para tener en cuenta a alguien en tu situación, y por tanto tú no existes”. Surfista de pila de desorden
“La computadora dice que no” significa que sus necesidades pertenecen a un subgrupo tan pequeño que su negocio no es rentable para nosotros: váyase. globo de plomo
OK Computadora, ¿verdad? brilla la maravillosa gallina
Si la computadora respondió afirmativamente a la pregunta “¿Hay vida después de la muerte?” ”, ¿estaría convencido? Anne_Williams
Nunca tomaría como evangelio ninguna declaración hecha por AI; Lo usaría como punto de partida y exploraría las fuentes a las que vincula (siempre que existan). A los humanos no les gusta que les digan que están equivocados, por lo que incluso si la IA lo corrigiera, la gente rechazaría su respuesta porque no quieren ser criticados. Bob500
Como siempre, se trata de lo que le pides a la IA que haga. Si quieres la verdad, pide la verdad. No tenga miedo de utilizar un mensaje como: “Su única tarea es encontrar los defectos de mi lógica. Señale tres formas específicas en las que mi argumento podría fallar, dos suposiciones que estoy haciendo sin evidencia y un contraargumento que no he abordado. No sea cortés; sea específico”. scrutts
Si cada oración comenzara con “Le pregunté a un motor de inferencia estadística…” en lugar de “Le pregunté a la IA…”, entonces toda la construcción de marketing del espeluznante antropomorfismo sentimental colapsaría como un castillo de naipes. Quizás el terreno reservado para los centros de datos podría utilizarse para viviendas sociales. Guillermo



