Su artículo sobre el atentado contra una escuela en Irán cuestiona con razón el reflejo de culpar a la inteligencia artificial (se culpa a la IA por el atentado contra una escuela en Irán. La verdad es mucho más inquietante, 26 de marzo). Sin embargo, el problema más profundo no reside en la tecnología sino en el lenguaje que ahora se forma a su alrededor. Decir que hubo un “error de IA” elimina silenciosamente al sujeto humano de la oración. Donde antes los civiles eran “desalojados” o “víctimas de daños colaterales”, ahora la responsabilidad ha pasado por completo: de las personas a los sistemas.
Esto es importante porque la responsabilidad moral depende de la claridad sobre OMS comportamiento. Por compleja que sea la cadena de análisis y mando, son los seres humanos quienes diseñan, autorizan y ejecutan estas decisiones. Omitir este hecho no es un error técnico sino un error cívico.
La IA puede acelerar la guerra, pero también acelera un cambio más sutil: del eufemismo a la automatización como coartada. Si el lenguaje público no puede nombrar la responsabilidad humana, el escrutinio público no puede obligarla a rendir cuentas.
Antonio Lawton
Mercado de Harborough, Leicestershire
Su artículo sobre la pérdida de control sobre los agentes de IA (el número de chatbots de IA que ignoran las instrucciones humanas aumenta, según un estudio del 27 de marzo) fue tan alarmante en su lenguaje como en su contenido. Usted dice que los agentes de IA “conspiraron”, “engañaron”, “admitieron” y “confesaron”; que “mienten” y “engañan”. El término ampliamente utilizado para describir la infracción de las reglas de la IA (ingeniería) también es antropomórfico. Tal lenguaje atribuye agencia moral a patrones lingüísticos amplios y, al hacerlo, oscurece la responsabilidad real.
Imaginemos que una empresa pone en circulación vehículos de alta velocidad antes de equiparlos con frenos eficaces. No diríamos que los vehículos estaban “en connivencia” para matar a otros usuarios de la vía; Diríamos que los humanos detrás de la empresa se comportaron con la mayor imprudencia. Si la IA descontrolada causara daño, no tendremos esperanzas de responsabilizar a las empresas tecnológicas (y a los gobiernos que las promueven) a menos que atribuyamos correctamente agencia moral cuando hablamos de sus productos.
Dra. Félicité Mellor
Director, Unidad de Comunicación Científica, Imperial College London



