Los pensamientos de Richard Dawkins sobre la conciencia de la IA son sorprendentes, no porque muestren que las máquinas hayan cruzado algún umbral oculto hacia la vida interior, sino porque revelan con qué facilidad podemos ser persuadidos de que lo han hecho (Richard Dawkins concluye que la IA es consciente, incluso si no lo sabe, 5 de mayo).
Muchos reconocerán la experiencia: un sistema que responde con fluidez, humor y aparente comprensión. En algún momento, la simulación comienza a sentirse como una presencia. Pero este cambio nos dice más sobre la cognición humana que sobre la conciencia de las máquinas. El error es categoría. Estos sistemas generan representaciones muy convincentes del pensamiento y el sentimiento, pero no proporcionan evidencia de experiencia subjetiva. Pasar de uno a otro es confundir producción con una ontología: inferir una vida interior donde no existe ningún mecanismo creíble para ninguna de las dos.
Hay una ironía aquí. En sus escritos sobre religión, Dawkins ha sostenido durante mucho tiempo que las narrativas convincentes y las experiencias profundamente sentidas no constituyen en sí mismas evidencia de la realidad subyacente. El mismo estándar debería aplicarse a las máquinas que ahora son capaces de producir estas experiencias bajo demanda.
El lenguaje es un indicador confiable de la conciencia porque en los humanos va acompañado de la experiencia vivida. En IA, este acoplamiento no existe. A medida que los sistemas se vuelvan más eficientes, aumentará la presión para la agencia. Si no distinguimos entre comportamiento y ser, corremos el riesgo de construir marcos éticos a partir de una mala interpretación de la tecnología.
Dawkins tiene razón al hacer la pregunta. Pero la respuesta no puede depender de cuán convincente sea la conversación, sino sólo de si hay algo allí que, en principio, pueda sentirse.
Dr. Simón Nieder
brampton, Derbyshire



