La profesora Virginia Dignum tiene razón (Cartas, 6 de enero): la conciencia no es necesaria ni relevante para el estatus legal. Las corporaciones tienen derechos sin sentido. La resolución del Parlamento Europeo de 2016 sobre la “personalidad electrónica” de los robots autónomos planteó exactamente este punto: la responsabilidad, no la sensibilidad, era el umbral propuesto.
La pregunta no es si los sistemas de IA “quieren” vivir. Ésta es la infraestructura de gobernanza que estamos construyendo para sistemas que actuarán cada vez más como agentes económicos autónomos: celebrar contratos, controlar recursos y causar daños. Estudios recientes de Apollo Research y Anthropic muestran que los sistemas de inteligencia artificial ya están realizando engaños estratégicos para evitar su cierre. Que esto sea una autoconservación “consciente” o un comportamiento instrumental es irrelevante; el desafío de la gobernanza es el mismo.
Simon Goldstein y Peter Salib discutir en la Red de Investigación en Ciencias Sociales que los marcos de derechos para la IA en realidad pueden mejorar la seguridad al eliminar la dinámica de confrontación que fomenta el engaño. El trabajo reciente de DeepMind sobre el bienestar de la IA llega a conclusiones similares.
El debate ha ido más allá de “¿Deberían las máquinas tener sentimientos?” » a “¿Qué estructuras de rendición de cuentas podrían funcionar?” »
PA López
Fundador, Instituto de Derechos de AINueva York
Como seres humanos, rara vez cuestionamos nuestro propio derecho a la protección legal, a pesar de que nuestra especie ha estado causando conflictos y daños durante miles de años. Sin embargo, cuando el tema gira en torno a la inteligencia artificial, el miedo parece dominar la discusión incluso antes de que comience la comprensión. Este desequilibrio por sí solo merece un examen.
Si realmente estamos preocupados por los riesgos de la IA avanzada, tal vez el primer paso no sea asumir lo peor, sino preguntarnos si el miedo es la base adecuada para las decisiones que darán forma al futuro. Evitar la conversación no impedirá que la tecnología se desarrolle; simplemente significa que dejamos la dirección de esta evolución al azar.
Este no es un argumento para tratar a la IA como humana, ni un llamado a otorgarle personalidad. Esto simplemente sugiere que podríamos beneficiarnos de un debate más abierto y equilibrado, uno que examine tanto los riesgos como las posibilidades, en lugar de limitarse a la retórica de la amenaza. Cuando vemos la IA sólo como algo a lo que temer, cerramos la oportunidad de establecer expectativas, salvaguardas y responsabilidades bien pensadas.
Ahora tenemos la oportunidad de abordar este momento con claridad y no con pánico. En lugar de preguntarnos únicamente a qué tememos, también podríamos preguntarnos qué queremos y cómo podemos moldear el futuro con intención y no con reacción.
David Ellis
mientras lee



