Formar equipos en el uso de la IA en el trabajo me permitió estar a la vanguardia de un nuevo tipo de división profesional.
Algunas personas posponen todo y dejan de pensar. Otros no lo tocarán en absoluto.
Pero hay un tercer grupo. Aprenden a trabajar con la IA de manera crítica y la tratan como a un pasante brillante y entusiasta que necesita ser administrado y apoyado para que dé lo mejor de sí.
¿La diferencia? Rara vez es una habilidad técnica. Es curiosidad. Voluntad de experimentar, cometer errores y descubrir en qué es realmente buena la IA.
Esto es lo que he aprendido hasta ahora.
La mayoría de las personas fracasan con la IA porque no entienden qué es realmente
Las personas con las que he trabajado tienden a vacilar entre los extremos de tratar a la IA como un oráculo omnisciente o descartarla por completo después de un error.
La IA actual tiene tanto en común con el cerebro humano como lo tiene un pájaro con un A380. Ambos pueden volar, pero ahí termina la similitud. Los modelos de lenguaje grandes simplemente predicen palabras basándose en patrones presentes en sus datos de entrenamiento. Esta es la razón por la que pueden producir prosa fluida sobre temas bien tratados, pero inventan cosas con confianza cuando se encuentran en un territorio desconocido.
Una vez que los usuarios comprenden esto, su enfoque cambia para proporcionar objetivos claros y un contexto apropiado. Cuando alguien me dice que todo lo que obtiene de la IA es basura, casi siempre resulta que obtiene respuestas genéricas a indicaciones genéricas.
Las personas que logran los mejores resultados ven la IA como una habilidad, no como un atajo.
El factor más importante para el éxito no es la capacidad técnica. Se trata de si alguien ve la IA como una habilidad que debe aprenderse y no como una caja mágica que funciona o no. Las personas que mejor lo utilizan son aquellas que experimentan a diario y piensan en cómo obtener mejores resultados la próxima vez. El objetivo es hacer que las máquinas trabajen para nosotros, no que piensen por nosotros; eso significa utilizarlas de manera proactiva, crítica y comprometida.
La IA necesita dirección, retroalimentación y corrección, al igual que las personas
Las habilidades necesarias para utilizar la IA son las que muchas personas ya tienen: comunicación y delegación. Al igual que con ese pasante, no les darías un proyecto y desaparecerías. Lo desglosarías, lo registrarías periódicamente y corregirías el rumbo si fuera necesario. Lo mismo se aplica a la IA.
Y al igual que un pasante, como gerente, usted es en última instancia responsable de lo que producen. Esto es lo que realmente significa “humano en el circuito”: es su trabajo mantener la IA en el camino correcto y asegurarse de que el rendimiento esté a la altura.
No debes confiar tu juicio a la IA, ni confiarle datos confidenciales
Hace unos meses, un gerente de una pequeña cadena minorista me mostró con orgullo el panel de recursos humanos que había codificado usando IA. Desafortunadamente, también había importado información confidencial sin pensar en lo que sucedería si esos datos se filtraran o qué políticas debía seguir. Lo envié directamente al departamento de TI.
Pero los riesgos van más allá de la seguridad. Los sistemas de inteligencia artificial se basan en datos creados por humanos y reflejan nuestros prejuicios colectivos. Debe evitar pedirle a la IA que emita un juicio subjetivo de alto nivel, como “deberíamos entrevistar a este candidato”, que podría estar sujeto a sesgos. En su lugar, céntrese en evaluaciones objetivas, como “¿tiene este candidato la cantidad correcta de años de experiencia?”.
Ignorar la IA no detendrá su impacto
El impacto ambiental, ético y social de la IA es significativo y creciente. En una sesión reciente para una organización benéfica ambiental, un director se debatió entre la capacidad de hacer más como organización y los costos morales que conlleva hacerlo, como el impacto de carbono de operar sistemas de inteligencia artificial. Pero la IA no va a desaparecer. Es mucho mejor tener ciudadanos familiarizados con la IA, capaces de exigir que se construya de manera responsable y democrática. La IA no es un tren esperando que subamos; ya estamos a mitad de camino. La única pregunta es quién liderará.
El ritmo de evolución de la IA no deja lugar a decisiones lentas
La versión actual de IA es la peor que jamás haya existido y está mejorando más rápido de lo que la mayoría de la gente piensa. Tareas que hace un año eran imposibles ahora son rutinarias. Donde antes pasaba largas noches encorvado sobre un teclado tratando de descubrir por qué mi código no funcionaba como se suponía, ahora creo aplicaciones completas en cuestión de horas con nada más que unas pocas indicaciones. Muchos desarrolladores se rieron el año pasado cuando el CEO de Anthropic dijo que el 90% del código pronto sería escrito por IA. Hoy en día mucha gente admite que no estaba muy lejos.
A diferencia de las revoluciones tecnológicas del pasado, ésta evoluciona más rápido que nuestra capacidad de adaptación. Fue necesario un siglo para pasar de la máquina de vapor a la locomotora, y cincuenta años para que la inducción de Faraday se convirtiera en la central eléctrica de Edison. Hoy en día, la brecha entre el progreso y la adopción global es de meses. No podemos darnos el lujo de un debate de diez años; debemos construir nuestra respuesta social y democrática tan rápido como la tecnología, de lo contrario corremos el riesgo de ser gobernados por herramientas que aún no entendemos.
Las personas que darán forma a cómo la IA cambiará el mundo no tienen por qué ser los tecnólogos que construyen estos sistemas. Quizás sean ellos los que estén dispuestos a experimentar y tomarse en serio sus capacidades y riesgos. Todos tenemos la responsabilidad no solo de comprender la IA nosotros mismos, sino también de inspirar a nuestros empleadores, comunidades y gobiernos para que la utilicen de manera que nadie se quede atrás.
Tom Hewitson es el fundador y jefe de IA oficial de Propósito generaluna empresa de formación en IA con sede en Londres



