La frustración que muchos académicos expresan sobre la inteligencia artificial y el pensamiento crítico es comprensible (“Ojalá pudiera empujar a ChatGPT por un precipicio”: los profesores luchan por salvar el pensamiento crítico en la era de la IA, 10 de marzo). Pero en mi experiencia trabajando con estudiantes en redacción académica, culpar a la IA corre el riesgo de oscurecer un problema con el que las universidades han estado viviendo durante años.
En mi trabajo con estudiantes, he visto durante mucho tiempo cómo el pensamiento se puede subcontratar cuando la evaluación lo permite: fábricas de ensayos, intercambio de trabajos anteriores, ensayos modelo pasados entre cohortes o una gran dependencia de tutores y amigos para estructurar las tareas. La inteligencia artificial no inventó este comportamiento. Simplemente industrializó un atajo que ya existía.
Lo que la IA ha hecho, en mi opinión, es revelar cuán frágil ha sido siempre el formato tradicional de ensayo en conferencia como indicador del compromiso intelectual. Si se puede producir un texto de manera convincente sin pensar, el problema reside menos en la tecnología y más en la forma en que se diseñan el aprendizaje y la evaluación.
En lugar de romantizar un pasado anterior a la IA que nunca fue tan puro como imaginamos, las universidades deberían aprovechar este momento para repensar lo que realmente quieren que los estudiantes demuestren: evidencia de reflexión, interpretación y lucha intelectual en lugar de un trabajo demasiado pulido presentado como producto final.
Dra. Nafisa Baba-Ahmed
Londres



