Artículos, Blog

Inteligencia artificial en la escuela: entre entusiasmo y pánico

Posted by Juan Carlos Yáñez Velazco

La irrupción de la inteligencia artificial generativa en la educación reprodujo una escena familiar: fascinación y miedo en proporciones casi equivalentes. En algunos discursos, sistemas como ChatGPT aparecen como la solución anhelada a problemas estructurales del aprendizaje. En otros, se juzgan como la antesala del plagio masivo, la pereza intelectual y la obsolescencia docente.

Entre el entusiasmo tecnosolucionista y el pánico moral, la conversación parece oscilar sin matices. Y, sin embargo, la historia de la educación nos enseña que las tecnologías rara vez cumplen las promesas grandilocuentes, ni concretan las catástrofes anunciadas. La imprenta, la radio, la televisión, internet: cada una fue recibida con expectativas redentoras y temores apocalípticos. La escuela sobrevivió a todas, aunque no siempre salió indemne.

Hoy, la inteligencia artificial plantea una pregunta más exigente que la de su mera adopción o prohibición: ¿qué tipo de experiencia formativa queremos preservar y fortalecer?

El discurso optimista sostiene que la IA personaliza el aprendizaje, genera retroalimentación inmediata, apoya la planificación docente y democratiza el acceso al conocimiento. Algo de eso es cierto. Un estudiante puede recibir explicaciones alternativas, practicar ejercicios adicionales o explorar perspectivas diversas con una rapidez antes impensable. Un profesor puede ahorrar tiempo en tareas rutinarias y dedicar más energía a la interacción pedagógica.

Pero el discurso optimista suele omitir un detalle decisivo: ninguna tecnología es neutra. Las herramientas facilitan procesos y modelan hábitos cognitivos. Si la respuesta está siempre a un clic de distancia, ¿qué ocurre con la paciencia intelectual? Si la redacción puede delegarse a un algoritmo, ¿cómo se transforma la relación con la escritura en tanto proceso de pensamiento?

Del otro lado, el discurso alarmista asume que la inteligencia artificial erosionará la honestidad académica y vaciará de sentido la evaluación. Se multiplican reglamentos, prohibiciones y sistemas de detección. La sospecha se instala como atmósfera permanente. Sin embargo, la historia también muestra que prohibir no educa. Puede contener una práctica, pero no desarrolla criterio sensato.
El riesgo mayor no es que los estudiantes utilicen inteligencia artificial. El riesgo es que lo hagan sin comprender sus límites, sesgos y alcances. Que la utilicen como sustituto del esfuerzo cognitivo y no como apoyo reflexivo. Y, de forma paralela, que las instituciones la adopten acríticamente como atajo para resolver problemas estructurales de calidad, equidad o sobrecarga docente.

Conviene decirlo con claridad: la inteligencia artificial no corrige por sí sola desigualdades educativas profundas. No sustituye políticas públicas sólidas, ni compensa precariedades formativas, ni reemplaza el vínculo pedagógico. Pensar lo contrario es caer en una versión contemporánea del viejo sueño tecnocrático: creer que la complejidad social puede resolverse con eficiencia algorítmica.

El verdadero desafío no es tecnológico, es pedagógico. Requiere fortalecer el juicio equilibrado del docente. Decidir cuándo y para qué usar estas herramientas. Diseñar actividades donde la inteligencia artificial no anule el pensamiento, sino que lo exponga a contraste. Reformular evaluaciones que prioricen procesos, argumentación y diálogo. Enseñar a preguntar mejor, no solo a obtener respuestas más rápidas.

Paradójicamente, la presencia de la inteligencia artificial puede obligarnos a volver a lo esencial. Si un algoritmo puede producir un resumen aceptable en segundos, debemos preguntarnos qué valor formativo tiene encargar resúmenes. Si puede redactar un ensayo estándar, tal vez debamos enfatizar más la discusión oral, la defensa argumentativa, la escritura situada y el trabajo colaborativo reflexivo.

La inteligencia artificial no elimina la necesidad de pensamiento crítico; la vuelve más urgente. Exige comprender cómo se construyen las respuestas, qué datos las sustentan, qué sesgos las atraviesan. Exige formar estudiantes capaces de dialogar con la tecnología sin subordinarse a ella.

La tentación, sin embargo, es reducir el debate a una disyuntiva simplista: integración total o prohibición absoluta. Ambas posturas comparten una premisa problemática: desplazan la responsabilidad hacia la herramienta. O bien se le atribuye un poder casi mágico de transformación, o bien se le concede una capacidad casi inevitable de deterioro.

La educación nunca ha sido un problema de herramientas, sino de propósitos. Si no tenemos claridad sobre qué significa aprender, formar criterio, construir ciudadanía, ninguna tecnología resolverá esa ambigüedad. Y si sí la tenemos, entonces la tecnología será, en el mejor de los casos, un recurso subordinado a ese horizonte.

Está fuera de discusión que la inteligencia artificial tiene lugar en la escuela. La cuestión es si nuestras instituciones tienen la madurez profesional y las políticas pertinentes para integrarla sin abdicar de su responsabilidad formativa. Si pueden resistir tanto la seducción del atajo como el miedo paralizante.

Como en otros momentos de la historia educativa, lo decisivo no será la potencia del algoritmo, sino la solidez del proyecto pedagógico que lo enmarque. La inteligencia artificial no salvará la educación. Tampoco la destruirá por sí sola, pero puede empobrecerla si sustituye el juicio profesional por automatismos acríticos. Y eso —conviene recordarlo— no es una decisión técnica. Es una decisión cultural y ética que todavía estamos a tiempo de deliberar con mayor serenidad que entusiasmo o temor.

 

Related Post

Leave A Comment

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.