Riesgos cognitivos: del conocimiento trabajado al conocimiento servido
La disponibilidad inmediata de respuestas gracias a la inteligencia artificial (IA) conlleva un riesgo de dependencia cognitiva: acostumbrarse a recibir el conocimiento servido en bandeja por la IA en lugar de trabajarlo uno mismo.
Antes, investigar un tema implicaba leer varias fuentes, reflexionar y sintetizar ideas con esfuerzo personal. Ese proceso activo forjaba lo que podríamos llamar conocimiento trabajado, comprendido a fondo mediante la práctica. Ahora, por el contrario, es tentador saltar directo al resultado, ante cualquier duda se recurre a la IA y se obtiene la solución al instante, sin recorrer el camino del razonamiento propio. Esta inmediatez puede minar la autonomía intelectual, haciendo que el alumno dependa de la tecnología para pensar y aprender.
Diversos análisis señalan que un uso excesivo de la IA como muleta académica afecta negativamente habilidades fundamentales. Los alumnos que delegan sistemáticamente en la IA tareas como redactar, resumir textos o resolver ejercicios suelen mostrar menor capacidad para estructurar ideas y formular argumentos propios. Incluso se ha observado que en pruebas que exigen análisis profundo o pensamiento crítico, estos estudiantes rinden peor que quienes abordan las tareas sin ayuda de la IA. En otras palabras, la sobredependencia de respuestas generadas por inteligencia artificial conduce a una atrofia de habilidades cognitivas básicas, se vuelve más difícil para el alumno articular un discurso complejo, conectar conceptos o resolver problemas nuevos por sí solo.
Las herramientas de IA generativa suelen ofrecer respuestas rápidas pero poco profundas. Si el estudiante acepta sin más esas soluciones prefabricadas, no ejercita el pensamiento crítico para valorar su calidad ni desarrolla plenamente la capacidad de análisis para llegar a la respuesta por sus propios medios. Con el tiempo, competencias como la lectura, la síntesis de información o la evaluación de la fiabilidad de una fuente pueden verse mermadas por falta de práctica. Ya antes con Internet se notaba cierta despreocupación por memorizar datos (el conocido efecto Google). Las nuevas IAs amplifican este fenómeno, si cualquier concepto se aclara en segundos, disminuye la motivación para retener conocimientos o repasar contenidos por cuenta propia.
Un experimento educativo reciente ilustra este riesgo. En una prueba con estudiantes de bachillerato, quienes usaron un chatbot de IA para hacer ejercicios resolvieron más problemas durante la práctica, pero en el examen final obtuvieron peor calificación que aquellos que estudiaron sin ayuda. La razón es clara, al apoyarse en la solución instantánea, no consolidaron el método ni el razonamiento subyacente. Es el peligro de usar la IA como “piloto automático”: puede dar una ilusión de competencia mientras erosiona la habilidad real del estudiante para enfrentar nuevos retos sin apoyo.
En última instancia, nada reemplaza el esfuerzo intelectual personal. La célebre frase de El Principito “lo esencial es invisible a los ojos” aplica aquí: en educación, ese trabajo mental invisible es insustituible. Forjar un pensamiento autónomo requiere de esa gimnasia intelectual constante (leer textos completos, equivocarse y volver a intentarlo, construir un argumento paso a paso). Si renunciamos a todo ello porque una IA nos facilita respuestas inmediatas, corremos el riesgo de formar estudiantes con información pero sin entendimiento, comprometiendo su desarrollo intelectual a largo plazo. Además, un estudiante que no se acostumbra a esforzarse para aprender puede ver mermada su creatividad y iniciativa. Si todo se lo resuelve una máquina, le resultará más difícil generar ideas originales o enfrentar situaciones nuevas sin que un algoritmo le marque el camino.
Artículo cedido para el ágoradelpensamiento
Autor: Antoni Lorente González