La mente en modo ‘bajo consumo’: ¿para qué pensar si la IA ya lo hace?
Imaginemos que un día dejásemos de pensar. No porque alguien nos lo prohibiese ni porque fuésemos incapaces, sino porque ya no hiciese falta, porque existiese algo que decidiese por nosotros de forma más rápida, amable y peligrosamente convincente. Elegir se volvería innecesario; dudar, una pérdida de tiempo.
Esta idea aparece en una serie popular reciente, Pluribus, creada por Vince Gilligan, que plantea un mundo en el que las decisiones individuales se diluyen en una especie de mente colectiva. No como una amenaza violenta, sino como una solución cómoda y funcional.
Algo muy parecido empieza a suceder con nuestra forma de pensar. La incorporación de la inteligencia artificial (IA) a la vida cotidiana no es solo un avance tecnológico que optimiza tareas. Es también una transformación profunda de los procesos mediante los cuales decidimos, razonamos y creamos. Así, la IA generativa comienza a ocupar un lugar ambiguo: es a la vez una herramienta poderosa y una muleta tentadora.
Delegar en ella puede llevarnos antes a la meta, pero abre una pregunta más inquietante: ¿qué ocurre con nuestras capacidades cognitivas cuando dejamos de recorrer el camino?
El riesgo de pensar en modo de bajo esfuerzo
La ficción de Gilligan no presenta esta disolución como una elección consciente, sino como una irrupción súbita: una inteligencia ajena que se propaga y uniformiza el pensamiento. A partir de ese hecho, la duda deja de actuar como motor del pensar y el conflicto interior se apaga. La subjetividad no se anula por imposición, sino por sustitución.
En el plano de lo real, la neurociencia comienza a identificar un fenómeno inquietantemente similar bajo el concepto de sedentarismo cognitivo. La delegación sistemática de tareas cognitivas no solo amenaza nuestra autonomía y pensamiento crítico, sino que permite a la IA operar como una infraestructura que accede al inconsciente para condicionar el comportamiento. Resulta entonces imperativo proteger los derechos del yo inconsciente, una advertencia que resuena en numerosos estudios y críticas de la literatura actual. Esta preocupación no es solo teórica: la evidencia científica reciente aporta datos que la respaldan.
Un estudio del MIT Media Lab ofrece una pista empírica sobre lo que ocurre cuando el pensamiento se delega por completo. Los participantes que confiaron íntegramente en herramientas de IA generativa para escribir mostraron una menor activación de las áreas cerebrales implicadas en la memoria y el razonamiento. El efecto más revelador fue conductual: la mayoría no logró recordar ni explicar el contenido que acababa de producir. Sin esfuerzo cognitivo, la información no se integra; simplemente pasa.
El propio estudio pone estos resultados en perspectiva al compararlos con investigaciones previas sobre el uso de buscadores. Buscar información obliga a leer, evaluar, descartar y tomar decisiones, un proceso que mantiene activa la mente y refuerza la sensación de autoría. Cuando ese recorrido desaparece y el resultado llega ya cerrado, no solo cambia lo que sabemos sino cómo aprendemos a pensar.
La trampa de la pereza metacognitiva
El problema, por tanto, no es solo el olvido de datos, sino una transformación más profunda en la forma de procesar la información. La literatura científica describe este fenómeno como pereza metacognitiva: la tendencia a delegar no solo la ejecución, sino también la planificación y el control del propio pensamiento.
Un estudio experimental, publicado en el British Journal of Educational Technology, muestra con claridad esta paradoja. Los estudiantes que utilizaron ChatGPT obtuvieron mejores calificaciones en sus trabajos, pero no aprendieron más que quienes no lo usaron. El producto final mejora, pero la formación no progresa. La explicación apunta a una alteración del aprendizaje autorregulado (SRL): al recibir respuestas ya estructuradas, los sujetos reducen el esfuerzo de planificación y elaboración cognitiva, limitándose a una edición superficial.
No todo está perdido: diseñar fricciones deseables
La solución no es el rechazo, sino introducir intencionalmente fricciones deseables: utilizar la IA para generar retos y contraejemplos que nos obliguen a cuestionar la información y a resistir la aceptación automática de los patrones que los algoritmos refuerzan. Estos patrones tienden a crear cámaras de eco y a homogeneizar opiniones, no porque la IA piense por sí misma, sino porque somos nosotros quienes la usamos de forma cómoda y confirmatoria.
Para superar este riesgo, algunos estudios sobre epistemologías alternativas proponen estrategias para diversificar y confrontar la producción de conocimiento frente a la tendencia de los algoritmos a homogeneizar el pensamiento.
Desde esta perspectiva, resulta especialmente relevante la propuesta de Lara y Deckers sobre la “mejora socrática”. Su objetivo no es atribuir agencia moral a la tecnología, sino reintroducir la responsabilidad humana en la interacción. El riesgo no es que la máquina decida por nosotros, sino que dejemos de decidir al aceptar respuestas alineadas con la media o con aquello que confirma nuestra posición.
La resistencia no consiste en oponerse a la tecnología, sino en cambiar nuestra forma de usarla. En lugar de pedirle a la IA una confirmación cómoda –como “explícame por qué esta medida política es positiva”–, que suele generar respuestas previsibles, resulta más útil interactuar de forma crítica. Por ejemplo, pedirle que analice supuestos implícitos, identifique contradicciones entre efectos sociales y valores defendidos, y formule objeciones o preguntas que nos hagan reconsiderar nuestra postura. Así, la IA no sustituye el juicio humano, sino que lo activa.
La soberanía de la individualidad
La estandarización algorítmica tiende a crear una uniformidad digital que deja de lado lo auténtico en favor de lo predecible.
Si no reclamamos nuestra autonomía mental, corremos el riesgo de convertirnos en la versión simplificada de usuarios que la tecnología espera que seamos. El desafío no es competir con la capacidad de cálculo de la máquina, sino utilizarla de un modo que libere nuestra reflexión crítica, permitiendo que la eficiencia tecnológica enriquezca la experiencia humana sin reemplazar el pensamiento propio.![]()
Anita Feridouni Solimani, Profesora y apoyo a la coordinación en el Departamento de Tecnologías de la Información y Comunicación Aplicadas a la Educación de la UNIR. Docente en Tecnologías Educativas y Competencias Digitales., UNIR - Universidad Internacional de La Rioja. Artículo publicado originalmente en The Conversation.
He vist la sèrie que tindrà una segona temporada. És molt bona i l'anàlisi d'Anita Feridouni molt encertat.
Desde luego, es para pensar.
El día que dejemos de pensar, nos comen.
Hay que ser más listos que la IA. La IA no es lista, es rápida. Tarda nada en reunir toda la información disponible, pero en el fondo es tonta y no tiene chispa creativa. El otro día la puse prueba:
Necesito un palíndromo para felicitar a un amigo que se llama Antonio y al que podemos llamar Antón o Ton.
Bueno, pues me hizo esras porquerías:
“TONIO RÍE, TON; TOÑO ANTONIO NO NAÑO, TON EÍR OINT”
“Ton no t”
(Feijóo lo hace mejor)
“Antón no tna”
¿Qué te parecen?
A mí, un zurullo campero.