Síganos en nuestras redes:          


Incidencia de la inteligencia artificial en la filosofía y el pensamiento crítico en la secundaria.

El uso de herramientas de Inteligencia Artificial como ChatGPT, Deepseek, Gemini, entre otras, en las Instituciones Educativas ha generado un conflicto en los procesos de aprendizaje, debilitando las competencias de los estudiantes para reflexionar y evaluar críticamente la información, sin desconocer los grandes beneficios de la IA, bien implementada.

Lo anterior cobra relevancia particularmente en el área de filosofía, disciplina que generacionalmente ha contribuido al desarrollo del pensamiento crítico, autónomo, argumentativo y reflexivo. Por tanto, actualmente la IA está generando una gran dependencia en la ejecución de tareas académicas como resolver guías o talleres, presentar exposiciones mediante la lectura literal de textos o resolver evaluaciones con respuestas generadas automáticamente, evidenciando una cultura del mínimo esfuerzo, comprometiendo la formación humanística.

El Ministerio de Educación Nacional (2010) en el área de filosofía, estructura competencias fundamentales como la crítica, creatividad y diálogo, permitiendo a los jóvenes "realizar juicios críticos, autónomos y de trabajo colaborativo", ejerciendo la virtud para la construcción de una sociedad pacífica. Sin embargo, esta formación se ve amenazada por prácticas como: copiar directamente las respuestas creadas por la IA sin ningún procesamiento cognitivo, reducción de la aptitud para elaborar razonamientos propios, reemplazo del criterio moral personal por resultados algorítmicos desprovistos de conciencia. Al respecto, Massey (2025) manifiesta que "si los estudiantes, llegan a depender en exceso de las recomendaciones o soluciones de la IA, pueden estar menos inclinados a desafiar la información o buscar comprensión a través de la experimentación y el pensamiento crítico". Por tanto, es una preocupación la dependencia tecnológica y el desarrollo de las habilidades del razonamiento de los estudiantes.

De otra parte, se reconocen los grandes beneficios que ofrece la IA, entre ellos la individualización del aprendizaje, ayuda en la retroalimentación, optimización del tiempo, elaboración de tareas y trabajos escolares. No obstante, su implementación acrítica puede conducir a consecuencias no deseadas. Por ejemplo, al usar ChatGPT se corre el riesgo de recibir información incorrecta o sesgada, dependencia tecnológica o difusión de desinformación.

Una investigación significativa en este campo fue desarrollada por Nataliya Kosmyna del MIT Media Lab, quien condujo un estudio experimental con 54 participantes de entre 18 y 39 años durante un período de varios meses. Su investigación reveló hallazgos preocupantes sobre el impacto neurológico del uso de ChatGPT. Kosmyna (2025) documentó que "los usuarios de ChatGPT mostraron los niveles más bajos de actividad cerebral, con menor conectividad en bandas asociadas a procesos como la memoria, la creatividad y el razonamiento semántico". El estudio evidenció que el 83% de los consumidores de IA presentaron incapacidad para recordar el contenido de ensayos que acababan de redactar, mostrando hasta un 55% menos de conectividad neural en comparación con quienes escribieron sin asistencia. La investigadora destaca que "el grupo que había usado ChatGPT recordaba poco de lo que había escrito, sugiriendo que el proceso no se integró de manera significativa en su memoria a largo plazo". Esta evidencia neurológica sugiere que la dependencia de herramientas de IA puede comprometer fundamentalmente los procesos cognitivos esenciales para el pensamiento crítico.

Otros estudios nos revelan una dependencia cognitiva, deterioro crítico e impacto en la autonomía estudiantil, como es el caso de Gerlich (2025) de la Escuela de negocios Suiza, quien lideró una investigación con 666 participantes, estableciendo una correlación negativa entre el uso frecuente de herramientas de IA y las habilidades de pensamiento crítico. Concluyó que "las personas más jóvenes, más familiarizadas con las nuevas tecnologías, fueron las que usaban la IA con más frecuencia", pero también "tenían un pensamiento crítico más débil que el resto". Igualmente, Soler (2024) de la Universidad Isabel I, en colaboración con Pablo Rosser de la Universidad Internacional de la Rioja, dirigió una investigación con 41 estudiantes universitarios que demostró preocupaciones sobre el impacto de ChatGPT en el desarrollo de habilidades críticas, manifestando que "el uso excesivo de IA podría llevar a los estudiantes a adoptar soluciones automáticas, limitando la reflexión y el análisis en su proceso de aprendizaje". Vanderlinde y Cury (2022) indican que "el ChatGPT tiene un impacto negativo en los estudiantes ya que tienden a perder su pensamiento crítico". Este detrimento es preocupante, especialmente en el campo filosófico, donde el debate amplio, el cuestionamiento trascendente y la reflexión crítica son esenciales.

Una investigación reciente de Palos y Díez (2024) sobre Inteligencia Artificial y Espíritu Crítico en la enseñanza media: uso y percepción de los estudiantes de bachillerato sobre el ChatGPT, registró que "la mayoría de los adolescentes dicen utilizar ChatGPT ocasionalmente, principalmente porque lo considera útil", pero al mismo tiempo, expresan preocupación en su capacidad de "fomentar el espíritu crítico". Es así, como el uso intensivo de herramientas de IA generativa compromete la capacidad de los estudiantes para desarrollar argumentos originales y coherentes. Esta tendencia se expresa específicamente en estudiantes de secundaria, donde el desarrollo de habilidades críticas es fundamental. Como detalla un estudio de Rojas et al. (2024) sobre IA: dependencia y la afección del pensamiento crítico, "los estudiantes pueden volverse menos competentes para enfrentarse a la dependencia tecnológica, sosegando la capacidad de análisis y raciocinio crítico".

Con respecto a algunas de las críticas filosóficas que se han generado a los largo de la historia con respecto a la tecnología, desde la antigüedad hasta la actualidad, recordamos a Platón, en su obra Fedro en Diálogos III, traducida en 1988 (274d-275b), quien manifestó una de las primeras críticas filosóficas sobre el impacto de una tecnología específica, la escritura, en las capacidades humanas, argumentando que debilitaría la memoria natural y la comprensión profunda: "la escritura producirá el olvido en las almas de quienes la aprendan, al descuidar la memoria, ya que fiándose de lo escrito, llegarán al recuerdo desde fuera..." Más adelante, el filósofo de la ilustración Rousseau (1750) en su Discurso sobre las ciencias y las artes, argumentó que "el progreso científico y artístico, lejos de mejorar la moralidad humana, corrompe las costumbres naturales y aleja a las personas de la virtud". También Kant (1784) aunque defendía la razón, también advirtió sobre los peligros de la dependencia excesiva de autoridades externas, incluyendo los tecnológicas, para el pensamiento autónomo. En el siglo XX, Heidegger (1954) advirtió que la técnica moderna transforma esencialmente la relación del ser humano con el mundo y consigo mismo, amenazando la capacidad de reflexión profunda. Habermas (1981) alertó sobre el peligro de que los sistemas tecnológicos sustituyan la comunicación humana auténtica, fundamental para el aprendizaje y el desarrollo del pensamiento crítico. Y finalmente, Searle (1980) manifiesta que "una IA que manipula símbolos no comprende realmente, solo sigue reglas programadas sin entendimiento auténtico". Los anteriores filósofos son sólo algunos de los múltiples pensadores que han señalado que la tecnología puede afectar negativamente la capacidad de concentración prolongada, esencial para el aprendizaje profundo y significativo y las habilidades de análisis y evaluación crítica.

Frente a este panorama, se deben proponer en las instituciones educativas estrategias o acciones pedagógicas muy concretas que permitan un equilibrio entre el uso racional de la IA y el desarrollo del pensamiento crítico-filosófico, evidenciado en: la implementación de proyectos transversales que requieran la contrastación de fuentes filosóficas con resultados de la IA, promoviendo una evaluación crítica. Recuperar métodos que prioricen la construcción colectiva del conocimiento contra las respuestas prefabricadas por la IA. Generar discusiones sobre temáticas diversas (libertad de pensamiento, moralidad, justicia…) con respuestas de ChatGPT y escritos o pensamientos de filósofos. Mantener espacios para el diálogo directo y la reflexión personal, fomentando el pensamiento independiente. Ejercitar la comprensión, meditación, deliberación y el razonamiento en momentos de socialización, sustentación y participación entre compañeros o al frente de sus compañeros, sin uso del celular o cualquier aparato electrónico que conlleve sólo a la recuperación, imitación o repetición de información. Finalmente, es un gran reto y un desafío a seguir afrontando por todos los docentes y que requiere necesariamente un proceso de actualización y capacitación continua, comprometida y de vocación.



Referencias
Centro Virtual de Noticias de la Educación. (2010). Orientaciones pedagógicas para la filosofía en la educación media. Ministerio de Educación Nacional de Colombia.
Gerlich, M. (2025). AI tools in society: Impacts on cognitive offloading and the future of critical thinking. Societies, 15(6), 1-18. https://doi.org/10.3390/soc15060001
Habermas, J. (1981). Teoría de la acción comunicativa. Madrid: Taurus.
Heidegger, M. (1954). La pregunta por la técnica. En Conferencias y artículos. Barcelona: Serbal.
Kant, I. (1784). ¿Qué es la Ilustración? En Filosofía de la historia (trad. E. Imaz). México: FCE.
Kosmyna, N. (2025, June 17). ChatGPT’s impact on our brains according to an MIT study. TIME Magazine. https://time.com/7295195/ai-chatgpt-google-learning-school/
Massey, A. B. D. (2025, May 30). Ethical and philosophical implications of artificial intelligence in education. LinkedIn. https://www.linkedin.com/pulse/ethical-philosophical-implications-artificial-massey-abd-j-d-mba-cwjbc
Palos Rey, Laia, and Míriam Díez Bosch. 2024. «Inteligencia Artificial y Espíritu Crítico en la Enseñanza Media: Uso y Percepción de los Estudiantes de Bachillerato sobre el Chat GPT.» Revista Internacional de Humanidades 11 (2): 43-57. http://doi:10.18848/2474-5022/CGP/v11i02/43-57
Platón. (ca. 370 a.C.). Fedro (274d-275b). En Diálogos III (trad. E. Lledó). Madrid: Gredos.
Rojas Marín , F. de los Ángeles, Espinoza Padilla, J. G., & Mendoza Pacheco, M. F. (2024). Inteligencia Artificial: Dependencia y la Afección del Pensamiento Crítico. Ciencia Latina Revista Científica Multidisciplinar, 8(4), 12590-12608. https://doi.org/10.37811/cl_rcm.v8i4.13462
Rousseau, J. J. (1750). Discurso sobre las ciencias y las artes. Academia de Dijon.
Searle, J. (1980). Minds, Brains, and Programs. Behavioral and Brain Sciences, 3(3), 417-424.
Soler, S., & Rosser, P. (2024). Implicaciones éticas y pedagógicas del uso de ChatGPT en la educación universitaria. En Innovación Educativa y Transformación social: propuestas para los actuales desafíos (pp. 1-25). Dykinson.
Vanderlinde, G., & Cury, T. (2022). El uso de inteligencia artificial y sus desafíos para la evaluación académica: una revisión de la literatura. Desafíos y miradas. Cuaderno de Pedagogía Universitaria, 21(41), 126–137. http://cuaderno.pucmm.edu.do