El pasado mes de diciembre, la Fundación del Español Urgente (FundéuRAE) proclamó inteligencia artificial (en adelante IA) como palabra del año 2022, una “expresión compleja por su presencia en los medios de comunicación y las consecuencias éticas derivadas”. La novedad de esta disciplina de las Ciencias de la Computación es relativa. Su incorporación al ámbito científico posee una larga trayectoria de más de 70 años. En nuestra vida cotidiana, hace tiempo que está integrada a través de múltiples servicios y objetos como asistentes de voz, técnicas de reconocimiento facial, cálculos de riesgos, análisis de imágenes para diagnósticos médicos, gestión del transporte, traductores automáticos y un largo etcétera.
Quizá la aparición de ChatGTP en el verano del año pasado sea la noticia que más titulares haya acaparado. Desarrollado por la empresa OpenIA, es un programa de IA conversacional que asombra por su sencillez de uso, la rapidez de sus respuestas y el lenguaje natural empleado para comunicarse con usuarios. Deseosos de experimentar con este nuevo juguete, ChatGTP ha sido evaluado por su habilidad para abordar las cuestiones más peregrinas, pero también por haber superado pruebas a universidades o de posgrados, aunque con resultados no excesivamente brillantes.
Estas y otras aplicaciones de IA, basadas en redes neuronales informáticas y capacidad de aprendizaje profundo, ofrecen buenos resultados en otros campos como la creación de imágenes o composiciones musicales a partir de descripción textual del usuario, juegos de estrategia (como el ajedrez o el Go), recreación en vídeo de personajes fallecidos o falsos (conocidos como deepfakes) e, incluso, la generación de noticias y otros tipos de textos.
Lo cierto es que podríamos estar viviendo lo que la consultora Gartner denomina un estado Hype (de hipérbole) al describir la evolución de las innovaciones tecnológicas: un pico de expectativas sobredimensionadas, al que seguirá una sima de profunda decepción, hasta alcanzar una futura meseta de integración y productividad.
En este sentido, el especialista Andrew Ng afirma que la IA, como la electricidad, transformará casi todo en el próximo siglo, pero no a corto plazo.
El lector interesado por los avances tecnológicos y su impacto sociocultural reconocerá en esta efervescencia mediática viejos patrones que se han ido reiterando a lo largo de la historia, con más insistencia en la llamada era digital.
La aparición estelar de una nueva tecnología, sobre todo si a esta se le atribuye un alcance revolucionario, tal como parece ser el caso de IA, viene acompañada de pronósticos con frecuencia muy polarizados que van desde un futuro de mágicas posibilidades hasta los augurios de nuevas amenazas.
Pero, ¿también promueve una deseada conversación crítica que nos revele luces y sombras, caminos alternativos? Debemos considerar que las tecnologías llamadas disruptivas (la imprenta, la máquina de vapor, la electricidad, internet, etc.) no solo modifican hábitos, generan nuevos deseos y modos de pensar, sino que nos lanzan al ágora pública donde las viejas palabras se redefinen y, con ellas, el lenguaje y nuestra cultura. Esas poderosas tecnologías han abandonado su naturaleza de meras herramientas para convertirse en verdaderos sistemas, entornos donde habitamos.
Entre los vaticinios, escuchamos que la IA cambiará nuestra concepción sobre algo tan humano como la creatividad, las decisiones judiciales, las relaciones laborales o la autonomía y agencia personales. No nos resulta extraño que la aparición de la IA haya propiciado desde sus inicios el debate entre los límites de la máquina y el ser humano. Su legado familiarmente romántico ha inspirado numerosas obras de ficción narrativa y cinematográfica, revitalizando viejos mitos como Prometeo, Frankenstein o el Golem. Hoy, desde la perspectiva más actualizada del transhumanismo, el debate sobre la IA nos interpela a preguntarnos sobre los límites de lo propiamente humano.
¿Y la educación?
Debido a los lastres históricos de lo que Tyack y Tobin denominaban la gramática de la escuela, el mundo educativo no se ha caracterizado por una rápida incorporación de nuevas tecnologías, cuando estas ya se encontraban plenamente asentadas en el mundo laboral y cotidiano. No nos referimos a la presencia física de dispositivos electrónicos en las aulas, sino a su integración curricular para propiciar aprendizajes más profundos y transformadores. El Joint Research Centre (2018) pronosticó, a través de un informe de asesoramiento a la Comisión Europea profundos y acelerados cambios, semejantes a los que sucederán en otros ámbitos sociales, laborales y legislativos. Su autor, llkka Tuomi, predice un impacto directo de la IA sobre la demanda de nuevas habilidades y competencias digitales avanzadas.
En lo que respecta al profesorado, sus funciones deberán ser revisadas. Dada su alta capacidad de procesamiento, es previsible que la IA asuma las tareas docentes más mecánicas y rutinarias como la corrección de pruebas automatizadas, la detección de plagio, la planificación o la creación de grupos de trabajo según perfiles de los estudiantes. Muchos de los procesos administrativos y burocráticos que lastran la labor del día a día escolar serán (supuestamente) reducidos y delegados a sistemas de IA. También se esperan avances tecnológicos que ayuden en la búsqueda de recursos educativos para preparar las clases, sea cual sea el nivel educativo, pudiendo solicitar al sistema inteligente la elaboración de materiales en distintos formatos, desde vídeos a la carta al diseño de sofisticados entornos inmersivos de realidad virtual o realidad aumentada. Como consecuencia, los espacios educativos deberán ser rediseñados. Tampoco queda lejos el empleo de la IA para adaptar recursos educativos que satisfagan las necesidades e intereses de un alumnado diverso. Sensores habilitados en las aulas llevarán el registro de la presencia de los estudiantes, cuyas incidencias serán comunicadas a las instancias administrativas, tutores y padres. Algunos ensayos experimentales con la IA llevados a cabo en escuelas sobre el reconocimiento de emociones parecen inspirados por la imaginación más distópica: estudiantes equipados con auriculares, relojes inteligentes o cascos que monitorizan su actividad cerebral para avisar al profesor de una bajada de atención, dificultades de comprensión o prevención de posibles conductas disruptivas (Dans, 2018), en lo que pudiera parecer otra vuelta de tuerca neoconductista en su afán de manipular el comportamiento humano.
Los tutores inteligentes (sin duda las aplicaciones comerciales más comunes de la IA en educación) guiarán paso a paso a los estudiantes en dominios muy bien estructurados, prestándoles su apoyo individualizado mediante una pronta retroalimentación y ofreciéndoles recursos adaptativos de refuerzo o ampliación. En realidad, estos pronósticos no esconden la herencia de las viejas ideas de Sidney L. Pressey (1926) y su máquina de enseñar, popularizada posteriormente en los años 50 por Skinner, padre de la psicología conductista.
Otro de los ámbitos donde se mantienen altas expectativas en las aplicaciones de la IA en educación es su capacidad de diagnóstico. Al basarse en ingentes volúmenes de datos, estos sistemas inteligentes son especialmente eficaces en el reconocimiento de patrones, desarrollando una alta capacidad de predicción. En este sentido, se ha evidenciado sus posibilidades para ayudar a la detección temprana de dislexias mediante el seguimiento de los movimientos oculares del usuario, trastornos del espectro autista, del déficit de atención con hiperactividad (TDAH), del control de la escritura o disgrafías, entre otros.
En otros asuntos no directamente relacionados con el aprendizaje, los chatbots también se emplean como asistentes virtuales para informar a los estudiantes sobre cursos disponibles, posibilidades de alojamiento, rutas y eventos, así como guiarlos en sus procesos de matriculación y otras gestiones administrativas, incluso ofreciendo funcionalidades de planificación y gestión de tareas escolares. Del mundo empresarial y de los recursos humanos llegan sistemas de IA que intervienen en los procesos de admisión de estudiantes, adjudicación de becas, o alertan de riesgos de abandono académico, no sin una amplia controversia.
Aunque existen avances en la investigación de estas aplicaciones, los resultados aún son modestos (si no ambiguos) y limitados a dominios como las matemáticas y la física, formalmente más cerrados que otros campos del saber. Por su parte, los citados sistemas de tutores inteligentes (STI) están claramente centrados en la medición y evaluación de los logros del estudiante, desde una perspectiva generalmente sumativa y estandarizada, en detrimento de otras concepciones de la evaluación más formadoras.
Otras investigaciones independientes como la de Koedinger simplemente cuestionan las supuestas “ganancias de aprendizaje” de los STI, abriendo el debate a futuras revisiones.
Se espera que el despegue tecnológico de la IA pueda modificar esta tendencia y la investigación ofrezca más evidencias sobre los beneficios de la IA en educación y sus resultados en la mejora de los aprendizajes en futuros desarrollos. Algunos de los obstáculos parecen ser de naturaleza técnica, como la arquitectura de microchips basada en el silicio. Sin embargo, más problemáticos resultan los obstáculos de tipo pedagógico, ético y político. La pregunta que los educadores deberíamos plantearnos no es cuándo va a llegar la IA a nuestras escuelas, sino cómo, para qué, a quién va a beneficiar, quién va a acceder a ella, qué problemas resuelve y cuáles genera o amplifica. Desde el punto de vista pedagógico, se ha evidenciado que la teoría de aprendizaje que sustenta a muchos desarrollos de la IA queda anclada en las teorías conductistas de los inicios del siglo XX, cuyos modelos son claramente simplificadores, marginalizando la dimensión social y emocional de la inteligencia humana. Gran parte de los diseños de IA aplicados a la educación mantienen una concepción de la enseñanza como transferencia de información, descontextualizada y de carácter individual. La analogía que equipara el cerebro humano como un procesador de información, transmitida por las ciencias cognitivas centra mucho la investigación en este campo, privilegiando modelos de resolución de problemas, a partir de la construcción de arquitecturas de conocimiento sumamente eficientes.
Al comprender la enseñanza y el aprendizaje en términos de comportamientos observables o simples tareas mecánicas que se pueden reproducir una y otra vez a partir de patrones establecidos, corremos el riesgo de asumir una perspectiva reduccionista en exceso. Con ello no queremos decir que en el aprendizaje no existan conductas observables, sino que estas no abarcan el amplio y complejo proceso de lo que significa aprender, mucho menos educar.
El análisis de estos y otros presupuestos pedagógicos debería alentarnos a cuestionar la creencia de que los sistemas inteligentes, como cualquier otra tecnología, son neutros. Por el contrario, todas las tecnologías, incluidas las educativas, son diseñadas conforme a unos marcos conceptuales e intereses de sus programadores, y de las empresas que los financian. Si concretamos esta reflexión e indagamos en el campo del diseño curricular surgen nuevas preguntas: ¿Qué tipo de objetivos y competencias favorecen los sistemas de IA? ¿Cuáles son los saberes que cuentan como conocimiento básico para las empresas diseñadoras de estos sistemas?, ¿cuáles son los marginados? ¿Son posibles otras alternativas al modelo de evaluación estandarizado suscrito por estas tecnologías emergentes? ¿qué modelos educativos benefician?
Dentro también del ámbito pedagógico podríamos incluir el debate sobre la personalización de la enseñanza, otro de los recurrentes beneficios asociados a los nuevos sistemas inteligentes. En este caso, como afirma César Coll, más que personalización, deberíamos hablar de aprendizaje diferenciado, como aquel donde las elecciones de los diversos itinerarios posibles están condicionadas por metas predeterminadas por los programadores. Utilizando la expresión acuñada por Marina Garcés, “la autonomía se convierte en una forma de subordinación”, esta vez a las órdenes de un conjunto de algoritmos opacos.
Como telón de fondo, surge un intento de trasladar la lógica de la automatización y la datificación al ámbito educativo, de comprender el proceso de la enseñanza y el aprendizaje como un proceso lineal, medible, predecible y controlable, ajeno a la complejidad e imprevisibilidad de lo que sucede en las aulas.
Este debate sobre la IA en Educación se abre además a otros campos, no meramente pedagógicos, aunque si íntimamente entretejidos. Muchas son las dudas que emergen sobre la seguridad, privacidad y la propiedad de los datos que los sistemas de IA almacenan sobre sus usuarios, asunto especialmente delicado si quienes los utilizan son menores y en marcos regulatorios internacionalmente no homogéneos. Surgen interrogantes sobre cómo esos datos son procesados, para qué fines, para qué beneficiarios, con qué grado de transparencia y confianza. La explicabilidad de la IA es otra de las áreas del debate ético, pues en la comprensión de los criterios que subyacen a la toma de decisiones por parte de los sistemas inteligentes se sitúan cuestiones como la responsabilidad y rendición de cuentas.
Otro conjunto de preguntas de índole política y económica se plantea sobre la comercialización de la educación, el coste de estos sistemas inteligentes y el riesgo, una vez más, de generar nuevas brechas digitales ante unas tecnologías a las que no todos tendrán acceso, al menos en sus inicios. Añadimos que muchos de los problemas a los que aspira solucionar la IA educativa son externos a la propia educación, que rara vez parten desde la escuela, ni siquiera desde la necesidad pedagógica. Incluso hay quienes cabalmente piensan que estamos ante una nueva versión de lo que Morozov denominó “la locura del solucionismo tecnológico” donde la tecnología se ofrece como la panacea para solventar todos los problemas educativos.
Es cierto que algunos organismos internacionales han reclamado nuestra atención sobre estas y otras amenazas, realizando llamamientos a sus países miembros para garantizar un uso responsable, sostenible, equitativo y seguro de la IA en educación, que fortalezca la autonomía y capacidad de actuar de las personas. Tal es el caso de la Conferencia Internacional sobre Inteligencia Artificial y Educación celebrada en Beijing en 2019 patrocinada por la UNESCO cuyo consenso final alinea el uso educativo de la IA con los Objetivos de Desarrollo Sostenible, en concreto el objetivo de una educación de calidad para todos. De manera similar, los Informes de la Comisión Europea enmarcan el futuro desarrollo de la IA en el desarrollo de políticas que velen por el respeto a los Derechos Humanos (el derecho a la dignidad humana, el derecho a la autonomía, el derecho a ser escuchado, el derecho a no sufrir discriminación, etc.) Somos incapaces de pronosticar si esta visión humanista de la IA sostendrá el pulso de los enormes intereses geopolíticos y económicos en juego, sobre todo si los mecanismos de garantías previstos se dejan en manos de la autorregulación de las grandes corporaciones tecnológicas.
Evidentemente estos hilos de reflexión no agotan los debates sobre la IA en educación, ni tampoco lo pretenden. Aspiran a llamar nuestra atención sobre un entorno emergente donde pedagogía, tecnología, ética y política se entrecruzan y se interrogan. Como tal no deberíamos caer en la tentación de recluir el debate sobre la presencia de la IA en las aulas a la esfera de los expertos tecnológicos, ni tan siquiera únicamente al ámbito educativo, pues a todos nos compromete. Al fin y al cabo, lo que se dirime es la cuestión sobre los propios fines de la educación y sobre el modelo de sociedad a la cual deseamos aspirar juntos.
Comments