ACTUALIDAD

INTELIGENCIA ARTIFICIAL EN LA EDUCACIÓN. UNA OPORTUNIDAD DESAFIANTE

Preguntarnos hoy por la educación es interrogarnos por la sociedad que queremos. En un mundo complejo y acelerado como el actual, las incorporaciones tecnológicas suponen una oportunidad y un desafío. Big data y las inteligencias artificiales generativas como Chat GPT están hoy redefiniendo casi todos los ámbitos de la actividad humana y de forma específica el de la educación. La cuestión sobre qué alcance tienen estos modelos en nuestras formas de interacción y nuestra visión del ser humano es clave. La Inteligencia Artificial (IA) en educación es un área importante de reflexión, dado que la educación no sólo forma el pensamiento y la acción de los individuos a lo largo de toda su vida, sino que es uno de los derechos humanos fundamentales. Formar en IA y en su uso adquiere una relevancia creciente.

Se vienen señalando varias cuestiones fundamentales que deberían ser de gran utilidad en el futuro como pistas de trabajo para formar en la IA y en su enseñanza: la sensibilidad a los datos o la capacidad de construir, manipular y visualizar grandes cantidades de datos; la incertidumbre y el carácter aleatorio o la capacidad de vivir en un mundo en el que los modelos dejan de ser deterministas; o las habilidades para que todo el mundo pueda crear con código y resolver problemas mediante algoritmos; el pensamiento crítico adaptado a la sociedad digital y, por último, una serie de preguntas para comprender nuestra propia humanidad ante los cambios inducidos por la IA. En este artículo he elegido tres escenarios que pueden abrir a cuestiones específicas de la naturaleza humana y a discernir qué queremos y en qué dirección queremos ir en educación.

1. La inteligencia algorítmica

Recientemente un grupo de matemáticos hemos realizado una investigación sobre el pensamiento algorítmico en el ámbito de educación matemática con estudiantes universitarios. El objetivo era describir este tipo de pensamiento en su conexión con el pensamiento matemático y no reducirlo en situaciones de aprendizaje a una comprensión meramente computacional. Surge, entonces, una pregunta más interesante: ¿Qué aspectos de la actividad matemática pueden duplicar los ordenadores y, si los hay, cuáles no pueden ser duplicados por las máquinas? El éxito en el aislamiento de algunas de estas características es importante por sus implicaciones para otras cuestiones como: ¿Es algorítmica la inteligencia? ¿Qué es la creatividad y cuál es su relación con el pensamiento deductivo? E incluso ¿cuál es la naturaleza de la mente? Este punto de vista sobre la inteligencia no se limita a la forma de proceder en el contexto de la inteligencia artificial, sino que es común en todo el campo de la ciencia cognitiva, haciéndose operativo en la forma de estudiar la mente, en el aprendizaje humano.

La mente humana y la mente de la máquina son diferentes.  Esta afirmación parece obvia, pero es profunda y tiene implicaciones importantes para la relación entre el mundo de la tecnología y el mundo de los seres humanos. El reto en el espacio educativo es qué se considera inteligencia, aprendizaje y creatividad y sus simulaciones. En el proceso de la investigación previamente citada nos hemos topado con los límites de la inteligencia de las máquinas y con el deseo de preservar así un lugar para lo irreductiblemente humano.

Nuestras expectativas actuales con la IA y el pensamiento algorítmico surgen de elementos como el formalismo y el antiguo “sueño de la razón”. Este es un elemento básico de nuestra herencia cultural desde los griegos y, como sociedad nos resistimos a renunciar a este sueño pensando que todos nuestros problemas pueden ser eliminados por la tecnología informática. El sueño expresado por el formalismo se ha transformado en los sueños actuales de inteligencia artificial. Estos sueños tienen en común la fe en que es posible desterrar la ambigüedad y, por tanto, una cierta forma de complejidad de la vida humana.

2. La confianza en la relación educativa

Acercarnos a la IA en educación no es solo verla como una ciencia de diseño en la que se desarrollan materiales e intervenciones para mejorar los resultados educativos, sino como una forma de filosofía aplicada en la que se identifican y sitúan los retos en contextos humanos más amplios, y se desarrollan teorías fundamentales.

En esta línea parece pertinente formularse preguntas como: ¿Qué queremos automatizar, acelerar y optimizar en la educación? ¿Qué estamos dispuestos a eliminar de las prácticas actuales? ¿Cómo funcionan individual y colectivamente los propósitos que ponemos en marcha en la enseñanza? Con ello llamamos la atención sobre el hecho de que la forma en que diseñamos y desplegamos la IA en la educación y las cuestiones éticas que nos planteamos en este contexto no están separadas de las cuestiones sobre los valores y los principios morales que debemos plantearnos en el propio sistema educativo para saber cómo la IA puede servir a estos sistemas.

Al pensar en los sistemas de evaluación actuales en las aulas universitarias, a los docentes les preocupa especialmente el software de detección de plagio por el alcance de uso instrumental y por dejar de lado argumentos éticos o educativos más amplios. Tomemos, por ejemplo, los motores para el crecimiento de Turnitin® y otros programas antiplagio similares surgidos por el crecimiento de Internet y más recientemente de la ChatGPT. Si bien puede parecer obvio aceptar que Internet ha cambiado las formas en que se pueden manejar el conocimiento y el texto, quizás hemos sido menos conscientes de las formas en que un software online como Turnitin® se ha posicionado para cambiar las relaciones entre los estudiantes, los docentes y las prácticas habituales de evaluación. Este software se presenta, en sus comunicados de publicidad, como el líder para Empower students to do their best, original work. Superpower your assessment. Give instructors tools that streamline manual grading processes, so they can spend more time teaching (Turnitin®, 2022).  Algunos autores como McArthur (2018) han cuestionado el uso que hacen estas empresas del trabajo de los estudiantes y la consideración de la propiedad intelectual, pero para el caso que nos atañe me gustaría poner de relieve cómo afecta a la interacción entre el profesor y el alumno basada en la confianza.

Si consideramos la actuación pedagógica como una realidad social basada en la confianza, con estos usos parece que la desconfianza se instala en una escala industrializada, la falta de confianza se integra en la cultura que rodea a la interacción educativa. No es que creamos ingenuamente que no hay estudiantes que copien o que usen métodos inapropiados para tener ventajas sobre otros, sino que la forma en que la detección y la evitación del plagio se han convertido en una industria instrumentalizada que afecta a la relación entre el profesor, el estudiante y la formación académica. La confianza se ve socavada de dos maneras; primero, parece claro que los profesores no confían en los estudiantes y, segundo, rompe los cimientos de una relación honesta porque crea una falsa apreciación de cuáles son las prácticas de una buena redacción académica.

La evaluación nos ofrece un momento propicio de desarrollo de la confianza de los estudiantes en sí mismos a través de su trabajo evaluado. Elegir una solución fácil y tecnocrática al problema de no desarrollar un trabajo académico bien, ignora la naturaleza y la importancia de las relaciones que construimos con los estudiantes en nuestras interacciones de enseñanza-aprendizaje.

3. La verdad está en los algoritmos

Una aproximación crítica al manejo masivo de datos nos la da la matemática Cathy O’Neil en su libro Weapons of Math Destruction donde describe cómo los algoritmos gobiernan nuestras vidas (y tienden a menospreciar a los más desfavorecidos). Enfatiza que, como vivimos en la era de los algoritmos, cada vez en mayor medida las decisiones que afectan nuestras vidas, a qué escuela ir, si podemos o no obtener un préstamo o cuánto pagamos por nuestro seguro sanitario, no están tomadas por humanos, sino por modelos matemáticos.

Una de las cuestiones más preocupantes son las formas que tienen de evaluar o clasificarnos (algo que no es visible para nosotros). Esos modelos ocultos manejan nuestras vidas desde que empezamos la escuela primaria hasta que nos jubilamos. Los modelos están presentes en infinitos aspectos de nuestra vida personal y profesional: controlan resultados académicos de estudiantes, clasifican curricula vitae, evalúan a trabajadores, determinan votantes, vigilan nuestra salud, etc.

Coincidimos con O’Neil en que estos algoritmos no describen la realidad tal y como es, sino que la modifican, expandiendo o limitando nuestras oportunidades en la vida. Señala la autora: “Estos algoritmos son destructivos y debilitan su finalidad original, como la mejora del sistema educativo, por ejemplo, bajo los sistemas de calidad”.

Aunque hay una llamada continua a la dimensión ética de las personas encargadas del modelaje y construcción de esos algoritmos para asumir mayor responsabilidad sobre cómo se están usando estos modelos matemáticos, las circunstancias actuales ponen de manifiesto que es nuestra responsabilidad hacernos las preguntas adecuadas, estar informados para comprender mejor cómo funcionan los modelos matemáticos que rigen nues-tras vidas.

Parece pertinente considerar de forma crítica qué es un modelo y qué puede convertir a un modelo en un arma de destrucción matemática. Como explica Dani Rodrik en Economics Rules1, una forma sencilla de describir los modelos es diciendo que son como fábulas. Esto es, pequeñas historias habitadas por unos pocos personajes cuyo comportamiento e interacción nos permiten obtener una lección (moraleja) que los científicos sociales suelen emplear porque: nos permiten refinar nuestras intuiciones; nos permiten acumular conocimiento y nos permiten generar conocimiento sobre la base de estándares de conocimiento compartidos. El libro de O’Neil repasa ese lado oscuro del big data en distintos ámbitos: educación, justicia, mercado, publicidad, etc. Los tres rasgos distintivos con los que O’Neil caracteriza las armas de destrucción matemática son: la opacidad (un modelo que funciona como una caja negra); la escala (un modelo puede ser perfectamente inocuo a escala reducida, pero muy dañino cuando aumentamos su dimensión); la tercera y última propiedad es que no sólo provocan daños, sino que éstos tienden a concentrarse desproporcionadamente en los sectores más vulnerables de la población.

REFERENCIAS

McArthur, J. (2018). Assessment for Social Justice. Perspectives and Practices within Higher Education, Bloomsbury Academic, London.

O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, Crown Books, U.S.

1http://books.wwnorton.com/books/economics-rules/

Comments

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Solicitamos su permiso para obtener datos estadísticos de su navegación en esta web, en cumplimiento del Real Decreto-ley 13/2012. Si continúa navegando consideramos que acepta el uso de cookies. Más Información

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close