Skip to main content

Mi primera reacción, cuando usé Chat GPT por primera vez, fue pensar en todos los trabajos, tareas y asignaciones del colegio que podría haber hecho muy rápido y sin faltas de ortografía.

Para un estudiante bueno en matemáticas y malo en lenguaje, escribir podía ser una tortura. Recuerdo mis clases de caligrafía y ortografía y todavía me siento un poco nervioso.

Por eso pensé rápidamente en todos los “malos ratos” que me podría haber ahorrado teniendo herramientas como las que existen hoy en día. Se siente como si otra persona escribiera las cosas por ti; con ortografía y redacción perfectas. Tú solo debes darle las instrucciones correctas.

Pero luego pensé en todos los profesores que ahora recibirían decenas de trabajos escritos por una máquina, y lo difícil que podría ser evaluar si el alumno escribió alguna palabra, o por lo menos investigó antes de pedirle al Chat GPT que le escribiera una composición sobre un tema particular. 

¿Cómo podemos evaluar los profesores a los alumnos si es imposible saber quién escribió lo que estamos leyendo?

Es una de las grandes preguntas que nos hacemos todos los profesores hoy en día.

Obviamente, como todo esto es bastante nuevo, nadie tiene la respuesta correcta. Pero no es la primera vez que nos vemos enfrentados con estos problemas. 

Hace varios miles de años, el filósofo Sócrates contaba la historia de un rey al que no le gustaba la escritura porque aseguraba que convertiría a las personas en olvidadizas. En una época donde todo se enseñaba de manera oral y en voz alta, escribir las cosas haría que los estudiantes dejaran de ejercitar su memoria.

Por supuesto, la escritura no comprometió la memoria, las calculadoras no destruyeron las matemáticas y las computadoras no han vuelto obsoletos los libros. La pregunta que enfrentan las escuelas ahora, si la historia sirve de guía, no es si la IA es buena o mala, sino bajo qué condiciones apoya —o dificulta— el aprendizaje.

¿Y qué nos dice la ciencia al respecto?

En los últimos tres años, muchísimos estudios han intentado responder la pregunta de cómo afecta la inteligencia artificial la mente de los alumnos. 

Un estudio del 2024 realizó un experimento bastante directo: le pidió a un grupo de niños que resolviera una serie de problemas matemáticos. La mitad lo haría usando Chat GPT y la otra no. Los que usaron GPT sacaron casi 50% mejor puntaje. Pero la victoria duró poco: cuando tuvieron que hacerlo en las mismas condiciones que el resto del curso, incluso les fue peor.

Algo similar sucedió con un estudio del 2024 liderado por el MIT, que le pidió a un grupo de alumnos que escribieran un ensayo. Los que usaron inteligencia artificial apenas podían recordar una frase de lo que supuestamente habían escrito.

El mayor peligro, tal vez es lo que los investigadores denominaron recientemente “pereza metacognitiva”: la “evitación habitual del esfuerzo cognitivo deliberado” al delegar no solo la tarea en sí, sino también el seguimiento y la regulación del progreso académico.

En otras palabras, lo que debería preocuparnos no es tanto el resultado final, sino el proceso.

Pero no todo es negativo: un grupo de profesores de Harvard creó un tutor de inteligencia artificial especialmente diseñado para las clases. La herramienta adoptaba las mejores prácticas pedagógicas para promover el aprendizaje: ofrecía pistas en lugar de respuestas, dividía los problemas difíciles en partes más manejables y continuaba con preguntas inquisitivas. El grupo tutorizado por IA duplicó con creces sus avances en el aprendizaje en comparación con los estudiantes que participaron en clases presenciales.

Si Sócrates estuviera vivo en estos momentos seguramente sería muy escéptico de la Inteligencia Artificial, especialmente si la usan los alumnos. Pero ya vimos que Sócrates no tuvo razón: la escritura proliferó y es parte esencial de nuestras vidas. Tal vez ese último estudio de Harvard sea la clave para pensar cómo incorporarla en los colegios. 

¿O tal vez sea momento de volver a las evaluaciones orales y resolver ejercicios en la pizarra?