spot_img

IA, aprendizaje y crianza: el problema de saber sin aprender

“Mamá: ¿sabés el nombre de algunas estrellas? ¿Qué pensaban los egipcios sobre la muerte? ¿Y qué es la corriente del Niño? ¿Mamá, qué es el comunismo?”.

Las preguntas me las hacen mis hijos que tienen 7 y 9 años y son espectacularmente curiosos. Muchas veces les digo que no sé pero que lo podemos investigar; otras, que le pregunten al padre; en el peor de los casos, que ahora no es momento. Pero hace un tiempo empecé a hacer algo distinto: busco las respuestas en Chat GPT y se las contesto rápido, adaptadas a su edad. Ellos me ven hacer esto.

Cuando llegan las respuestas, en general, sirven para disparar nuevas conversaciones. Hace poco, mi hijo más grande charlaba con su papá y con Perplexity. Le preguntaban quién fue el mejor piloto de Fórmula 1 de la historia y la IA les respondió que no se puede evaluar igual a pilotos de distintas épocas por los cambios tecnológicos. Tuvieron que repensar la pregunta. Y así estuvieron un rato en un ida y vuelta.

Cuento estas escenas porque la aparición de la inteligencia artificial en nuestra vida familiar es un hecho. Aunque los chicos no tengan celular ni acceso directo a estos chats, y aunque a veces intenten saltearnos como mediadores, la IA ya forma parte de la escena cotidiana.

Esto abre, para mí, muchas preguntas. La primera es si está bien que la usemos con ellos y qué implica todo esto en la forma de estar juntos y en la forma en que ellos aprenden.

Sobre esto, hace ya casi un año, escuché una conversación entre Ezra Klein y Rebecca Winthrop en el podcast The Ezra Klein Show. El episodio se llama “Educating Kids in the Age of A.I.”.

“Si hoy en las escuelas se toman evaluaciones que están siendo respondidas por inteligencia artificial igual de bien o mejor que los chicos, entonces hay que pensar en un nuevo plan”, dice Winthrop. No lo plantea como una amenaza futura: ya está pasando hace mucho. Desde leer y resumir un libro hasta escribir un ensayo, hay tareas que los estudiantes delegan por completo en la IA generativa.

Eso nos obliga a preguntarnos qué queremos que aprendan nuestros hijos y cómo sabemos si efectivamente están aprendiendo. Y también qué les va a exigir la sociedad cuando terminen la escuela. ¿Van a estar en condiciones de proveerlo?

“Que aprendan a hacer cosas difíciles”

Winthrop habla de la importancia de aprender a hacer cosas difíciles. Le preocupa que la inteligencia artificial genere un mundo sin fricción para los jóvenes. “Para mí es fantástico -yo disfruto mucho de la IA generativa-, pero yo ya tengo varias décadas de desarrollo cerebral en las que aprendí a hacer cosas difíciles”, dice. “En cambio los chicos están formando sus cerebros, están siendo configurados, desde el punto de vista neurobiológico, en cómo prestar atención, cómo concentrarse, cómo intentar, cómo conectar ideas, cómo relacionarse con otras personas. Y nada de eso es fácil”

En esta misma línea, en el libro Automatizados, Eduardo Levy Yeyati y Darío Judzik plantean que, a medida que la tecnología avanza sobre cada vez más tareas, el valor deja de estar solo en lo que sabemos y pasa a estar en cómo usamos ese conocimiento: la creatividad, el pensamiento crítico, la motivación, la empatía, la capacidad de trabajar con otros.

Vuelvo a la escena. “Mamá, ¿sabés…?” Y yo, muchas veces, sí puedo saber. O puedo averiguarlo en segundos. Pero empiezo a sentir cierta incomodidad conmigo misma. ¿Qué es esto de buscar la respuesta inmediata en el celular?

Tal vez el problema no es que la inteligencia artificial responda, sino que elimina ese momento de no saber. ¿Y si es justamente en ese momento incómodo donde empieza el aprendizaje? ¿Qué espacio dejo para que ellos mismos busquen, prueben, se equivoquen, o no entiendan del todo? ¿Para que piensen, incluso, a quién le pueden preguntar?

Es como si les estuviera afirmando que ahora se puede saber todo, rápido, sin esfuerzo. Y sin embargo, algo de ese proceso: el tiempo, la dificultad, la búsqueda, es justamente lo que construye el aprendizaje.

Winthrop advierte otro riesgo: usar inteligencia artificial simplemente porque está disponible. Habla de una especie de FOMO -miedo a quedarse afuera- entre educadores, padres y chicos.

Cuenta un ejemplo: un grupo que trabajaba en bienestar estudiantil pensó en crear una app con IA para que las familias conversaran con sus hijos sobre cómo se sienten. La escena imaginada era la de una familia en la mesa, cada uno con su teléfono, mediando la conversación a través de una aplicación.

“Es una locura”, dice. Como si hubiéramos perdido la capacidad de hablar directamente con nuestros hijos.

Su recomendación es: si no hay un problema real que resolver, mejor no usarla.

Pero además, hay algo de lo que dice que me resultó especialmente valioso para pensar cómo acompañar a los hijos en su recorrido escolar, como una especie de guía.

Winthrop habla del compromiso -el engagement dice ella- como un indicador central del aprendizaje. Tiene que ver con observar lo que hacen: ¿participan? ¿hacen la tarea? Tiene que ver con cómo se sienten: ¿la escuela les resulta interesante? ¿los entusiasma? ¿sienten que pertenecen? Tiene que ver con cómo piensan: ¿toman lo que aprenden en una clase y lo aplican a la vida o a otras materias? Todas estas dimensiones trabajan juntas. Y son, en definitiva, las que mejor predicen no solo el rendimiento académico, sino también la salud mental y la calidad del aprendizaje.

spot_img
spot_img

Veinte Manzanas

spot_img

Al Toque

Alejandro Garvie

IA: Más que una destrucción creativa

Rodolfo Terragno

La muerte del derecho internacional

Agustín Campero

Adrián Ramos, economista radical