| Noviembre 11, 2017, 12 21am

Aprender 2017 y el maleficio del eterno comienzo

La manía argentina por ser fundacionales, también aplicada a la educación.

Autor: Flavio Luis Buccino


Hay una frase muy argentina que me rebela: “por algo hay que empezar”. La historia de la Argentina está llena de esos primeros momentos, primeros pasos. Todos intentan adjudicarse ser la “bisagra en la historia”. Las bisagras son mecanismos imprescindibles para abrir puertas. También para cerrarlas y clausurar la Historia. El maleficio del “eterno comienzo”... La Evaluación de la Educación no podía salvarse...
El 7 de noviembre de 2017 no fue un día cualquiera en nuestras escuelas. En el rincón del país donde estuviese ubicada, se realizó una valiosísima actividad común: todas participaron de APRENDER, el “dispositivo nacional de evaluación de los alumnos que ofrecerá información acerca de las condiciones en las que ellos aprenden y sus logros de aprendizajes, implementada por primera vez en 2016 y que en estos días se desarrolló en su segunda versión”, tal como explicaron varios funcionarios y los medios de comunicación.

¿Por segunda vez? ¿Y hasta 2015 que había pasado con este tema?

En la década de los noventa la mayoría de los países latinoamericanos inauguran sus sistemas nacionales de evaluación. Argentina, en 1993. ¡Sí, tenemos operativos nacionales de evaluación de la calidad educativa desde hace casi un cuarto de siglo! 24 años. Allí comienza a gestarse el primer "sistema nacional". En la previa, existían diversas experiencias provinciales. A fines de los 80 las provincias de Mendoza, La Pampa y la Ciudad de Buenos Aires ya habían arrancado con experiencias pioneras en esto de preocuparse por buscar formas efectivas de apreciación del rendimiento de los alumnos, el funcionamiento de las escuelas y otros factores que inciden en el desarrollo de las actividades escolares. Para el común de la sociedad no parece haber habido una continuidad en 24 años. Para algunos la historia arranca en 2015. Para otros en 2003. Pero si trabajamos con la información disponible, los hechos y no escondemos ninguno, encontraremos más continuidades y evolución que rupturas o falsos “fundacionalismos”.

Acá una síntesis apretada de los hechos dividida en tres períodos.
 
1.- Período inicial (1993-2003)

Gobiernos de Menem (1989-1995/1995-1999), De la Rúa (1999-2001) y Duhalde (2001-2003).

Argentina puso en marcha la evaluación de su sistema educativo, a partir de la sanción de la Ley Federal de Educación N° 24.195/1993. Esta ley sentó las bases legales para la creación del sistema de evaluación. Tres artículos prescriben específicamente este surgimiento, los Art. 48, 49 y 50.
Se crea el Sistema Nacional de Evaluación de la Calidad -SINEC-. No había habido hasta ese entonces una experiencia de evaluación con “escala país”. No existían los recursos humanos formados y una acumulación de saber técnico. Diferentes organismos internacionales colaboraron en la formación de cuadros técnicos, para abordar ese desafío, dejando su “marca” en esa capacitación. Con la creación de este sistema se puso en marcha un dispositivo denominado Operativo Nacional de Evaluación -ONE- inspirado en otros países de la región, en particular la experiencia chilena. Una idea que impregnó este período y tomó fuerza en el imaginario social, fue que las pruebas permitían medir y por lo tanto determinar, la calidad educativa que poseía cada escuela evaluada.

Al inicio de la puesta en marcha de este sistema, hubo claros procesos de resistencia por parte de los gremios docentes, tanto a nivel nacional como provincial. Por lo que este tema no parece ser tampoco nada original.

En este período, los resultados llegaban tarde y eran remitidos a las provincias desde el Ministerio de Educación de la Nación. A la vez, desde el ámbito nacional se publicaban rankings de resultados por regiones, provincias y escuelas. Pocas provincias realizaban devolución a las escuelas. Algunas pocas jurisdicciones utilizaron los resultados para desarrollar talleres de reflexión y capacitación con maestros y profesores y trabajar errores. Existieron diversas dificultades para coordinar los equipos provinciales con los equipos técnicos del ministerio nacional. Muchas veces esa falta de coordinación repercutió sobre un buen uso de la información obtenida.

Desde lo técnico, se aplicaron instrumentos únicos, homogéneos, construidos con una única perspectiva que resultaba en muchos casos contraria a la diversidad regional y ajena a niños y jóvenes de todo el país. Los instrumentos diseñados incorporaban muy pocos ítems abiertos. Se advertía una fuerte desarticulación entre las áreas de Currículum y de Evaluación del propio Ministerio de Educación ¿Para qué evaluar si después no servía para modificar políticas?

Desde lo político, la demora en el procesamiento y devolución de resultados, su publicación mediante rankings, promovieron la mirada de que se lesionaba y castigaba, aún sin buscarlo, a los destinatarios. Todo esto colaboraba a perpetuar el equivocado sentido generalizado de que la evaluación sólo servía para sancionar y tenía valor punitivo. La falta de información adecuada destinada a la comunidad, que reducía el proceso desarrollado a una cifra o porcentaje alcanzado, lejos estaba de favorecer la comprensión real del fenómeno en estudio.


2. Período de Fortalecimiento y Reajuste: Desde 2003 al 2015.

Gobiernos de Néstor Kirchner y Cristina Fernández.

Durante este período se revisaron y trataron de remediar varios de los errores cometidos en la etapa inicial. La Ley Nacional de Educación N° 26606/06 propone ajustes en algunos aspectos del sistema macro evaluativo y logra mejorar algunas dificultades y otras no tanto. Seis artículos (del 94 al 99) regulan este campo.

A partir de la sanción de la norma, se ampliaron los aspectos del sistema que son objeto de evaluación; se inhibió la posibilidad de confeccionar rankings de resultados, vinculado a la política de difusión de los resultados. Empiezan a diseñarse instrumentos alternativos de indagación de los aprendizajes para aplicarlos simultáneamente, con el fin de completar los diagnósticos. Pero las evaluaciones asumen una frecuencia menor, aplicándolas cada 2 o 3 años sin una claridad en la política de periodicidad y el cambio de criterios de construcción de la evaluación dando como resultado ambas la ruptura de series históricas y la posibilidad de comparabilidad de los datos.

Desaparecieron casi por completo los conflictos con los gremios que ya no cuestionaron los operativos. Las escuelas, directivos y docentes, asumían que periódicamente sus alumnos serían evaluados, aunque no siempre distinguían si se trataba de evaluaciones nacionales o internacionales, ni tampoco la periodicidad con las que se darían. Lentamente se fue naturalizando. A la vez, algunas escuelas y jurisdicciones generaron estrategias diversas intentando que su alumnado alcanzara mejores resultados, falseando los verdaderos resultados. Entre ellas la creación de modelos de acción denominados “sensibilizaciones o aclimatamientos”, en la práctica preparar a los alumnos para responder positivamente las pruebas...
 
Por otra parte, surge un nuevo inconveniente: las tensiones entre las evaluaciones nacionales y algunas experiencias provinciales, generando por “walk over” y abandono de la autonomía jurisdiccional, destrucción de información, tales los casos de Ciudad de Buenos Aires y Mendoza, lo que abona todavía más a la pérdida de referencia sobre el origen de las evaluaciones en las escuelas. ¿Son nacionales? ¿Son internacionales? ¿Son provinciales?

Siguieron existiendo inconvenientes con la lentitud o demora en los tiempos de procesamientos de respuestas especialmente provocada por la incorporación de algunos ítem de respuesta abierta, redundando en devoluciones tardías (que las convertía en poco pertinentes), además del inadecuado sentido pedagógico construido en torno a los resultados. No se aprovechó el aporte sustantivo que podía realizar el estudio de los factores asociados indagados mediante la administración de cuestionarios paralelos. A esto se le suma el ocultamiento o cambios sustanciales de criterios en la publicación de la información obtenida que refuerzan el “titular trágico” en los medios de comunicación, la noticia focalizada en los bajos porcentajes de logros, sin interpretación del contexto, ni marco de secuencia histórica. Durante este período además comenzó a difundirse la participación de Argentina en pruebas internacionales (particularmente PISA), adoptándose en el país similar modalidad en la comunicación de resultados.

Todo esto sumado al aporte de diversas vertientes críticas fue debilitándose la idea de que estas pruebas representan el único indicador de la calidad educativa


3. Período de Revisión. Desde fines de 2015 y continúa en la actualidad.

Esta fase se inició con la asunción del gobierno de Macri en diciembre de 2015.

Las nuevas autoridades realizan múltiples críticas a los ONE desde el reconocimiento de una devaluación de la política evaluativa, protocolos de pruebas demasiado extensos, inasistencia de alumnos que deben completar la evaluación, muestras reducidas, pérdida de material por controles deficientes, períodos de aplicación demasiado extensos, inadecuado uso de los resultados, etc.

Retomando lo establecido por la Ley de Educación Nacional en la responsabilidad que se le asigna al gobierno para gestar una política de evaluación se celebra el Acuerdo Nº 280 en el seno del Consejo Federal de Educación en el que se establece que el Sistema de Evaluación Nacional de la Calidad y Equidad Educativa se organiza en torno a cuatro áreas prioritarias donde una de ellas serán los nuevos dispositivos de evaluación de aprendizajes “APRENDER” así como otros dispositivos nacionales, regionales e internacionales de evaluación de aprendizajes.

Se promueve un fuerte replanteo de la etapa anterior creando un nuevo organismo que coordina estas evaluaciones a macro escala, una nueva denominación del proceso (Evaluación APRENDER), la decisión de acortar la frecuencia de evaluación volviendo a la idea de una aplicación anual, reducción de la extensión y cantidad de ítems de cada prueba, la promesa de comunicar los resultados de manera más inmediata y asegurar un mejor uso de la información.

Debemos decir que este período por estar en pleno desarrollo tiene más de potencial que de acto. Sin embargo hay algunos datos que podrían servir como base para el análisis, muy parcial e incompleto por cierto. En octubre de 2016 se inauguró la primera evaluación de esta nueva fase donde se originaron dos tensiones claves que marcaron el inicio de este período. La primera, la ejecución del primer Operativo APRENDER reavivó la oposición vivida hace más de dos décadas. Los focos de oposición principalmente gremiales adquirieron diversos formatos y retrotrayeron el debate a concepciones de evaluación vinculadas con el carácter punitivo y sancionador de este fenómeno, que parecían ya superadas. El contexto político le otorga nuevos significados, convirtiendo en un “hecho amenazante”, un acontecimiento que se venía desarrollando en este país desde hace mucho tiempo. Sin embargo, el operativo 2017 no estuvo enmarcado en el mismo contexto adverso.

Algunos errores técnicos y conceptuales de las primeras publicaciones de la información obtenida durante 2016, cierta falta de trabajo en torno a la comprensión del sentido de la evaluación que se pretende generar y la deficiente información y comunicación brindada sobre lineamientos generales de política educativa malogró la posibilidad de construir más apoyos a la propuesta. Para este 2017 no es nada auspicioso algunos cambios en las áreas y años a evaluar que muestra el cuadro a continuación rompiendo la posibilidad de reconstrucción de series históricas comparables destruidas en los últimos doce años.
 
Aún así y por suerte se realizó APRENDER 2017 con muchas menores resistencias que en el 2016 y eso es un buen indicio aunque todavía queden numerosos desafíos pendientes no resueltos. La necesidad de trabajar más integralmente la evaluación educativa desde diferentes ámbitos (nación, regiones, provincias, municipios, instituciones); construir un conjunto de herramientas de evaluación donde el modelo de las pruebas APRENDER sea uno más entre tantos otros a utilizar por los Estados en la recolección de información para la toma de decisiones, la asunción de que estos operativos ofrecen indicadores para debatir acerca de la calidad pero no representan la totalidad de la miradas sobre la calidad de las instituciones escolares; encontrar una coherencia entre políticas de la evaluación y políticas curriculares; abordar de modo más cuidadoso y profundo la explicación y difusión de los resultados; asegurar el buen uso de la información que se produce y centrar la discusión en la identificación y fortalecimiento de los aprendizajes relevantes para los alumnos en cada tramo del sistema

La evaluación de los aprendizajes es información indispensable para el gobierno de un país y de una provincia. Los países ya no debaten "la Evaluación": admiten que es indispensable para sustentar decisiones responsables de política educativa. Por eso volviendo casi al comienzo tenemos que seguir trabajando bajo lógicas de “continuidad y evolución” abandonando la lógica de “ruptura" y "desprecio por el conocimiento acumulado”. En definitiva, “APRENDER” es eso...