España?: ¿Tendrá su propio SIMCE y semáforo?
Febrero 8, 2012

La sombra del ‘ranking’ cae sobre la escuela
Habrá pruebas externas para ayudar a los padres a elegir centro
El ejemplo de otros países dice que pueden aumentar las brechas
PILAR ÁLVAREZ / J. A. AUNIÓN, El Pais, Madrid 7 FEB 2012 – 00:40 CET57
http://sociedad.elpais.com/sociedad/2012/02/06/vidayartes/1328552848_703017.html
Evaluación externa en la Comunidad de Madrid a los alumnos de primaria en 2008. / PAULA VILLAR
La competición como base para mejorar los resultados de las escuelas. Esta es la dirección a la que apuntan algunas propuestas que ha empezado a desgranar el nuevo ministro de Educación, José Ignacio Wert. Se celebrarán “pruebas externas” a todos los alumnos de todos los centros. Sus resultados servirán para fijar las políticas públicas, para premiar a los que tengan mejores resultados, tanto centros como estudiantes, y también para orientar las decisiones de los padres, para que puedan elegir centro según los resultados de cada escuela.
Un portavoz del ministerio asegura que, de momento, se están estudiando los detalles, así que no puede decir si se publicarán los resultados centro a centro, lo que acaba inevitablemente componiendo clasificaciones de escuelas. Desde luego, el documento que presentó en 2010 el PP para el fracasado pacto educativo hablaba claramente de exámenes a todos los alumnos al final de primaria y secundaria, cuyos “resultados de cada centro, en su conjunto, serán públicos”.
Este planteamiento se lleva discutiendo más de dos décadas en todo el mundo y en los distintos países que se ha implementado, como Chile o Inglaterra, cuenta con firmes defensores que aseguran que la elección de centro por parte de los padres, acompañada de información sobre los resultados de las escuelas, y de incentivos según esos resultados, son los ingredientes infalibles para mejorar la educación. Sin embargo, estas ideas también cuentan con infatigables detractores que aseguran que lejos de mejorar los resultados educativos como prometen, tienen efectos perversos que ahondan las brechas educativas entre los sectores acomodados y los desfavorecidos.
La Comunidad de Madrid puso en marcha en 2005 un sistema similar, que ha sido muy criticado
En España ya ha habido una prueba de este sistema. En la Comunidad de Madrid, el Gobierno dirigido por Esperanza Aguirre instauró en 2005 un examen externo de evaluación para los centros educativos públicos, privados y concertados que ha evolucionado rodeado de polémica. Es la prueba de conocimientos y destrezas indispensables (CDI). Comenzó por los alumnos de 6º de primaria, se amplió a los estudiantes de 3º de Educación Secundaria Obligatoria y, desde el curso pasado, también a los escolares de 2º de primaria.
La evaluación, en la que no puntúan los alumnos de educación compensatoria, incluye pruebas de lengua castellana, matemáticas y cultura general. La Consejería de Educación de Madrid, que dirige Lucía Figar, flirteó con la idea de incluir los resultados en la nota final de cada alumno en “el centro que libremente quisiera”, pero finalmente se ha mantenido como una prueba externa sin valor en el expediente académico que las familias consultan, como un dato más, a la hora de elegir el centro.
Paloma, una madrileña con dos hijas de cinco y siete años, consultó la lista para ver “qué colegios estaban los primeros y cuáles los últimos”. “No me fío del todo de la prueba, porque no sé cómo se hace, pero nunca llevaría a las niñas a uno de los que aparezcan al final”, admite. Se decidió por un colegio privado “que estaba entre los 100 primeros”. Carmen del Arco, con dos hijos de 4 y 13 años, eligió el centro para el mayor antes de que existieran las pruebas. Es un concertado del distrito de Carabanchel, al sur de Madrid. Revisa periódicamente esas notas. “Si el colegio sacara muy mal resultado, me plantearía llevar a los chicos a otro sitio”.
“Si el colegio sacara muy mala nota, me plantearía llevarles a otro”, asegura una madre

Tras los primeros exámenes de 2005 (que suspendió uno de cada tres alumnos y uno de cada cinco centros) la consejería facilitó la lista completa de las notas medias de los 1.153 colegios. Oposición y sindicatos denunciaron un “uso político” de los resultados, que fueron mejores en los centros concertados y privados que para la educación pública.
Sindicatos y federación de padres amenazaron con boicotear la prueba, que ha perdurado con amplia contestación desde entonces. El Defensor del Pueblo llegó a reclamar, tras una denuncia de IU, que no se hicieran públicos sus resultados y pidió a la consejería que adoptara “cuantas medidas” fueran necesarias en la custodia y difusión de los resultados para evitar que se establecieran listas o comparaciones. Profesores del Movimiento de Renovación Pedagógica llamaron también al boicoteo. El examen es “técnicamente impresentable”, dijeron, porque no incluye valoraciones del contexto, ni tiene en cuenta los recursos de los centros ni la composición del alumnado.
El colegio con la mejor nota de 2011 es un centro público de la capital, el colegio Méjico. Es un centro de integración para alumnos con problemas motores y tiene un 25% de estudiantes extranjeros. Sus calificaciones en la prueba CDI han aumentado con las sucesivas evaluaciones. En 2008, se quedó por debajo del aprobado con un 4,04; en 2009, obtuvo un notable (7,21) que raspó en 2010 (6,75). Y, en el último curso, sus alumnos sacaron de media un flamante 9,89 que le llevó al primer lugar. La directora, Almudena Armijo, explica que la evolución se debe fundamentalmente “al importante esfuerzo y trabajo” de alumnos y docentes.
“No se deben fiar solo de la fama porque cambia”, señala una directora
Los profesores del colegio Méjico se apuntaron a cursos de matemáticas que ofertaba el Ministerio de Educación tras los primeros resultados “para aprender con materiales nuevos”, hicieron una inversión en libros y practican con preguntas de exámenes anteriores durante las semanas de la ciencia y las matemáticas. Todo, asegura, sin ayuda de la Administración. “Quedar en el número uno no significa que otros colegios no trabajen, pero chapó por los centros públicos, que han salido muy bien este año”. Entre los 100 primeros hubo 43 públicos, 33 concertados y 24 privados. Armijo admite que también hay una cuestión de suerte. “El puesto en el que quedes depende de la promoción de alumnos de cada curso, hay mucho trabajo detrás aunque acabes el 500º de la lista”.
La directora del Méjico ha visto en los últimos meses cómo se acercan más padres a su centro para interesarse por las plazas disponibles. “Está bien que consulten la nota como un dato más, pero no se deben fiar solo de la fama, porque cambia”. Armijo recomienda a los padres que se informen preguntando a otras familias, acudiendo a las jornadas de puertas abiertas del colegio y les pide que consideren como un punto positivo más a la hora de elegir que en su centro los chicos conviven con compañeros en sillas de ruedas desde los tres años. “Estos alumnos enseñan al resto valores de superación”.
Otra duda que ha surgido en la trayectoria de la prueba madrileña es el riesgo de que las escuelas intenten maquillar datos dejando en casa a los alumnos con peores resultados académicos. La Comunidad de Madrid encargó en 2010 un estudio sobre la prueba CDI al catedrático de Economía Antonio Cabrales, autor del informe Los determinantes del éxito en la educación primaria en España. El autor alertó de que uno de los peligros que le comunicaron los profesores sobre la fiabilidad de este examen es que hay colegios “que animan a sus peores estudiantes a no presentarse”. Educación anunció entonces que informaría del número de alumnos absentistas al facilitar los resultados. Las listas de los resultados desde 2008 de las pruebas de 6º de Primaria se pueden consultar en la web oficial de la Comunidad de Madrid desde finales de 2011, pero ese dato aún no figura entre la información a disposición del público.
Sus defensores dicen que la competencia tira de todo el sistema hacia arriba
En todo caso, la pregunta es si los resultados de Madrid son mejores. Aunque aún es quizá pronto para hablar del impacto de estas pruebas, lo cierto es que Madrid fue la comunidad que mejor resultado obtuvo en lectura en la prueba Pisa 2009 (el informe de la OCDE que mide el aprendizaje en medio centenar de países), pero también resultó la tercera (por delante de La Rioja y Asturias), donde más influye el contexto socioeconómico y cultural del alumno en sus resultados.
En el verano de 2010, el Programa de Promoción de la Reforma Educativa en América Latina y el Caribe (PREAL) hizo un repaso al debate sobre la publicación de las evaluaciones externas. Habla de sus orígenes, hace más de dos décadas, y lo enlaza con la corriente de pensamiento neoliberal estadounidense conocida como Escuela de Chicago, aunque recuerda también que el instituto de evaluación educativa de Estados Unidos (NAEP, en sus siglas en inglés) tiene prohibido por ley publicar los resultados por escuelas de las pruebas externas.
También se repasan los argumentos a favor de esas ideas. El “derecho de las familias” a llevar “a sus hijos a las escuelas con mejores resultados”, lo que empujaría al resto de escuelas a mejorar; el derecho de las familias a tener información sobre la educación que están recibiendo sus hijos, lo que les permitiría exigir mejoras a los centros; y la promoción de la participación y el control ciudadano en el ámbito del sistema educativo.
Tras casi dos décadas con el modelo, Chile apenas ha mejorado

Pero la experiencia en países como Chile, continúa el texto, habla de pocos resultados positivos pero algunos muy negativos. “Los estudios realizados en Chile muestran que, aun cuando las familias de mejor posición económica tienen mayor conocimiento de los resultados, casi no los toman en cuenta a la hora de elegir escuela para sus hijos”, y, además, “luego de casi dos décadas implementando esta estrategia, los resultados han mejorado poco”. Y, por el contrario, el sistema “puede generar desmotivación en los centros educativos que aparecen sistemáticamente en posiciones inferiores (sobre todo si dicha situación se deriva de un inadecuado tratamiento de la información, como ocurre en el caso de los semáforos chilenos)”, añade el texto del PREAL.
El sistema de semáforos, ahora en revisión por la fuerte polémica suscitada, consistía en etiquetar públicamente a los colegios e institutos como verdes, amarillos o rojos, según sus resultados estuvieran por encima, al nivel o por debajo de la nota media en las pruebas SIMCE, las evaluaciones externas nacionales que se hacen y publican en el país andino desde mediados de los años noventa. Un modelo que ha empujado a la “privatización” del sistema, según un trabajo de 2005 del Observatorio Chileno de Políticas Educativas. Aunque finalmente no se usa mucho el SIMCE para elegir escuela, sí ha “ido imponiendo un sentido común que nos impulsa a querer que nuestros niños estudien en establecimientos particulares subvencionados [concertados], donde podrán conocer a otros niños de un estatus socioeconómico un poco mayor que en uno municipalizado [público]”.
En muchas ocasiones, las Administraciones hacen públicos los resultados y son los medios de comunicación los que confeccionan, a partir de ellos, las clasificaciones de escuelas, generales, por zonas, de los 100 primeros colegios… Esos rankings han sido muy criticados “por no controlar resultados por origen socioeconómico de los alumnos, de tal modo que el 90% de los colegios entre los 100 mejores son privados pagados, mientras el (pobre) resto son privados subvencionados y unos pocos municipales”, explicaba hace un año para el caso chileno el exministro de Educación del país José Joaquín Brunner.
Los centros se acaban centrando únicamente en los mejores alumnos, dice un especialista sobre el caso inglés
Sin embargo, esas evaluaciones, continuaba, sí contienen otras tablas que tienen en cuenta la dependencia del colegio (público, privado o concertado) o el origen socioeconómico de la población estudiantil. La gran crítica a los semáforos fue que, teniendo toda esa información, la Administración optara “por mostrar valores brutos sin intentar alguna otra (cualquiera) forma de mostrar valor agregado por escuela”.
El documento del PP para el pacto educativo de 2010 especificaba que “se evaluará el valor que añade cada centro, es decir, el avance o progreso real que promueve en sus alumnos, tomando en consideración su nivel socioeconómico y sociocultural”. Pero incluso en países como Inglaterra, donde se han sofisticado los resultados con ranking de ese “valor añadido”, los problemas siguen presentes. “Los políticos lanzan estas ideas que, en principio, suenan muy bien, pero sus consecuencias en el sistema inglés han sido contradictorias: las escuelas se ven forzadas a concentrar todos sus esfuerzos en los contenidos de las evaluaciones; en los grupos de alumnos concretos que harán que sus estadísticas mejoren, sacrificando, bajo mi punto de vista, un trato equitativo a los alumnos”, asegura el especialista Warwick Mansell, autor del libro Education by numbers, una crítica a la educación volcada en resultados estadísticos. “No culpo a las escuelas por comportarse así, pese crea un sistema basado en la desconfianza que empuja a los centros a pensar en cómo serán vistos desde fuera en vez de pensar en lo que ocurre en el interior de sus clases”, sigue Mansell.
En el eterno camino de ida y vuelta que parece ser la política educativa, en España ahora toca la competencia. ¿Será para mejor o para peor? Depende de cuál sea el objetivo y, sobre todo, de cómo se mida.

0 Comments

Submit a Comment

Su dirección de correo no se hará público. Los campos requeridos están marcados *

PUBLICACIONES

Libros

Capítulos de libros

Artículos académicos

Columnas de opinión

Comentarios críticos

Entrevistas

Presentaciones y cursos

Actividades

Documentos de interés

Google académico

DESTACADOS DE PORTADA

Artículos relacionados

Share This