Sobre la nueva orden de diagnóstico

Se ha difundido el borrador de la Orden que regula algunos aspectos del proceso de aplicación de las pruebas de diagnóstico.

Ahí se introducen medidas que tienden a subsanar algunas deficiencias detectadas en años anteriores o, para ser más precisos, deficiencias detectadas y señaladas a raíz de la publicación por primera vez de los resultados de tales pruebas.

Hay que recordar que SPES elaboró las listas de los centros de Secundaria, al mismo tiempo que señalaba una serie de fallos que, a nuestro juicio, debían ser subsanados. Nos congratula comprobar que buena parte de nuestras reivindicaciones en ese sentido han sido atendidas. Concretamente:

  • Se establece el carácter externo de buena parte de los participantes en esta prueba, es decir, se tratará de profesores que no impartan clase en los centros donde van a actuar como responsables de la aplicación (artículo 2.1), correctores (art. 2.2) o validadores de las pruebas (art. 2.4).
  • Se refuerzan los controles de calidad estableciendo un mecanismo de doble corrección en una muestra representativa.

SPES manifiesta su satisfacción por estas medidas de indudable mejora en lo que respecta a la realización de la prueba. Esta línea se vería reforzada si, además, se concretase y se redujese al mínimo el tiempo en que hay que “custodiar las pruebas desde el momento de su recepción hasta su utilización” (art. 2.3).

Con la salvedad indicada, entendemos que el proceso de elaboración, realización y corrección de las pruebas ha experimentado una notable mejoría. No ocurre lo mismo con otros aspectos como es el caso de la transmisión de la información recabada con la realización de las pruebas.

En relación con el tratamiento de los resultados (artículo 5):

  • se mantiene explícitamente el enmascaramiento de los resultados reales ya que seguirán siendo “corregidos” con la “previa consideración de los factores socioeconómicos y socioculturales del contexto”.
  • puesto que no introduce cambio en ese sentido, entendemos que se mantiene la referencia de los resultados a un nivel 500 que se obtiene como media de las calificaciones obtenidas en todos los centros y que, por tanto, varía de año a año. Esto induce a confusión: si la media regional mejora, un centro que se mantenga igual recibirá la información de que ha obtenido menor puntuación que el curso anterior. Es fácil pensar en otras combinaciones en las que este modo de expresar los resultados induce a error.

En aras de la transparencia, pensamos que los resultados han de expresarse en la nomenclatura que entendemos todos, esto es, con números entre el 0 y el 10 con los decimales que se establezca. Esto es transparencia y ajustarse a lo que los alumnos saben.

Hechas todas estas precisiones nos gustaría destacar algo más. La primera evaluación de diagnóstico en Murcia data del curso 2006-07. Sin embargo, sólo tras publicar el año pasado los resultados por primera vez, se han empezado a percibir fallos y carencias. Y sólo entonces se han empezado a mejorar y a ser útiles estas pruebas.

La publicación de los listados de centros ordenados por la puntuación de las pruebas de diagnóstico elaboradas por SPES generó toda una catarata de reacciones. SPES perseguía un objetivo doble con aquella publicación: solicitar un proceso de revisión de las pruebas de diagnóstico y llamar la atención sobre la situación de abandono en que se halla, a nuestro juicio, la enseñanza secundaria. Y eso a pesar de las quejas de los profesores. Pues hay que decir que, desde el primer momento, los profesores redactaron y elaboraron escritos de protesta e incluso un documento en el que se daba cuenta, con más o menos acierto, de una cantidad nada despreciable de graves errores de diseño en la prueba. Dicho documento corrió como la pólvora entre los claustros de los institutos de la Región y se elevó una queja formal desde los mismos, canalizada a través de la Asociación de directores. Sin embargo, según nuestro conocimiento, celebradas las pruebas y publicados los resultados por la Consejería, ningún sindicato prestó mayor atención al asunto ni elevó queja formal alguna hasta que SPES, que nació en octubre, publicó sus listados. Antes, había siete sindicatos pero, al respecto, no hemos sido capaces de encontrar más denuncias que la aparecida en un artículo firmado por don Francisco Tomás Celdrán, profesor de Matemáticas, publicado en la revista del sindicato CCOO, número de junio-julio de 2014.

SPES, plenamente consciente del peso que dichas pruebas puede hacer caer sobre los profesionales de la enseñanza secundaria, estaba empero decidido a abrir el debate sobre la posibilidad de revisión de las mismas pues, como mencionábamos en nuestra nota, muchos aspectos nos parecía que eran manifiestamente mejorables. Y también entendíamos que no era posible hacer ninguna denuncia sin presentar los datos. Como era de esperar, los medios de comunicación regionales se hicieron eco muy rápidamente de los listados, respondiendo a un deber de información de indudable interés para la ciudadanía, siendo publicados en sus diarios de papel y por internet, comentados en debates radiofónicos, citados en artículos periodísticos… SPES recibió por ello una nada despreciable cantidad de críticas, cuando no calumnias e injurias, pero ni una sola queja formal a excepción, todo hay que decirlo, de la de un director: se quejaba de que su centro no apareciera en la lista. Ni una sola más. Ni de institución, ni de particular.

Sin embargo, lo más llamativo es que otros, además de rasgarse las vestiduras aprovechando que el Pisuerga pasaba por Valladolid, cayeron en la cuenta de que había que revisar un proceso de evaluación de diagnóstico que, entonces sí, les parecía enormemente deficiente. El  SIDI, por ejemplo, responsabilizaba al consejero de Educación, Cultura y Universidades, «“por permitir una publicación de evaluaciones externas en la que solo se muestran los resultados, en la que no se explica el tipo de prueba y que dicha prueba no puede ser considerada externa cuando en la mayoría de casos son los docentes de los centros los que aplican a sus propios alumnos las pruebas (tanto en centros públicos como concertados/privados). Por tanto, no puede ordenarse ningún ranking basado en unos datos que no son todo lo objetivos como el actual titular de la Consejería de Educación (¿pública?) quiere vender”.» Por su parte, Mª Carmen Moreno, portavoz de Educación del PSOE en la Asamblea regional, criticaba que la Consejería hubiera dado pie a la elaboración de un ranking de centros “basado en una prueba de diagnóstico sin rigor académico y una evaluación de la misma que no ha tenido garantías de objetividad e imparcialidad”, unos resultados que, a su juicio, son “de más que dudosa validez”. Además, Moreno anunciaba que iba «a presentar iniciativas en la Asamblea Regional solicitando que se revise y corrija “el procedimiento fraudulento” que existe en la actualidad para la realización y corrección de las pruebas diagnósticas, al considerar que no ofrecen ninguna garantía.»

Pero, hoy, en SPES, nos congratulamos de que cuando la Consejería de Educación ha filtrado el borrador de Orden donde se especifican las correcciones para evitar fraudes, imperfecciones y darle lustre y fiabilidad al proceso de diagnóstico, algunos sindicatos, a pesar de su insuficiente contribución, tengan ahora la oportunidad de criticarla.

Anuncios