¿CUANTAS RESPUESTAS CORRECTAS TUVIERON NUESTROS ALUMNOS/AS EN LA PSU?

En medio de la vorágine de datos que se entregan por lo prensa respecto de los resultados obtenidos en la PSU por nuestros alumnos/as, resulta muy importante tener algunas referencias que nos permitan situar estos datos en perspectiva. 

Partamos de una afirmación básica: la PSU no es predictiva de nada y menos un indicador determinante para calificar la calidad de educación que imparte un establecimiento. Sin embargo, sus resultados nos aportan datos que permiten confirmar la garvedad de la segregación vigente en nuestro sistema educativo. Veamos algunos ejemplos:

  • Puntaje promedio en establecimientos Particular Pagado: 610 puntos;
  • Porcentaje de la población escolar (que rinde prueba), atendidad por estos: 7%;
  • Gasto promedio en la educación de alumnos/as que asisten a estos establecimientos: M$ 200;
  • Puntaje promedio en establecimientos Particular Subvncionado: 489 puntos;
  • Porcentaje de la población escolar (que rinde prueba), atendidad por estos: 56%;
  • Gasto promedio en la educación de alumnos/as que asisten a estos establecimientos: M$ 62;
  • Puntaje promedio en establecimientos Municipales: 452 puntos;
  • Porcentaje de la población escolar (que rinde prueba), atendidad por estos: 37%;
  • Gasto promedio en la educación de alumnos/as que asisten a estos establecimientos: M$ 45;

O, de los 50 colegios con mejores puntaje PSU, 9 son de Las Condes, 8 de Lo Barnechea, 6 de Vitacura, 5 de Providencia y 2 La Reina - y son todos particualres pagados; y de los 100 colegios con mejores puntajes 45 están localizados en las comunas del barrio alto de Santiago, 96 son particulares pagados, 2 particualres subvencionados y 2 municipales. 

En general, lo que logran los resultados de la PSU recién entregados es ratificar las desigualdades por NSE de los alumnos/as que están vigentes.

Entonces ¿que datos relevantes nos pueden aportar los resultados de la PSU?. ¿Cuales son los instrumentos estadísticos cuyo uso es más apropiado? ¿Cómo plantear una lectura de la información que nos ayude a mejorar nuestras prácticas en el sistema de educación municipal?

¿Que porcentaje de respuestas correctas tuvieron los/las alumnos/as que sacaron 500 puntos en las diferentes PSU? La prensa enfatiza que este año disminuyó la cantidad de puntajes máximos nacionales. ¿Qué explica esa fluctuación?- Para entenderlo es necesario El DEMRE - organizamo especializado en este proceso - en su página web explica la forma en que se transforman notas y puntajes. La forma en que se tratan los puntajes fue definida el año 2004, en un acuerdo alcanzado por el Consejo de Rectrores, en el cual se concordó normalizar, es decir transformar la distribución original a una distribución Normal. Este proceso es explicado en la siguiente presentación (puntaje_z.pdf.) Es un proceso estadístico bien complejo y que, tal como se aprecia en la lámina N° 13, considera una media de 500 puntos y una Desviación Estandar de 110.

Para tener una idea precisa de cuantas preguntas correctas marcan la diferencia entre quines obtuvieron 850 en lenguaje y quien sacó 835 (son dos respuestas correctas de diferencia), pueden encontrar las tablas aplicables a esta medición en la página web de Sala de Historia.

|

Comentarios

When it comes to educating kids, I'll take raseerch and data over pedagogy any day of the week. The bottom line is simple. Investigations does not align well with Washington's math standards. It does not teach efficient procedures that have been used by mathematicians for over a thousand years. Moreover student achievement has declined as a result of its deficiencies, and the achievement gap has widened. You claim that Investigations falls neither at the top nor the bottom of the IES study on curriculum effects. The only way you can believe that is if you haven't read the study. After all the main finding was, Student math achievement was significantly higher in schools assigned to Math Expressions and Saxon, than in schools assigned to Investigations and SFAW. It really doesn't get any more clear than that.But if that isn't compelling enough then just look at the book Visible Learning by John Hattie. He analyzed over 50,000 studies on achievement and compiled them in one place. What did he find? That inquiry based programs like Investigations are less effective than those that include teacher directed instruction. That's exactly why the Fulton County SD in Georgia recently dumped TERC, it's not because they didn't understand how it works. Rather it's because it didn't work, and student performance was suffering.
Responder

Escribe un comentario

¿Quieres usar tu foto? - Inicia tu sesión o Regístrate gratis »
Comentarios de este artículo en RSS

Comentarios recientes

Cerrar