Número ISSN |
 2706-5421

Picardo-Nuevo-1-min

Evaluar: arte y ciencia

Diseñar procesos de evaluación en educación es un arte que requiere imaginación y creatividad, pero sobre todo cientificidad; medir (measurement), valuar (assessment) y evaluar (evaluation) son tres caminos distintos que pueden conducir a los objetivos de la educación o a ningún lado…  

Tanto Terry D. Tenbrink como María A. Casanova coinciden que evaluar es: “obtener información rigurosa y sistemática para contar con datos válidos y confiables a cerca de una situación  con el objeto de formar y emitir un juicio de valor con respecto a ella; y estas valoraciones permitirán tomar las decisiones consecuentes en orden de corregir o mejorar la situación evaluada”; dicho de otro modo, evaluar no es sólo para etiquetar con una “nota”, mucho menos para exponer o humillar a alguien. 

No es lo mismo evaluar adultos que a niños, competencias, objetivos o capacidades; herramientas hay de sobra tanto cuantitativas como cualitativas, desde pruebas estandarizadas (referidas a Norma o a Criterio), pasando por Stallings o snapshot y una amplia gama de herramientas psicométricas clásicas que nos permiten obtener datos de las diversas inteligencias. Generalmente “medimos” más y “valuamos” menos, aunque el docente no lo tenga muy claro; de vez en cuando un buen psicólogo debería acercarse a las escuelas para aportar algunos criterios de psicometría básica y analizar la calidad y cantidad de preguntas o test que utilizan los docentes.  

La evaluación siempre tiene sus riesgos, problemas y vicios: Sólo se evalúa al alumno; la evaluación se centra en los resultados; se evalúan los efectos observables; se evalúa para controlar; no se contextualiza la evaluación; se evalúa para preservar; no se propicia la autoevaluación honesta.  

Para saber más sobre evaluación recomendaría a quienes tienen responsabilidad de gerenciar procesos de este tipo que lean el libro de Agustín Fernández: “Evaluando la evaluación educativa”; disponible en librerías nacionales y el repositorio institucional de la Universidad Francisco Gavidia.  

En 1999 me tocó coordinar la primera Evaluación de Competencias Académicas y Pedagógicas (ECAP) para nuevos docentes; aprendí mucho de Edmundo Salas e Hilda Álvarez; fue un proceso muy complejo y técnico que implicó un poco más de seis meses para coordinar el diseño de reactivos o ítems con docentes, elaborar tablas de especificaciones con criterios taxonómicos y cobertura curricular, calibrar los índices de dificultad y de discriminación con el software Iteman, con apoyo del Ing. Rafael Ibarra en la UCA, validar las formas y diseñar la logística y seguridad. De este proceso y de sus resultados aprendimos algo muy importante, que creo no se ha resuelto: No hay fuentes bibliográficas al alcance de todos… 

¿A qué nos referimos? Por ejemplo, los programas de estudio de didáctica o pedagogía señalan contenidos, la pregunta es: ¿Con qué libros estudiaron los futuros profesores?; aquí nos encontramos con un problema grave, no había una línea editorial para formar docentes y, más de veinte años después, hoy, tampoco existe; entonces ¿con qué fuentes se evalúa? Los programas de estudio son referentes de contenido, pero no son fuentes para ítems… 

En aquella época encontramos centros de universitarios que enseñaban con la Didáctica General de K. Tomaschewsky (1966), otros con fotocopias del libro Didáctica y currículum de Díaz Barriga, Á. (1997), entre otros materiales que bajaban de internet; entonces, diseñar los reactivos fue una tarea compleja ya que se habían formado con diversos libros, fuentes y autores, y los ítems deben ser adecuados en función de lo estudiado o aprendido; de lo contrario, como suele suceder, se diseña una prueba ideal con temas que no se han visto en clase y la mayoría no pasa el test. 

Vale la pena destacar que mucha gente se juega la vida y su futuro en un test; además, el día de la prueba pueden intervenir diversos aspectos emocionales o fisiológicos que afecten los resultados. 

No quisiera dejar de lado en esta reflexión el problema del “baremo de calidad” ¿se ha negociado o discutido que significa la excelencia óptima o la nota perfecta de 10?, ¿quién lo establece y cómo?, ¿es lo mismo un 10 de Morazán que un 10 en San Salvador, París o Washington?; es un tema que discutimos hace años con el especialista en evaluación Daniele Vidoni de la Unión Europea.    

Finalmente, si creemos en las teorías psicopedagógicas contemporáneas, en los constructos neuroevolutivos de Mel Levine, en las inteligencias múltiples de Howard Gardner o en el enfoque de capacidades de Martha Nussbaum, una prueba, con un solo enfoque metodológico para obtener la información se queda corto. Habrá que abrir espacios de evaluación con otras herramientas que permitan conocer el potencial del individuo evaluado. 

Más allá de las teorías de evaluación, un docente, considerando los diversos niveles o necesidades profesionales de cada tracto educativo, debe contar con cuatro condiciones: 1) una base cultural amplia, ya que es un referente de la comunidad; 2) capacidades comunicativas óptimas para hablar y escribir; 3) conocimientos sólidos de neurociencia, ya que su especialidad es generar aprendizajes; y 4) ser ético. 

Dan Goldhaber en “The Mystery of Good Teaching” (2002) afirma que los factores que explican el buen desempeño de un docente son: 97% inobservables (entusiasmo, capacidad de trasmitir conocimientos, generación de competencias) y el 3% observables (años de experiencia, grado académico, especialización y certificaciones). Evaluar esto no es cosa fácil. 

PD 1: Introducir ítems en una plataforma digital no es evaluar por más que el PNUD lo respalde… 

PD 2: Que vergüenza que la UES tenga los resultados de pruebas de admisión reservados… 

Q:E:D: 

Comparte disruptiva