1. Carolina Avalos Dávila
Reflexión de lo aprendido tema 2:
Desde la lectura de los artículos, los diferentes autores nos llevaron por diferentes métodos
aplicados a la evaluación de proyectos y programas educativos.
Pérez Juste nos hizo profundizar en su modelo exponiendo lo relevante de éste y aspectos
a considerar antes y durante la evaluación para garantizar su exitosa aplicación.
Además hizo referencia a criterios específicos de Joint Committe y citados por Pérez Juste
(2000) con el objeto de ubicar lo que se pretende lograr en la evaluación, tales criterios si
es necesario destacarlos pues se ha enfatizado en ellos mucho desde el tema 1 y se retoman
en este tema también:
Factibilidad o viabilidad
Utilidad
Probidad
Precisión
Percibiendo la utilidad de estos como una ruta que debemos tener en el momento de
valorar las actividades, metodología, técnicas y evaluación de cada programa o proyecto
que esté siendo evaluado.
Por su parte De Miguel, desde la evaluación de los programas sociales, hace una interesante
relación entre lo que se da desde el programa, la evaluación y como se generan los cambios
sociales:
Fuente: Elaboración propia.
2. Carolina Avalos Dávila
Tomándose encuentra además que requiere de diferentes procesos desde lo que va de la
revisión epistemológica, comprensión de la realidad ontológica (contexto y políticas), y el
desarrollo de un trabajo sistemático.
Ya Tejedor, nos va adentrando en el análisis de la metodología a utilizar y que se desarrolla
en los procesos de evaluación donde destaca diferentes métodos, enfoques y técnicas
siempre desde la óptica cuantitativa y cualitativa que promueven la claridad en la
exposición de la información, la veracidad de los resultados logrados, y el uso de lenguaje
técnico que sea entendible para todos. Entre los métodos que propone están:
Fuente: Tejedor (2000).
Jornet, Suárez y Pérez (2000), se involucran con la validez en la evaluación de programas
haciendo énfasis en que ésta se encuentra presente cuando se atienden los componentes
metodológicos implicados en la evaluación, siempre pensando en mejoras permanentes
que se puedan concretar en representaciones realistas que ayuden a facilitaran el proceso,
teniendo en cuenta claro está la concepción ontológica para que las accione propuestas
sean viables y realizables.
Y este artículo va muy de la mano con lo que Pérez Juste y De Martínez señalan sobre el
trabajo sistemático e involucramiento de la audiencia, se sabe que una parte muy influyente
en el desarrollo del informe es el aspecto de formación que tenga el evaluador quien
desarrolle el proceso, pero para determinar su validez y correcta sugerencia de las
propuestas de acción, es necesario contar con el involucramiento activo de los sujetos
3. Carolina Avalos Dávila
participantes en ese programa a ser evaluado, de lo contrario, no sería posible comprender
por parte del evaluador como es que se están llevando a la práctica dichos programas, o
encontrar los vacíos que se requieren atender, en otras palabras queda claro desde este
tema que la participación de la audiencia es indispensable para generar en el evaluador
insumos que le permitan comprobar la eficacia, eficiencia e impacto del programa a evaluar
así como la interrelación de las partes que componen dicho programa ( concordancia de las
actividades, metodología, contenidos, técnicas y evaluación).
En el artículo V, Lizasoaín y Joaristi (2000) desde en análisis de datos en la evaluación de
programas sugieren varias técnicas que van de la mano con el artículo sobre los enfoques,
técnicas y metodología de Tejedor (2000), entre los cuales señalan:
Análisis discriminante, regresión logística. Regresión y discriminación no
paramétricas (técnicas de segmentación).
Análisis factorial y las tablas múltiples.
Diseños de medidas repetidas y series temporales.
Modelos de ecuaciones estructurales.
Modelos jerárquicos lineales.
Meta-análisis.
Destacando en la generación de dicho análisis la eficacia en el proceso, dentro de un
lenguaje entendible por todos, donde la información sea clara, realista y apegada a los
resultados de la evaluación con acciones de mejora acordes a la realidad contextual de
dicho programa.
Donde una de las mejores formas para desarrollar los resultados y hallazgos evidenciados
es haciendo uso de las técnicas de análisis de estadísticos las cuales dan realce, veracidad
además de un ordenamiento técnico a la información obtenida en los informes y la cual será
comunicada a la audiencia involucrada.
Finalmente, desde la optimización de la evaluación, De la Orden (2000) aporta que la
evaluación del aprendizaje puede influir positiva o negativamente en la calidad de la
educación, por lo que es necesario, determinar las características que debe poseer un
modelo evaluativo para maximizar sus efectos positivos así como la coherencia desde su
desarrollo. Para lograr lo anterior se sugiere la presencia de algunos elementos:
4. Carolina Avalos Dávila
Fuente: De la Orden (2000).
Tales elementos deben ser vinculantes, desde una coherencia horizontal con los objetivos
del programa lo mismo que de los contenidos, y la metodología sugerida En la medida en
que los criterios sean congruentes será posible visualizar procesos y productos educativos
hacia objetivos deseables social e individualmente promoviendo funcionalidad, eficacia y
eficiencia de la educación y en su defecto generando aspectos de calidad para el mismo
programa.
Desde los aportes de los foros, se valora además de los aportes de las lecturas de Pérez
Juste y De Miguel Díaz, los cuales fueron hechas algunas ideas reflexivas desde las lecturas
desarrollados, la lectura de la profesora Chaterri sobre metodologías mixtas para la
evaluación de programas, donde hace un llamado a volcar la mirada a otro tipo de estudios
en este caso los ETMM y que sean considerados como una opción científica razonable.
(Chatterji, 2004, p.12).
Además, la profesora hace ideas sugerentes para el desarrollo de una evaluación que sea
eficaz, eficiente, con credibilidad y perdurable como:
• Usar diseños de evaluación a largo plazo.
• Contextualizar adecuadamente.
• Metaevaluación formativa y sumativa.
5. Carolina Avalos Dávila
• Focalizar y temporalizar apropiadamente a las dimensiones de la evaluación.
• Combinación efectiva de métodos cuantitativos y cualitativos
Cabe destacar que la vinculación de esta lectura con la de Tejedor (2000) y Lizasoaín y
Joaristi (2000) es muy importante pues los tres se refieren a esa parte metodológica a ser
considerada por los evaluadores para iniciar con la concreción de una metodología de
investigación que secunde las técnicas e instrumentos y ayude a la conformación de un
análisis válido y concreto de los resultados logrados, si se destaca que contrario a lo que
destaca Tejedor donde hace la división desde los enfoques cuantitativos y cualitativos,
(Chatterji, 2004) sugiere la unión de ambos enfoques en uno solo que sería el Mixto al cual
se le visualiza mejores formas de ser desarrollado y al parecer se sugiere como un enfoque
más completo por el uso combinado de sus técnicas e instrumentos.
Por otro lado se añade a la reflexión la importancia de los modelos lógicos de Martínez
(2007) lectura propuesta para el foro 5 aportando las siguientes ideas:
El modelo lógico, en ocasiones no se aplica bien en la práctica, haciendo que la
evaluación pierda en gran parte su eficacia.
El lenguaje que se vaya a utilizar es fundamental, ya que si no es clarificador de lo
que estamos refiriendo en el programa, podemos obtener resultados erróneos o
acercarnos poco a la verdad.
El modelo lógico trabaja desde una concepción sistémica (todas las etapas se
realimentan) van en modo "in crescendo", con la condicionante de que no puede
desarrollarse una etapa sin la anterior, tampoco puede iniciarse el proceso de
evaluación en un orden aleatorio, se debe respetar esa secuencia lógica propuesta
para una comprensión de los pasos y generación de los resultados.
Es sugerente que los resultados se contemplen dirigidos hacia las actividades e
insumos.
Los modelos lógicos ayudan a que la “teoría del cambio” se haga más explícita y por
tanto sea más factible que las expectativas de los grupos se reajusten y que se logren
acuerdos.
6. Carolina Avalos Dávila
Referencias
Chatterji, M (2004). Evidence on “What Works”: An Argument for Extended-Term Mixed-
Method (ETMM) Evaluation Designs. Educational Researcher. Vol. 33, No. 9, pp. 3–13.
De la Orden, A. (2000) La función optimizante de la evaluación de programas evaluativos.
Investigación Educativa. Vol.18, No 2 pp: 125-133.
De Miguel, M. (2000) La evaluación de programas sociales. Fundamentos y enfoques
teóricos. Investigación Educativa. Vol.18, No 2 pp: 36-64.
Jornet, J; Suárez, J y Pérez, A (2000) La validez en la evaluación de programas. Investigación
Educativa. Vol.18, No 2 pp: 86- 101.
Lizasoaín, L y Joaristi, L (2000) El análisis de datos en la evaluación de programas educativos.
Investigación Educativa. Vol.18, No 2 pp: 102- 124.
Martínez, C (2007). Modelos Lógicos para la realización de evaluaciones de programas
educativos. Artículo basado en el capítulo 8 del libro de Martínez Mediano C.
Evaluación de Programas Educativos. Modelos y procedimientos. Madrid UNED.
Pérez, R. (2000) La evaluación de programas educativos: conceptos básicos, planteamientos
generales y problemática. Investigación Educativa. Vol.18, No 2 pp: 9-35.
Tejedor, F (2000) El diseño y los diseños en la evaluación de programas. Investigación
Educativa. Vol.18, No 2 pp: 65-85.