Investigacion Evaluativa

122,744 views

Published on

Lineamientos y consejos sobre cómo conducir una evaluacion de programas o servicios sociales

Published in: Education, Technology
1 Comment
16 Likes
Statistics
Notes
No Downloads
Views
Total views
122,744
On SlideShare
0
From Embeds
0
Number of Embeds
669
Actions
Shares
0
Downloads
1,583
Comments
1
Likes
16
Embeds 0
No embeds

No notes for slide
  • Look for commonalties and differences among the definitions.
  • Investigacion Evaluativa

    1. 1. Investigación Evaluativa. Aplicaciones en intervenciones sociales y de salud pública Jesús Armando Haro
    2. 2. Contenido <ul><li>El concepto de evaluación </li></ul><ul><li>¿Qué es investigación evaluativa? </li></ul><ul><li>¿Para que sirve? </li></ul><ul><li>¿En qué se aplica? </li></ul><ul><li>¿Cómo se realiza? </li></ul><ul><li>¿Tipos de investigación? ¿Generaciones? </li></ul><ul><li>¿Cuáles son sus etapas clave? </li></ul><ul><li>¿Qué es metaevaluación? </li></ul><ul><li>Addendum: ¿Cómo anticipar y evaluar el impacto de las investigaciones que hacemos en salud pública? </li></ul>
    3. 3. DEFINIENDO EL CONCEPTO DE EVALUACIÓN <ul><li>“ ..evaluar es determinar el significado, la importancia, o condición de algo, usualmente mediante un cuidadoso estudio y minucioso enfoque” </li></ul><ul><li>Merriam Webster Dictionary </li></ul><ul><li>Evaluar es una actividad básica y humana en la vida cotidiana. Es emitir juicios de valor acerca del mérito de las cosas y de las acciones </li></ul>
    4. 4. No obstante, hay un tipo de evaluación, la investigación evaluativa, que se caracteriza por su rigurosidad y sistematicidad <ul><li>“ La recoleccion sistemática de información acerca de actividades, características y resultados de programas, para realizar juicios acerca del programa, mejorar su efectividad, o informar la toma futura de decisiones”. </li></ul><ul><li>M. Q. Patton. 1996. Utilization-focused evaluation (3rd ed.). Thousand Oaks: Sage. p. 23. </li></ul>
    5. 5. <ul><li>  </li></ul><ul><li>“ La evaluación es el proceso de identificar, obtener y proporcionar información útil y descriptiva acerca del valor y el mérito de las metas, la planificación, la realización y el impacto de un objeto determinado con el fin de servir de guía para la toma de decisiones, solucionar los problemas de responsabilidad y promover la comprensión de los fenómenos implicados.” </li></ul><ul><li>D.L. Stufflebeam y A. Schiklield. 1987. Evaluación sistemática. Guía teórica y práctica. Madrid: Paidós/MEC. p. 183. </li></ul>
    6. 6. INVESTIGACIÓN EVALUATIVA Es la investigación que tiene como objetivo evaluar los resultados de uno o más programas que hayan sido o estén aplicados dentro de un contexto determinado. La intención de la investigación evaluativa es medir los efectos de un programa por comparación con las metas que se propuso lograr, a fin de tomar decisiones subsiguientes para mejorar la ejecución futura.
    7. 7. <ul><li>“ Impact evaluation aims to measure the difference between what happened with the program and what would have happened without it.” </li></ul><ul><ul><li>(Center for Global Development, 2006) </li></ul></ul>
    8. 8. ¿Qué permite la investigación evaluativa? Obtener información sobre problemas, expectativas y necesidades de la sociedad para contribuir de una manera eficaz a las decisiones de política social. Producir información para disminuir la incertidumbre sobre las consecuencias de las decisiones tomadas, y sobre las alternativas menos costosas de decisión futura. Dar respuesta en forma rápida y precisa a cuestiones prácticas y preguntas de relevancia social, sin soslayar que en estas situaciones, los problemas teóricos, metodológicos y técnicos están presentes .
    9. 9. Evaluación en salud <ul><li>“ Un conjunto de procedimientos sistemáticos que buscan hacer visible lo que se hace, con referencia a lo que se pretende hacer; respecto a intereses, efectividad, operacionalidad y calidad de las acciones, tecnologías, servicios o programas de salud” </li></ul><ul><li>(Ayres, J.R.: 2004. Norma e formacao: horizontes filosoficos para as praticas de avaliacao no contexto da promocao de saúde Ciencia & Saude Coletiva 9 (3): 585) </li></ul>
    10. 10. Intervenciones evaluables en salud <ul><ul><ul><ul><ul><li>Clinicas </li></ul></ul></ul></ul></ul><ul><ul><ul><ul><ul><li>Nutricionales </li></ul></ul></ul></ul></ul><ul><ul><ul><ul><ul><li>Conductuales </li></ul></ul></ul></ul></ul><ul><ul><ul><ul><ul><li>Educativas </li></ul></ul></ul></ul></ul><ul><ul><ul><ul><ul><li>Ambientales </li></ul></ul></ul></ul></ul><ul><ul><ul><ul><ul><li>En sistemas de salud (cobertura, abasto, personal, procesos, calidad, etcétera) </li></ul></ul></ul></ul></ul><ul><ul><ul><ul><ul><li>En salud pública </li></ul></ul></ul></ul></ul><ul><ul><ul><ul><ul><li>Otras </li></ul></ul></ul></ul></ul>
    11. 11. La Evaluación es una nueva disciplina pero una antigua práctica. La defensa de la Evaluación como disciplina descansa en sus características científicas en contraste con las evaluaciones subjetivas o no sistemáticas. La evaluación es considerada como ciencia por estar comprometida con la pro- ducción de conocimiento, y no sólo conocimiento práctico; la evaluación, desde el punto de vista de la práctica, se interesa por conocer el mérito rela- tivo de diferentes métodos de enseñanza, o de diferentes teorías de aprendi- zaje, o por los cambios en la salud como consecuencia de nuevas concepcio- nes en la práctica sanitaria. Pero también la evaluación es esencial para distinguir la ciencia de la pseudociencia al evaluar la calidad de la evidencia científica, la calidad de los diseños de investigación, de los instrumentos de Tiedida, de sus conclusiones, la calidad de los procedimientos en ingeniería, en las matemáticas, en los procesos judiciales. En el sentido de proceso inte- lectual, la evaluación forma parte de todas las disciplinas, tecnologías, nianualidades y de pensamiento racional en general (Scriven, 1991:4). La Evaluación es una nueva disciplina pero una antigua práctica. La defensa de la Evaluación como disciplina descansa en sus características científicas , en contraste con las evaluaciones subjetivas o no sistemáticas. La evaluación es considerada como ciencia por estar comprometida con la producción de conocimiento . No sólo es conocimiento práctico. Se interesa por conocer el mérito relativo de diferentes métodos de enseñanza, o de diferentes teorías de aprendizaje, o por los cambios en la salud como consecuencia de nuevas concepciones en la práctica sanitaria. También es esencial para distinguir la ciencia de la pseudociencia al evaluar la calidad de la evidencia científica, la calidad de los diseños de investigación, de los instrumentos de medida o de sus conclusiones. La evaluación forma parte de todas las disciplinas, tecnologías y formas de pensamiento racional en general (Scriven, 1991:4). Por esto, hoy se considera que la investigación evaluativa es una transdisciplina.
    12. 12. ¿Hay realmente diferencias entre investigación e investigación evaluativa? <ul><li>Para varias visiones existen al menos 3 tipos básicos de investigación: </li></ul><ul><li>Básica o pura: investigación científica que tiene como referente un problema del conocimiento, de la disciplina. Desarrollo, refutación y consolidación de teorías </li></ul><ul><li>Aplicada. Investigación para probar teorías para evaluar su utilidad de resolver problemas </li></ul><ul><li>Evaluativa. Investigación para determinar si una intervención garantiza mejoría de condiciones, tiene consecuencias de impacto o ha contribuido al conocimiento. </li></ul>
    13. 13. <ul><li>La IE difiere en que: </li></ul><ul><li>Las preguntas centrales se derivan de objetivos sociales, para resolver problemas en forma práctica, y menos como un problema del conocimiento o de las disciplinas académicas. </li></ul><ul><li>Los resultados se utilizan para mejorar programas, procesos, intervenciones. </li></ul><ul><li>Tiende a realizarse en escenarios de intenso cambio social (turbulentos). </li></ul><ul><li>Los resultados son principalmente reportados en formatos no necesariamente académicos. </li></ul><ul><li>Por ello,erróneamente, se piensa que en la IE la teoría y la teorización juegan un papel menor. No debe ser así. </li></ul>
    14. 14. ¿Para qué se realiza la investigación evaluativa? (en lo general) <ul><li>Para juzgar la eficacia, el mérito de un programa, intervención o política pública </li></ul><ul><li>Para describir lo que sucede como resultado de una intervención (efectos colaterales también no solo logros) </li></ul><ul><li>Proveer evidencias acerca de los efectos a corto y largo plazo </li></ul><ul><li>D eterminar el costo-efectividad </li></ul><ul><li>Para mejorar lo que se evalúa </li></ul><ul><li>Identificar además que aspectos del proceso son los que son exitosos, sus resultados (positivos, negativos o neutros) parelelos, que no responden a los objetivos de la “intervención”. Identificar sus fuerzas y debilidades, asegurar la calidad, evaluar el progreso de los objetivos planteados. </li></ul><ul><li>También: para generar conocimiento científico social y de salud pública. Hacer posibles generalizaciones sobre efectividad, construir teoría, diseñar nuevas políticas o procesos de la misma intervención, extrapolar principios y hallazgos para ser aplicados en otros escenarios sociales. </li></ul>
    15. 15. <ul><li>Documentar éxitos y fracasos, errores de proceso </li></ul><ul><li>Predecir cómo las variables impactan situaciones específicas </li></ul><ul><li>Explicar o identificar teorías prometedoras asociadas con fenómenos específicos. </li></ul><ul><li>Puede realizarse según diversos criterios: rendición de cuentas, costo-beneficio, acreditación/certificación de procesos, etcétera. </li></ul>
    16. 16. Tipos de evaluación (criterios) <ul><li>Evaluación de etapas o ciclos de un programa o proyecto: diseño, implementación, resultados </li></ul><ul><li>Evaluación de componentes: </li></ul><ul><li>a. insumos </li></ul><ul><li>b. procesos y productos </li></ul><ul><li>c. estructura, procesos y resultados </li></ul><ul><li>d. procesos e impactos </li></ul><ul><li>Evaluación de atributos: pertinencia, idoneidad, suficiencia, eficacia, efectividad, rendimiento, etcétera </li></ul>Nirenberg, Olga; Josette Brawerman y Violeta Ruiz: “Los tipos de evaluación” en Ibídem: Evaluar para la transformación. Innovaciones en la evaluación de programas y proyectos sociales Paidós (Tramas Sociales), Buenos Aires, México, 2000, pp. 51-78.
    17. 17. Tipos de diseños de investigación evaluativa (1) <ul><li>Evaluaciones cuantitativas </li></ul><ul><li>Evaluaciones cualitativas </li></ul><ul><li>Evaluaciones cuali-cuantitativas </li></ul><ul><li>Diseños experimentales (el ideal, pero raramente aplicable por razones éticas y prácticas) </li></ul><ul><li>Diseños quasi-experimentales </li></ul><ul><ul><li>En series temporales (antes y después) </li></ul></ul><ul><ul><li>Comparación entre grupos por pareamiento (con y sin intervención, “casos y controles”) </li></ul></ul>
    18. 18. <ul><li>Modelo CIPP (contexto, input, proceso y producto (Stufflebeam et al 1971) </li></ul><ul><li>Evaluación de meta libre (Scriven 1973) </li></ul><ul><li>Evaluación responsiva (Stake 1975) </li></ul><ul><li>Evaluación focalizada (Patton 1978) </li></ul><ul><li>Evaluación sobre la base del adversario (Wolf, 1979) </li></ul><ul><li>Modelo de reforma (Cronbach et al 1980) </li></ul><ul><li>Evaluación naturalista (Guba y Lincoln 1981) </li></ul>Cronbach, L. J., Hambron, S. R., Dornbusch, S. M., Hess, R. D., Hornick, R. C., Phillips, D. C., Walker, D. F. y Weiner, S. S. (1980). Towards reform in program evaluation: Aims, methods and institutional arrangements. San Francisco: Jossey-Bass. Guba, E. G. & Lincoln, Y. S. (1981). Effective evaluation: Improving the usefulness of evaluation. Results through responsive and naturalistic approaches. San Francisco: Jossey- Bass. Stake, R. E. (1975). Program evaluation: particularly responsive evaluation. Occasional Paper, 5. University of Western Michigan. Stufflebeam, D. L. & otros (1971). Educational Evaluation and Decision Making. Itasca, Illions: Peacock. ALGUNAS APLICACIONES METODOLÓGICAS EVALUATIVAS en EDUCACIÓN
    19. 19. Algunos enfoques o modelos emergentes en el campo de la salud <ul><li>Evaluación participativa </li></ul><ul><li>Evaluación cualitativa </li></ul><ul><li>Evaluación de sistemas de salud </li></ul><ul><li>Evaluación de síntesis realista </li></ul><ul><li>Evaluación respondente (Stake) </li></ul><ul><li>Evaluación democrática </li></ul><ul><li>Evaluación por triangulación de métodos </li></ul><ul><li>Evaluación crítica </li></ul><ul><li>Evaluación formativa </li></ul>“ No existe un modelo o enfoque único de evaluación emergente o alternativo en el área de salud” F.J. Mercado et al: “Avaliação de políticas e progra mas de saúde: enfoques emergentes na Ibero-América no inicio do século XXI” en Magalhães Bosi, M.L. y F.J. Mercado (org.): Avaliação qualitativa de programas de saúde. Enfoques emergentes Vozes, Petrópolis, 2006, p. 22-64.
    20. 20. <ul><li>Según Boruch y Wortman (1979) no existe un modelo generalizado de investigación evaluativa. La clasificación de los enfoques en la evaluación de programas ha originado una abundante literatura, distinguiéndose desde 1975 hasta hoy ocho tipologías de evaluación que arrojan cerca de cincuenta categorías (de la Orden, 1985). </li></ul><ul><li>Hay 3 criterios fundamentales: (a) la metodología empleada para establecer la verdad o basar las afirmaciones confirmatorias, (b) el papel asignado en el proceso de evaluación al orientador-evaluador en relación como los orientadores y con el sistema , y (c) los objetivos que persiguen o su orientación básica. </li></ul>Borouch, R. F. & Wortman, P. M. (1979). Implications of educational evaluation for evaluation policy. En D. C. Berliner (pp. 309-361). Review of Research in Education, 7.
    21. 21. <ul><li>El concepto de evaluación, no es monolítico (Anguera 1989). </li></ul><ul><li>Las diversas posturas adoptadas oscilan entre la construcción de un corpus de conocimientos que pudiera garantizarle el carácter de disciplina básica, y la mera recogida de información que trata de dar cuenta de la ejecución de ciertas actividades realizadas previamente (Cordaray, Bloom y Light, 1987). </li></ul><ul><li>Pasando por el análisis de los efectos netos de los programas o por la primacía de razones políticas —y no técnicas— respecto a la oportunidad de algunos programas. </li></ul>
    22. 22. Según Ricardo Ayres (2001) la IE en el campo salud puede clasificarse en dos tipos: <ul><li>La evaluación normativa, destinada a verificar el éxito técnico de acciones en salud. Se limita e medir cosas objetivas, y es generalmente cuantitativa. Es análoga a la evaluación formal de la calidad (“ideología de la calidad” Uchimura & Bosi 2004). </li></ul><ul><li>La evaluación formativa, que va mas allá de la dimensión objetiva de calidad, para juzgar el éxito práctico. Implica reconocer los “proyectos de felicidad” que justifican una intervención en salud a través de la integralidad . Reconoce que la IE es una herramienta para la formación ciudadana y un mecanismo de validación del sistema social, político e ideológico. </li></ul>
    23. 23. La integralidad como principio norteador de la evaluación <ul><li>Según Mattos (2001) la integralidad debe ser el principio que oriente las prácticas evaluativas, pero también del trabajo en salud y de las políticas públicas. </li></ul><ul><li>* Capacidad de responder al sufrimiento manifiesto </li></ul><ul><li>*Postura no reduccionista </li></ul><ul><li>*Capacidad ampliada de aprehensión de las necesidades en salud </li></ul><ul><li>*Defensa de la intersubjetividad </li></ul>
    24. 24. ¿En que se aplica la investigación evaluativa? <ul><li>Programas </li></ul><ul><li>Intervenciones </li></ul><ul><li>Políticas públicas </li></ul><ul><li>Evaluación de calidad de servicios existentes </li></ul><ul><li>Productos </li></ul><ul><li>Personas en puestos clave </li></ul><ul><li>Procedimientos específicos en la implementación de ciertos componentes en los anteriores </li></ul><ul><li>Proyectos de investigación e intervención </li></ul>
    25. 25. ¿Qué aspectos se pueden evaluar? <ul><li>Eficacia (relación entre objetivos y logros) </li></ul><ul><li>Efectividad (relación entre las estrategias, los métodos, los procedimientos, y los logros) </li></ul><ul><li>Costo-beneficio </li></ul><ul><li>Implementación (operatividad, procesos) </li></ul><ul><li>Aceptación en la población objetivo </li></ul><ul><li>Calidad de servicios </li></ul><ul><li>Efectos contextuales </li></ul><ul><li>Procesos (desempeño, operatividad) </li></ul><ul><li>Efectos colaterales </li></ul><ul><li>Rendición de cuentas ( accountability ) </li></ul><ul><li>Satisfacción de los usuarios o implicados </li></ul>
    26. 26. CRITERIOS DE EVALUACIÓN DE PROYECTOS <ul><li>Clara formulación del problema (tanto práctico como del problema de investigación) y de las dimensiones del mismo que se abordarán. </li></ul><ul><li>Relevancia del problema. Descripción, justificación y contextualización adecuada. </li></ul><ul><li>Exposición clara y pertinente de los fundamentos teóricos de la investigación. </li></ul><ul><li>Congruencia entre problema, hipótesis, objetivos y fundamentos. </li></ul><ul><li>Congruencia entre metodología y objetivos propuestos. </li></ul><ul><li>Descripción clara de la modalidad de trabajo, las acciones a realizar y la organización del equipo de trabajo. </li></ul><ul><li>Clara exposición del diseño metodológico de la investigación diagnóstica o evaluativa. </li></ul><ul><li>Relevancia de la innovación propuesta en función de su posible impacto </li></ul><ul><li>Previsión de interacción entre el grupo de investigación-innovación y los posibles beneficiarios (unidades académicas, comisiones curriculares, etc.). </li></ul><ul><li>Viabilidad del proyecto en función de la composición del equipo, tiempo disponible y características del PROYECTO. </li></ul>
    27. 27. Generaciones en investigación evaluativa <ul><li>primera generación (medición): evaluación de organizaciones como suma de individuos. G eneración de la medida. El papel del evaluador era técnico, como proveedor de instrumentos de medición. </li></ul><ul><li>segunda generación (descripción): evaluación de programas organizacionales y/o de recursos humanos y de sus resultados </li></ul><ul><li>tercera generación (valoración) : se elaboran &quot;Juicios&quot; sobre los programas organizacionales para recomendar lo que hay que hacer. Inciden sobre las decisiones a tomar más que sobre los resultados. </li></ul>
    28. 28. La cuarta generación en investigación evaluativa <ul><li>A finales de los ochenta Guba y Lincoln (1989) ofrecen una alternativa evaluadora, que denominan cuarta generación, pretendiendo superar lo que según estos autores son deficiencias de las tres generaciones anteriores, tales como una visión gestora de la evaluación, una escasa atención al pluralismo de valores y un excesivo apego al paradigma positivista. La alternativa de Guba y Lincoln la denominan respondente y constructivista, integrando de alguna manera el enfoque respondente propuesto en primer lugar por Stake (1975), y la epistemología postmoderna del constructivismo (Russell y Willinsky, 1997). </li></ul>
    29. 29. <ul><li>La utilización de las demandas, preocupaciones y asuntos de los implicados ( stakeholders ) es necesaria, según Guba y Lincoln, porque: </li></ul><ul><li>Son grupos de riesgo ante la evaluación y sus problemas deben ser convenientemente contemplados, de manera que se sientan protegidos ante tal riesgo. </li></ul><ul><li>Los resultados pueden ser utilizados en su contra en diferentes sentidos, sobre todo si están al margen del proceso. </li></ul><ul><li>Son potenciales usuarios de la información resultante de la evaluación. </li></ul><ul><li>Pueden ampliar y mejorar el rango de la evaluación. </li></ul><ul><li>Se produce una interacción positiva entre los distintos implicados. </li></ul>
    30. 30. El cambio paradigmático lo justifican estos autores porque: <ul><li>  </li></ul><ul><li>La metodología convencional no contempla la necesidad de identificar las demandas, preocupaciones y asuntos de los implicados. </li></ul><ul><li>Para llevar a cabo lo anterior se necesita una postura de descubrimiento más que de verificación, típica del positivismo. </li></ul><ul><li>No se tienen en cuenta suficientemente los factores contextuales. </li></ul><ul><li>No se proporcionan medios para valoraciones caso por caso. </li></ul><ul><li>La supuesta neutralidad de la metodología convencional es de dudosa utilidad cuando se buscan juicios de valor acerca de un objeto social. </li></ul>
    31. 31. <ul><li>  </li></ul><ul><ul><li>Identificar todos los implicados con riesgo en la evaluación. </li></ul></ul><ul><ul><li>Resaltar para cada grupo de implicados sus construcciones acerca de lo evaluado y sus demandas y preocupaciones al respecto. </li></ul></ul><ul><ul><li>Proporcionar un contexto y una metodología hermenéutica para poder tener en cuenta, comprender y criticar las diferentes construcciones, demandas y preocupaciones. </li></ul></ul><ul><ul><li>Generar el máximo acuerdo posible acerca de dichas construcciones, deman­das y preocupaciones. </li></ul></ul><ul><ul><li>Preparar una agenda para la negociación acerca de temas no consensuados. </li></ul></ul><ul><ul><li>Recoger y proporcionar la información necesaria para la negociación. </li></ul></ul><ul><ul><li>Formar y hacer de mediador para un «forum» de implicados para la negociación. </li></ul></ul><ul><ul><li>Desarrollar y elaborar informes para cada grupo de implicados sobre los distin­tos acuerdos y resoluciones acerca de los intereses propios y de los de otros grupos (Stake, 1986; Zeller, 1987). </li></ul></ul><ul><ul><li>Reciclar la evaluación siempre que queden asuntos pendientes de resolución. </li></ul></ul>RESPONSABILIDADES BÁSICAS DEL EVALUADOR DE LA CUARTA GENERACIÓN
    32. 32. <ul><li>1) Establecimiento de un contrato con un patrocinador o cliente. </li></ul><ul><li>  </li></ul><ul><li>• Identificación del cliente o patrocinador de la evaluación. </li></ul><ul><li>  • Identificación del objeto de la evaluación. </li></ul><ul><li>  • Propósito de la evaluación (Guba y Lincoln, 1982). </li></ul><ul><li>  • Acuerdo con el cliente por el tipo de evaluación. </li></ul><ul><li>  • Identificación de audiencias. </li></ul><ul><li>  • Breve descripción de la metodología a usar. </li></ul><ul><li>  • Garantía de acceso a registros y documentos. </li></ul><ul><li>  • Acuerdo por garantizar la confidencialidad y anonimato hasta donde sea posible. </li></ul><ul><li>  • Descripción del tipo de informe a elaborar. </li></ul><ul><li>  • Listado de especificaciones técnicas. </li></ul>Los 12 pasos de la IE de cuarta generación (Lincoln & Guba)
    33. 33. <ul><li>2) Organización para reciclar la investigación. </li></ul><ul><li>  </li></ul><ul><li>• Selección y entrenamiento del equipo evaluador. </li></ul><ul><li>  </li></ul><ul><li>• Consecución de facilidades y acceso a la información (Lincoln y Guba, 1985). </li></ul><ul><li>  </li></ul><ul><li>3) Identificación de las audiencias (Guba y Lincoln, 1982). </li></ul><ul><li>  </li></ul><ul><li>• Agentes. </li></ul><ul><li>  </li></ul><ul><li>• Beneficiarios. </li></ul><ul><li>  </li></ul><ul><li>• Victimas. </li></ul>
    34. 34. <ul><li>4) Desarrollo de construcciones conjuntas dentro de cada grupo o audiencia (Glaser y Strauss, 1967; Glaser, 1978; Lincoln y Guba, 1985). </li></ul><ul><li>  </li></ul><ul><li>5) Contraste y desarrollo de las construcciones conjuntas de las audiencias. </li></ul><ul><li>  </li></ul><ul><li>• Documentos y registros. </li></ul><ul><li>  </li></ul><ul><li>• Observación. </li></ul><ul><li>  </li></ul><ul><li>• Literatura profesional. </li></ul><ul><li>  </li></ul><ul><li>• Círculos de otras audiencias. </li></ul><ul><li>  </li></ul><ul><li>• Construcción ética del evaluador. </li></ul>
    35. 35. <ul><li>6) Clasificación de las demandas, preocupaciones y asuntos resueltos. </li></ul><ul><li>  </li></ul><ul><li>7) Establecimiento de prioridades en los temas no resueltos. </li></ul><ul><li>  </li></ul><ul><li>8) Recogida de información. </li></ul><ul><li>  </li></ul><ul><li>9) Preparación de la agenda para la negociación. </li></ul><ul><li>  </li></ul><ul><li>10) Desarrollo de la negociación. </li></ul><ul><li>  </li></ul><ul><li>11) Informes (Zeller, 1987; Licoln y Guba, 1988). </li></ul><ul><li>  </li></ul><ul><li>12) Reciclado/revisión. </li></ul>
    36. 36. <ul><li>a) La evaluación es un proceso sociopolítico. </li></ul><ul><li>  </li></ul><ul><li>b) La evaluación es un proceso conjunto de colaboración. </li></ul><ul><li>  </li></ul><ul><li>c) la evaluación es un proceso de enseñanza/aprendizaje. </li></ul><ul><li>  </li></ul><ul><li>d) La evaluación es un proceso continuo, recursivo y altamente divergente. </li></ul><ul><li>  </li></ul><ul><li>e) La evaluación es un proceso emergente. </li></ul><ul><li>  </li></ul><ul><li>f) La evaluación es un proceso con resultados impredecibles. </li></ul><ul><li>  </li></ul><ul><li>g) La evaluación es un proceso que crea realidad. </li></ul>RASGOS CENTRALES DE LA INVESTIGACIÓN EVALUATIVA DE CUARTA GENERACIÓN
    37. 37. Etapas clave en investigación evaluativa <ul><li>Formulación del objetivo principal y las preguntas de investigación. Es fundamental que desde esta primera etapa se considere la opinión de los implicados y no solamente del cliente (financiador) </li></ul><ul><li>Creación de los indicadores </li></ul><ul><li>Definición de las fuentes de información </li></ul><ul><li>Elaboración de los instrumentos de investigación </li></ul>
    38. 38. <ul><li>Trabajo de campo. Donde se realiza un reajuste de conceptos, indicadores, hipótesis, estrategias, instrumentos. </li></ul><ul><li>Análisis de información recopilada. Ordenación y clasificación de los datos. </li></ul><ul><li>Elaboración del informe final </li></ul><ul><li>Comunicación de resultados en distintas audiencias </li></ul>M.C. de Souza-Minayo. Pesquisa avaliativa por trtiangulacao de métodos en Magalhães Bosi, M.L. y F.J. Mercado (org.): Avaliação qualitativa de programas de saúde. Enfoques emergentes Vozes, Petrópolis, 2006, pp. 163-190.
    39. 39. metaevaluación <ul><li>la metaevaluación ha sido y es comúnmente considerada como aquella investigación sistemática cuyo objetivo es emitir un juicio acerca de la calidad o los méritos de una evaluación. La evaluación se convierte, de esta forma, en el objeto de estudio del metaevaluador (Stufflebeam, 1981, 1987; Scriven, 1967, 1991). </li></ul>
    40. 40. <ul><li>Diferentes conceptos de evaluación </li></ul><ul><li>Diferentes criterios </li></ul><ul><li>Pluralidad de procesos evaluativos, dependiendo de la percepción teórica que sobre la evaluación se mantenga </li></ul><ul><li>Pluralidad de objetos de evaluación </li></ul><ul><li>Apertura, reconocida en general por todos los autores, de la información necesaria en un proceso evaluativo para dar cabida no sólo a los resultados pretendidos, sino a los efectos posibles </li></ul><ul><li>Pluralidad también reconocida de las funciones de la evaluación </li></ul><ul><li>Diferencias en el papel jugado por el evaluador, lo que ha venido a llamarse evaluación interna vs. evaluación externa </li></ul><ul><li>Pluralidad de audiencia de la evaluación y, por consiguiente, pluralidad en los informes de evaluación. Desde informes narrativos, informales, hasta informes muy estructurados (Anderson y Ball, 1983) </li></ul><ul><li>Pluralidad metodológica </li></ul><ul><li>Tendencia a la integración cuantitativa/cualitativa </li></ul>Algunas características torales de la investigación evaluativa en la actualidad (S. XXI)
    41. 41. Addendum: ¿Cómo anticipar y evaluar el impacto de las investigaciones que hacemos en salud pública? <ul><li>Promover la conciencia del impacto que tienen nuestras actividades investigativas </li></ul><ul><ul><li>- En la conciencia de quien es observado (paradoja de Heisenberg) </li></ul></ul><ul><ul><li>-En la reacción social (formal e informal) </li></ul></ul><ul><ul><li>-En lo material y en lo simbólico </li></ul></ul><ul><ul><li>-Saber que hay impactos intencionales e inesperados </li></ul></ul><ul><li>Explicitar intencionadamente cuál es el impacto que pretendemos lograr </li></ul><ul><li>Diseñar mecanismos de evaluación de impacto que incorporen la perspectiva de nuestros sujetos en estudio/la población objetivo </li></ul>
    42. 42. <ul><li>¿Para qué queremos impactar? </li></ul><ul><li>¿Cuál es nuestro concepto de ciencia? </li></ul><ul><li>¿Qué objetivos tiene el trabajo científico? </li></ul><ul><li>¿Cuáles son nuestros criterios sobre lo que buscamos impactar? </li></ul><ul><li>Relevancia de explicitar ¿para qué investigamos?, ¿Para quién investigamos?, ¿Para quién escribimos? </li></ul>El eje teórico/conceptual
    43. 43. <ul><li>Necesidad de una reflexión epistemológica –alterna a la hegemónica- desde donde conceptualizar la salud, el trabajo científico, el impacto de las intervenciones. </li></ul><ul><li>Importancia de trascender la perspectiva sujeto/objeto, natural/social, cuantitativo/cualitativo hacia una visión relacional, integral y contextual. </li></ul>
    44. 44. Los actores y sectores que se impactan (o pretendemos impactar) <ul><li>Pareciera que buscamos impactar en políticas públicas. Sin embargo, los actores y sectores involucrados rebasan a veces nuestras expectativas. </li></ul><ul><li>El gobierno responde solamente a cierto tipo de fuerzas </li></ul><ul><li>Política pública desde lo público y desde el Estado </li></ul>
    45. 46. Propuestas <ul><li>Diseñar participativamente (con los diferentes actores/sectores) los criterios y estrategias de evaluación del impacto. </li></ul><ul><li>Potencializar los impactos mediante calidad de la investigación y estrategias diferenciadas de difusión </li></ul><ul><li>Crear medios adecuados: una revista, medios electrónicos, audiovisuales, radio, audiencias, conferencias, etc. </li></ul><ul><li>Calificar y no solamente cuantificar el impacto </li></ul>
    46. 47. <ul><li>Establecer alianzas estratégicas, que aseguren la potencialidad de nuestras propuestas en la opinión pública y en la toma política de decisiones. </li></ul><ul><li>Crear o utilizar redes de acción y/o movimientos sociales. </li></ul><ul><li>Desarrollar agendas paralelas a lo reportado a nuestros financiadores. </li></ul><ul><li>Planes estructurados por etapas sucesivas, abiertos al curso de los acontecimientos </li></ul>

    ×