PONTIFICIA UNIVERSIDAD CATOLICA DE PUERTO RICO                  RECINTO DE PONCE         PROGRAMA DE ESTUDIOS GRADUADOS   ...
Las siguientes fichas bibliográficas fueron utilizadas en estapresentación:Gallaudet University. (n.d.). The Gallaudet Uni...
La evaluación  Es un proceso de investigación que se utiliza para recopilar y sintetizar la evidencia esta culmina con   l...
Las conclusiones formuladas en las evaluaciones  abarcan tantos aspectos de carácter empírico y  también de aspecto normat...
Los términos mérito y valor usados en estadefinición de evaluación, necesitan serclasificadas. Según la Encyclopedia of Ev...
El méritoEs la calidad absoluta o relativa de algo, ya sea en  general o con respecto a un criterio particular.  Para dete...
El valorEs el resultado de una evaluación y se refiere al valor de aquello que se está evaluando en un contexto particular...
Scriven, 2009 extiende esta distinción con elsiguiente ejemplo: "sí, es genial (es decir, de altacalidad / mérito) un coch...
En las comunidades internacionales de desarrollo,  se hace una distinción entre el supervisión y  evaluación. The United N...
La supervisiónEs una función continua que tiene como objetivo  primordial ofrecer a las partes interesadas en  gestión y p...
La evaluaciónEs un ejercicio selectivo que intenta evaluar demanera sistemática y objetiva los progresoshacia el logro y d...
Definiciones alternativas sobre el proceso de                    evaluación(Hadley y Mitchel,l 1995)  Definen la evaluació...
Definición de términos en el lenguaje de evaluación  Cuando los evaluadores hablan sobre el evaluando o el  objeto de la e...
Evaluaciones formativasSe llevan a cabo principalmente a los efectos de mejorar el programa. Por lo general, las evaluacio...
Evaluaciones sumativasEs la fusión de un programa. Por lo general, esto se  hace en un programa que se ha estabilizado y c...
Historia de la evaluación    Paradigmas educativos
Origen de la evaluación• 1800: el gobierno de Estados unidos le pide a  evaluadores externos programas públicos• 1960: la ...
Interpretación de Mertens del árbol de Alkin       presentado en forma tabloide       Ramas            Paradigma evaluativ...
Paradigma postpositivista• Enfoque basado en objetivos:  – Ralph Tyler: Modelo de Evaluación basado en    objetivos  – Mal...
Paradigma postpositivista 2• Enfoque basado en la toma de desiciones:  – Daniel Stufflebeam: Modelo CIPP (Contexto,    Ins...
Paradigma postpositivista 3• Resumen del modelo basado en la teoría   – a. desarrollar la teoría en la cual está basado el...
Paradigma constructivista• Modelo de cuarta generación de Guba & Lincoln:   – 1era generación: evaluación basada en medida...
Paradigma constructivista 2• Modelo de evaluación responsiva de Stake:  – La evaluación responsiva de Stake se basa en    ...
Paradigma pragmático• Modelos de enfoque pragmático:  – El modelo de la cultura organizacional de Preskill &    Torres    ...
Paradigma pragmático 2– Modelo de evaluación de programas enfocada en la  utilización por M.Q. Patton   • la utilidad de l...
Paradigma transformativo• Los ocho modelos más importantes son:  – Evaluación inclusiva (Mertens, 2003): Los    miembros d...
Paradigma transformativo 2    • la partidas relevantes    • los intereses relevantes    • el diálogo– Empowerment evaluati...
Paradigma transformativo 3– Evaluación feminista: (Seigart & Brisolaras, 2002) Se  basa en juicios de mérito, la aplicació...
Paradigma transformativo 3– Hood, Hopson & Frierson (2005) desarrollaron el modelo  evaluativo de acercamiento cultural en...
Paradigma transformativo 4• discutir las preguntas de evaluación que necesitan  realizarse para determinar si el proyecto ...
Pasos en la Planificación de una EvaluaciónEnfocando la evaluación:• Descripción de lo que será evaluado•Propósito de la e...
Etapa de enfoqueDurante esta etapa, el evaluador necesita determinar lo  que esta siendo evaluado, el propósito de la  eva...
Descripción del evaluando• Determinar el estatus de lo que será evaluado• Realizar cuestionamientos como los siguientes  p...
- ¿Qué se supone que haga el evaluando?- ¿Qué recursos se están proveyendo al  evaluando? (financiamiento, tiempo, equipo,...
Distinciones del propósito de la Evaluación           ( M. Q. Patton, 2008)
Algunas preguntas para determinar los     propósitos de la evaluación
Áreas de cambio comunitario    (Paulo Freire, 1971)
Identificación de los participantes• El evaluador debe formular las preguntas adecuadas  que le permitan reconocer todas p...
Posibles participantes en evaluaciones•   Patrocinadores y fundadores•   Gobiernos y asesores•   Representantes de agencia...
• Recibidores de servicios ( clientes, estudiantes,  etc.)• No recibidores
Restricciones de la Evaluación
Sugerencias relacionadas con las restricciones en la    evaluación:•   El evaluador debe considerar quienes rechazan o    ...
Preguntas en la evaluación• DescriptivasSon aquellas que dicen lo que el programa es y lo  que hace.Ejemplo:- ¿Qué activid...
Ejemplo:- ¿Las actividades están en concordancia con el  propósito de la ley y las regulaciones de  implantación?• De impa...
Selección de un modelo de evaluación• Existen 2 opciones para escoger un modelo:- Escoger un modelo que se adapte a su pun...
Planificación de la evaluación• La recolección de datos responde a las siguientes  preguntas:1.¿Qué estrategias de recolec...
Análisis, interpretación y uso de los datos• La estrategia para analizar, interpretar y usar los  datos, dependerá del tip...
Dirección de la evaluación• Se debe realizar un plan escrito sobre el  personal y presupuesto requerido.• La meta-evaluaci...
Normas para la evaluación crítica de las               evaluacionesLas normas de evaluación de programas(denominados anter...
Los representantes de estas tres organizaciones se unieron a los miembros de 12 organizaciones profesionales. Para desarro...
Los estándares están organizados de acuerdo a cinco atributos principales                          de las evaluaciones:
Cada uno de los atributos principales se definepor norma correspondiente a ese atributo.Lineamientos y casos ilustrativos ...
UtilidadU1- Credibilidad del EvaluadorU2- Atención a las partes interesadasU3 -Propósitos negociadosU4- Valores explícitos...
FactibilidadF1 -Procedimientos prácticosF2 -Viabilidad contextualF3 -Uso de RecursosF4 -Gestión de proyectos
PropiedadP1 -Orientación Sensible e inclusivaP2 -Acuerdos FormalesP3 -Derechos Humanos y RespetoP4 -Claridad y equilibrioP...
PrecisiónA1- Conclusiones y Decisiones ConfiablesA2- Información válidaA3- Información confiableA4 -Evaluando explicito y ...
Meta evaluaciónM1- PropósitosM2- Estándares de CalidadM3- Documentación
Mertens (2009) y Kirkhart (2005) reconocen que laspreocupaciones sobre la diversidad y multiculturalismotiene consecuencia...
Se describen tres tipos de valideztradicionalmente discutidos en el proceso deinvestigación, pero se dirige a ellos desde ...
1. Validez Metodológica- se refiere a la validez o fiabilidad de acuerdos garantizados por nuestros métodos de investigaci...
Amenazas especificas para la validez multicultural1. Se necesita tiempo para reflexionar la perspectivamulticultural profu...
La ética y la evaluación: los principios rectores1. Investigación Sistemática2. Competencias3. Integridad / honestidad4.El...
ConclusionesA la luz de la información expuesta, se derivan los siguientes puntos                            importantes:•...
ReferenciaMertens, D. (2010). Research and Evaluation in Educaction and Psychology. Thousand Oaks, CA: SAGE Publications, ...
Pasos en la planificación de una evaluación
Pasos en la planificación de una evaluación
Pasos en la planificación de una evaluación
Upcoming SlideShare
Loading in...5
×

Pasos en la planificación de una evaluación

955

Published on

Published in: Education
0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total Views
955
On Slideshare
0
From Embeds
0
Number of Embeds
3
Actions
Shares
0
Downloads
23
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Pasos en la planificación de una evaluación

  1. 1. PONTIFICIA UNIVERSIDAD CATOLICA DE PUERTO RICO RECINTO DE PONCE PROGRAMA DE ESTUDIOS GRADUADOS LA EVALUACIÓNLibro: “Research and Evaluation in Education and Psychology” Mentens, D. 2010 Presentado Por: Yanira Lugo Milagros Ortolaza Hugo A. Adames
  2. 2. Las siguientes fichas bibliográficas fueron utilizadas en estapresentación:Gallaudet University. (n.d.). The Gallaudet University. Retrieved septiembre 11, 2012, from gallaudet.edu: http://www.gallaudet.eduJackson, W. &. (2010, junio 27). Educacionporsiempres Blog 2010. Retrieved septiembre 11, 2012, from educacionporiempre.wordpress.com: http://educacionporsiempre.wordpress.comOhio State University. (2009, diciembre 27). The Ohio State University. Retrieved septiembre 11, 2012, from ehe.ocu.edu: http://ehe.osu.eduPopham, W. (1993). Educational Evaluation. Estados Unidos de América: Allyn and Bacon.Springer publications. (n.d.). Google books. Retrieved septiembre 11, 2012, from books.google.com: http://books.google.com.prMertens, D.M. (2010) Research and Evaluation in Education and Psycology, SAEG Publication Inc. Estados Unidos de América.
  3. 3. La evaluación Es un proceso de investigación que se utiliza para recopilar y sintetizar la evidencia esta culmina con las conclusiones sobre el estado de las cosas, el valor, mérito, importancia o calidad de unprograma, productos, personas, política, propuesto o plan.
  4. 4. Las conclusiones formuladas en las evaluaciones abarcan tantos aspectos de carácter empírico y también de aspecto normativo. Es el valor lo que distingue a la evaluación de otros tipos de investigaciones, como la investigación de ciencia básica, epidemiología clínica, el periodismo, o de votación pública.
  5. 5. Los términos mérito y valor usados en estadefinición de evaluación, necesitan serclasificadas. Según la Encyclopedia of Evaluation(Mathison, 2005) se definen como:
  6. 6. El méritoEs la calidad absoluta o relativa de algo, ya sea en general o con respecto a un criterio particular. Para determinar el mérito de aquello que se va a evaluar con respecto a un determinado criterio, es necesario recopilar datos pertinentes de realización y atribuir valor a la misma.
  7. 7. El valorEs el resultado de una evaluación y se refiere al valor de aquello que se está evaluando en un contexto particular. El valor de un evaluando requiere una comprensión completo del contexto particular, así como las cualidades y atributos del evaluando.
  8. 8. Scriven, 2009 extiende esta distinción con elsiguiente ejemplo: "sí, es genial (es decir, de altacalidad / mérito) un coche, pero valía la pena loque cuesta, tanto monetarios como nomonetarios.Michael Patton, 2008, hace una distinción demérito y valor:". Mérito se refiere al valorintrínseco de un programa, por ejemplo, loefectivo que es en satisfacer las necesidades deaquellos a los que se destina.
  9. 9. En las comunidades internacionales de desarrollo, se hace una distinción entre el supervisión y evaluación. The United Nations Development Program (2002, p.6) proporciona las siguientes definiciones en las evaluaciones realizadas en el desarrollo internacional:
  10. 10. La supervisiónEs una función continua que tiene como objetivo primordial ofrecer a las partes interesadas en gestión y principal de una intervención en curso los primeros indicios de progreso, o la falta de ella, en el logro de resultados. Una intervención en curso podría ser un proyecto, programa u otro tipo de apoyo a un resultado”
  11. 11. La evaluaciónEs un ejercicio selectivo que intenta evaluar demanera sistemática y objetiva los progresoshacia el logro y de un resultado. La evaluaciónno es un evento único, sino un ejercicio queimplica evaluaciones de diferente alcance yprofundidad en respuesta a las necesidades deconocimiento evaluativo y el aprendizajedurante el esfuerzo para lograr un resultado.
  12. 12. Definiciones alternativas sobre el proceso de evaluación(Hadley y Mitchel,l 1995) Definen la evaluación como "investigación aplicada realizada para realizar o apoyar decisiones respecto a uno o más programas de servicio“.(M. Q. Patton, 2008) Señala que las evaluaciones se pueden utilizar para reducir la incertidumbre sobre las decisiones, tales como la disponibilidad de recursos y el clima político. Puede utilizar la siguiente lista de preguntas para procesar el contenido de las diversas definiciones y sus implicaciones para la práctica.
  13. 13. Definición de términos en el lenguaje de evaluación Cuando los evaluadores hablan sobre el evaluando o el objeto de la evaluación, están hablando de qué es lo que va a ser evaluado. Esto puede incluir un programa social o educativo, un producto, una política o personal. Por ejemplo, se incluyen programas de enriquecimiento para adolescentes sordos, dotados; drogas y programas de abuso de alcohol para las personas sin hogar, los programas y la gestión de residuos de alto nivel radiactivo.
  14. 14. Evaluaciones formativasSe llevan a cabo principalmente a los efectos de mejorar el programa. Por lo general, las evaluaciones formativas se llevan a cabo durante el desarrollo y ejecución del programa y se comunicó en el personal. De esta forma pueden utilizar la información para mejorar el programa.
  15. 15. Evaluaciones sumativasEs la fusión de un programa. Por lo general, esto se hace en un programa que se ha estabilizado y con frecuencia se reporta a una agencia externa. Los evaluadores internos trabajan dentro de la organización que opera el programa, los evaluadores externos son expertos traídos de fuera de la organización con el propósito exclusivo de llevar a cabo o asistir en la evaluación. Los evaluadores deben responder a las preocupaciones e intereses de los miembros selectos de la configuración que se evalúa.
  16. 16. Historia de la evaluación Paradigmas educativos
  17. 17. Origen de la evaluación• 1800: el gobierno de Estados unidos le pide a evaluadores externos programas públicos• 1960: la firma de la Acta para los Head Starts y las escuelas Primarias y Secundarias
  18. 18. Interpretación de Mertens del árbol de Alkin presentado en forma tabloide Ramas Paradigma evaluativo Uso Pragmático Método Postpositivista Valorización Constructivista y Transformativo
  19. 19. Paradigma postpositivista• Enfoque basado en objetivos: – Ralph Tyler: Modelo de Evaluación basado en objetivos – Malcom Provus: modelo de discrepancias – Donald Campbell: Modelo quasi experimental
  20. 20. Paradigma postpositivista 2• Enfoque basado en la toma de desiciones: – Daniel Stufflebeam: Modelo CIPP (Contexto, Insumo, Proceso, Producto)• Enfoque Basado en la teoría – Chen & Rosi: basado en los trabajos de D. Campbell
  21. 21. Paradigma postpositivista 3• Resumen del modelo basado en la teoría – a. desarrollar la teoría en la cual está basado el programa – b. obtener información sobre el programa y su teoría subyacente a través de investigaciones previas, examinando las teorías implícitas en aquellos que trabajan en el programa y observando el programa en operación – c. el evaluador trabaja junto con los sostenedores del programa para la redacción de preguntas y métodos de evaluación
  22. 22. Paradigma constructivista• Modelo de cuarta generación de Guba & Lincoln: – 1era generación: evaluación basada en medidas: se examina el aprendizaje de los estudiantes – 2da generación: enfoque basado en el alcance de los objetivos (Tyler) – 3era generación: modelos basados en la toma de decisiones – 4ta generación: constructivista, evaluación heurística
  23. 23. Paradigma constructivista 2• Modelo de evaluación responsiva de Stake: – La evaluación responsiva de Stake se basa en comparar un valor observado con un standard. El standard debe ser definido por las expectativas y criterios que varias personas tengan acerca del programa y los valores observados deben estar basados en aquellos que realmente alberga el programa. El trabajo del evaluador es determinar cuáles son los valores del programa que se observan con referencias útiles acerca de la satisfacción o insatisfacción de personas seleccionadas.
  24. 24. Paradigma pragmático• Modelos de enfoque pragmático: – El modelo de la cultura organizacional de Preskill & Torres • el interés de los miembros de una organización en explorar issues críticos usando la lógica de la evaluación • el envolvimiento de los miembros de la organización en el proceso evaluativo • el crecimiento de los miembros de la organización tanto a nivel personal como profesional • la creación en las organizaciones de una cultura que acostumbre a utilizar la información para llevar a cabo procesos de mejora en los programas
  25. 25. Paradigma pragmático 2– Modelo de evaluación de programas enfocada en la utilización por M.Q. Patton • la utilidad de la evaluación debe determinarse desde el principio • el valor de los hallazgos dependerá del uso que se le den • el evaluador tiene que facilitar la planificación e implantación de las evaluaciones para motivar la utilización de los hallazgos– Modelo de evaluación del mundo real por Bamberger • Busca crear un modelo de evaluación que cumpla con los requisitos de las agencias y a su vez ser responsivo a las complejidades culturales en el contexto educativo.
  26. 26. Paradigma transformativo• Los ocho modelos más importantes son: – Evaluación inclusiva (Mertens, 2003): Los miembros de la comunidad que serán afectados por los resultados de la evaluación serán incluídos en las decisiones metodológicas. – Evaluación de deliberación democrática (Hilliard, 1984; House & Howe, 2000; McDonald & Kushner, 2005)
  27. 27. Paradigma transformativo 2 • la partidas relevantes • los intereses relevantes • el diálogo– Empowerment evaluation (Fetterman & Wandersman, 2004). Consiste en utilizar conceptos técnicas y hallazgos de la investigación con el fin de lograr la autodeterminación.– Evaluación desarrollativa: (Stockdill, Duhon-Sells, Olson & Patton, 1992; Patton, 1994). Se define como la evaluación que apoya los programas y el desarrollo organizacional para guiar la adaptación a realidades emergentes y dinámicas desde una perspectiva de sistemas complejos y envuelve cambiar el modo del programa en sí como parte de la innovación y respuesta a las condiciones y entendimientos cambiantes.
  28. 28. Paradigma transformativo 3– Evaluación feminista: (Seigart & Brisolaras, 2002) Se basa en juicios de mérito, la aplicación de los métodos de las ciencias sociales para determinar efectividad, y el logro de las metas de los programas así como herramientas relacionadas a la justicia social para los oprimidos, especialmente aunque no exclusivamente las mujeres.– Evaluación transformativa: La meta principal es proveer información para mejorar o monitorear el progreso del proyecto. Los participantes son co- planificadores con las siguientes funciones:
  29. 29. Paradigma transformativo 3– Hood, Hopson & Frierson (2005) desarrollaron el modelo evaluativo de acercamiento cultural en lo cual lo primordial es atender el contexto cultural e histórico en el cual se sitúan los programas así como las perspectivas críticas de los miembros de la comunidad.– Los modelos de índole post colonial e indígenas los cuales fueron desarrollados por miembros de las comunidades post coloniales e indígenas, reflejando las raíces culturales de los indios americanos. (Le France& Crazy Bull, 2009) los Maori en Nueva Zelanda (Cram, 2009; Moewaka Barnes, Mc Creanor, Edwards & Borrel, 2009; L.T. Smith, 2005) y los afroamericanos (Chilisa, 2009). Ellos especifican como un persona no indígena necesita proceder cuando trabaja con grupos indígenas, así como guiar el trabajo evaluativo basándose en los valores y tradiciones de la comunidad.
  30. 30. Paradigma transformativo 4• discutir las preguntas de evaluación que necesitan realizarse para determinar si el proyecto está progresando• ayudar a definir e identificar fuentes de dates requeridos para contestar las preguntas de evaluación• se envuelven en la recolección y análisis de datos y la preparación del reporte final.
  31. 31. Pasos en la Planificación de una EvaluaciónEnfocando la evaluación:• Descripción de lo que será evaluado•Propósito de la evaluación•Participantes en la evaluación•Restricciones y oportunidades asociadas con laevaluación•Preguntas de evaluación•Selección de un modelo de evaluación
  32. 32. Etapa de enfoqueDurante esta etapa, el evaluador necesita determinar lo que esta siendo evaluado, el propósito de la evaluación, los participantes en la evaluación y las restricciones bajo las cuales la misma se lleva a cabo.- Generalmente, este primer contacto es iniciado por el director del programa, el creador de la política, o el fundador del grupo.- El evaluador puede ganar valiosa información realizando las preguntas correctas.
  33. 33. Descripción del evaluando• Determinar el estatus de lo que será evaluado• Realizar cuestionamientos como los siguientes para el comienzo de la evaluación:- ¿Existe una descripción escrita sobre lo que será evaluado?- ¿Cuál es el estatus? Nuevo o maduro? Está desarrollado? Cuánto tiempo ha existido el programa?- ¿En que contexto se utilizará la función del evaluando?- ¿A quién está dirigido a servir el evaluando?
  34. 34. - ¿Qué se supone que haga el evaluando?- ¿Qué recursos se están proveyendo al evaluando? (financiamiento, tiempo, equipo, materiales, etc.)- ¿Cuáles son los procesos que conforman al evaluando?- ¿Qué resultados (outputs) se esperan?- ¿Por qué quiere evaluarlo?- ¿Qué descripción del evaluando esta disponible para usted al comienzo de la evaluación?- ¿Qué descripción del evaluando resulta necesaria para la comprensión del programa?
  35. 35. Distinciones del propósito de la Evaluación ( M. Q. Patton, 2008)
  36. 36. Algunas preguntas para determinar los propósitos de la evaluación
  37. 37. Áreas de cambio comunitario (Paulo Freire, 1971)
  38. 38. Identificación de los participantes• El evaluador debe formular las preguntas adecuadas que le permitan reconocer todas personas que serán afectadas por el programa.
  39. 39. Posibles participantes en evaluaciones• Patrocinadores y fundadores• Gobiernos y asesores• Representantes de agencias federales y estatales• Creadores de pólizas• Administradores• Miembros del equipo (staff) - maestros regulares, de educación especial, panel de recursos, psicólogos)
  40. 40. • Recibidores de servicios ( clientes, estudiantes, etc.)• No recibidores
  41. 41. Restricciones de la Evaluación
  42. 42. Sugerencias relacionadas con las restricciones en la evaluación:• El evaluador debe considerar quienes rechazan o apoyan el programa.• Asegurarse de que exista un conocimiento formalizado sobre quienes necesitan ser informados.• Reconocer que las personas pueden “moverse dentro y fuera "de los programas. Por lo tanto, los conocimientos de esas personas varían.• Es necesario orientar a los nuevos participantes sobre el proceso, el propósito y la evaluación.• Preparar una síntesis sobre su conocimiento actual del programa, en términos del evaluando, propósito de la evaluación, stekeholders y restricciones.
  43. 43. Preguntas en la evaluación• DescriptivasSon aquellas que dicen lo que el programa es y lo que hace.Ejemplo:- ¿Qué actividades apoya el programa?• De implantaciónSon aquellas que dicen cómo y en que medida las actividades que se pretendían implantar fueron implantadas, y si están dirigidas a una población o problemas en especifico.
  44. 44. Ejemplo:- ¿Las actividades están en concordancia con el propósito de la ley y las regulaciones de implantación?• De impactoSon aquellas que indican los efectos del programa.Ejemplo:- ¿El programa está alcanzando sus propósitos o finalidades?
  45. 45. Selección de un modelo de evaluación• Existen 2 opciones para escoger un modelo:- Escoger un modelo que se adapte a su punto de vista.- Escoger un modelo que responda a las necesidades del cliente.• Cuando escoja el modelo, busque uno que se ajuste a las necesidades de la evaluación y a su punto de vista.• Si el cliente esta abierto a un nuevo enfoque sobre la evaluación, intente orientarlo al respecto.
  46. 46. Planificación de la evaluación• La recolección de datos responde a las siguientes preguntas:1.¿Qué estrategias de recolección de datos se van a usar?2.¿Quién va a recoger los datos?3.¿Cuál va a ser la muestra?4.¿Cuándo y cómo se recopilará la información?5.¿Cómo regresará la información al evaluador?
  47. 47. Análisis, interpretación y uso de los datos• La estrategia para analizar, interpretar y usar los datos, dependerá del tipo de modelo que se utilice:Ejemplo 1:En un modelo constructivista o transformativo, se interactuará más con los participantes de la evaluación a la hora de analizar, interpretar y usar los datos que en un modelo post-positivista, en el cual el evaluador preferirá pasar lo mas desapercibido posible para no afectar el recogido de información.
  48. 48. Dirección de la evaluación• Se debe realizar un plan escrito sobre el personal y presupuesto requerido.• La meta-evaluación es la evaluación sobre el proceso de evaluación. Se debe llevar a cabo en 3 instancias:- Una vez concluida la planificación preliminar- Durante la implantación- Después que haya sido completada la evaluación
  49. 49. Normas para la evaluación crítica de las evaluacionesLas normas de evaluación de programas(denominados anteriormente y en lo sucesivoreferido como las normas) fueron desarrolladaspor un comité conjunto que se inició con elesfuerzo de tres organizaciones: la AmericanEducational Research Association (AERA), laAmerican Psychologycal asociation (APA), y elConsejo Nacional de Medición de la Educación.
  50. 50. Los representantes de estas tres organizaciones se unieron a los miembros de 12 organizaciones profesionales. Para desarrollar un conjunto de normas que orientan la evaluación de los programas educativos y de capacitación, proyectos y materiales en una variedad de entornos.Las normas no han sido adoptados como estándaresoficiales para cualquiera de estas organizaciones. Sinembargo, sí ofrecen un marco amplio para examinarla calidad de la evaluación.
  51. 51. Los estándares están organizados de acuerdo a cinco atributos principales de las evaluaciones:
  52. 52. Cada uno de los atributos principales se definepor norma correspondiente a ese atributo.Lineamientos y casos ilustrativos se incluyen enel texto del programa de evaluación estándar ensí.Los casos ilustrativos se extrae de una variedadde entornos educativos, incluidas las escuelas,las universidades, la médica y el campo de lasalud, el negocio militar y la industria, elgobierno y la ley.
  53. 53. UtilidadU1- Credibilidad del EvaluadorU2- Atención a las partes interesadasU3 -Propósitos negociadosU4- Valores explícitosU5- Información RelevanteU6- Procesos y Productos significativosU7- Comunicación oportuna, adecuada ypresentación de informesU8 -La preocupación por la influencia yconsecuencias
  54. 54. FactibilidadF1 -Procedimientos prácticosF2 -Viabilidad contextualF3 -Uso de RecursosF4 -Gestión de proyectos
  55. 55. PropiedadP1 -Orientación Sensible e inclusivaP2 -Acuerdos FormalesP3 -Derechos Humanos y RespetoP4 -Claridad y equilibrioP5 -Transparencia y DivulgaciónP6 -Conflictos de InterésP7 -Responsabilidad Fiscal
  56. 56. PrecisiónA1- Conclusiones y Decisiones ConfiablesA2- Información válidaA3- Información confiableA4 -Evaluando explicito y descripcionescontextualesA5- Métodos Cuantitativos y CualitativosA6 -Diseño y AnálisisA7 -Razonamiento y evaluación explícitaA8- Comunicación válida y presentación deinformes
  57. 57. Meta evaluaciónM1- PropósitosM2- Estándares de CalidadM3- Documentación
  58. 58. Mertens (2009) y Kirkhart (2005) reconocen que laspreocupaciones sobre la diversidad y multiculturalismotiene consecuencias generalizadas sobre la calidad deltrabajo de evaluación. Kirkhart propuso unaconsideración específica de lo que ella denomina"validez multicultural", que definió como "el vehículopara la organización de las preocupaciones sobre elpluralismo y la diversidad en la evaluación, y como unamanera de reflexionar sobre los límites culturales denuestro trabajo" (1995).
  59. 59. Se describen tres tipos de valideztradicionalmente discutidos en el proceso deinvestigación, pero se dirige a ellos desde elpunto de vista de la validez multicultural.A continuación, identifica las amenazasespecíficamente relevantes para la validezmulticultural. Los tipos tradicionales de validezse definen y analizan a continuación:
  60. 60. 1. Validez Metodológica- se refiere a la validez o fiabilidad de acuerdos garantizados por nuestros métodos de investigación, particularmente con referencia a los instrumentos de medición, procedimientos, y la lógica de la investigación. 2. Validez Interpersonal-se refiere a la validez o fiabilidad de acuerdos que emanan de las interacciones personales. 3. Consecuencia de validez- se refiere a la solidez de cambio ejerce sobre los sistemas de evaluación y la medida en que esos cambios son sólo.
  61. 61. Amenazas especificas para la validez multicultural1. Se necesita tiempo para reflexionar la perspectivamulticultural profundamente.2. La sofisticación cultural tiene que ser demostrada enel desarrollo cognitivo, afectivo y dimensiones dehabilidad.3. El evaluador debe evitar la arrogancia cultural que serefleja en compromisos cognitivos prematuros a unentendimiento cultural en particular, así como acualquier modelo de evaluación.
  62. 62. La ética y la evaluación: los principios rectores1. Investigación Sistemática2. Competencias3. Integridad / honestidad4.El respeto de las personas5.Responsabilidades para el bienestar general ypúblico
  63. 63. ConclusionesA la luz de la información expuesta, se derivan los siguientes puntos importantes:• El proceso evaluativo se enfatiza en la recolección de datos, tanto de carácter empírico como normativo, siendo el valor lo que la distingue de otros tipos de investigaciones.• El evaluador debe tener un conocimiento claro sobre quienes son los participantes, las restricciones y los objetivos que se persiguen alcanzar para lograr a conclusiones precisas sobre el programa que esta siendo evaluado.• Es importante que el evaluador realice los cuestionamientos adecuados durante la evaluación para poder obtener conclusiones fiables una vez finalizado el proceso.
  64. 64. ReferenciaMertens, D. (2010). Research and Evaluation in Educaction and Psychology. Thousand Oaks, CA: SAGE Publications, Inc.
  1. A particular slide catching your eye?

    Clipping is a handy way to collect important slides you want to go back to later.

×