Estadistica

65,144 views

Published on

11 Comments
31 Likes
Statistics
Notes
No Downloads
Views
Total views
65,144
On SlideShare
0
From Embeds
0
Number of Embeds
2,060
Actions
Shares
0
Downloads
1,974
Comments
11
Likes
31
Embeds 0
No embeds

No notes for slide
  • nominal: etiqueta de un nº, pero no influye el nº,es sólo para diferenciarlo, por ejemplo: sexo, hombre=0 y mujer=1, es decir, son diferentes. Ordinal: + y -, es decir,son diferentes pero tb establezco un orden. Intervalo:diferentes; + y -; distancias; por ejemplo las calificaciones numéricas del alumnosabiendo ladiferencia numérica que existe entre cada puntuación; 10 Pepe, 9 Juan, 8,5 Sergio, 7 Pedro; un ejemplo de ordinal sería 1 Pepe, 2Juan, 3 Sergio y 4 Pedro, sólo me indica que son distintos y que además el 1 tiene > nota que el 4 Razón: aquí el valor O indica que no existe Nota: si el cero indicara algún valor específico debemos utilizar la escala de intervalo porque en el de razón cero es “nada”
  • Características generales de la muestra: La muestra global de este trabajo esta constituida por 52 usuarios del programa de Natación Terapéutica realizado en tres centros de la provincia de Sevilla: Mar de Plata (24, 46,2%), San Pablo (22, 42,3%) y Piscina Sevilla (6, 11,5%), de los cuales 34 son mujeres y 18 hombres, con una edad media de 60,73 +/- 7,7, todos ellos configuran un único grupo de estudio.
  • Características generales de la muestra: La muestra global de este trabajo esta constituida por 52 usuarios del programa de Natación Terapéutica realizado en tres centros de la provincia de Sevilla: Mar de Plata (24, 46,2%), San Pablo (22, 42,3%) y Piscina Sevilla (6, 11,5%), de los cuales 34 son mujeres y 18 hombres, con una edad media de 60,73 +/- 7,7, todos ellos configuran un único grupo de estudio.
  • Características generales de la muestra: La muestra global de este trabajo esta constituida por 52 usuarios del programa de Natación Terapéutica realizado en tres centros de la provincia de Sevilla: Mar de Plata (24, 46,2%), San Pablo (22, 42,3%) y Piscina Sevilla (6, 11,5%), de los cuales 34 son mujeres y 18 hombres, con una edad media de 60,73 +/- 7,7, todos ellos configuran un único grupo de estudio.
  • Características generales de la muestra: La muestra global de este trabajo esta constituida por 52 usuarios del programa de Natación Terapéutica realizado en tres centros de la provincia de Sevilla: Mar de Plata (24, 46,2%), San Pablo (22, 42,3%) y Piscina Sevilla (6, 11,5%), de los cuales 34 son mujeres y 18 hombres, con una edad media de 60,73 +/- 7,7, todos ellos configuran un único grupo de estudio.
  • Características generales de la muestra: La muestra global de este trabajo esta constituida por 52 usuarios del programa de Natación Terapéutica realizado en tres centros de la provincia de Sevilla: Mar de Plata (24, 46,2%), San Pablo (22, 42,3%) y Piscina Sevilla (6, 11,5%), de los cuales 34 son mujeres y 18 hombres, con una edad media de 60,73 +/- 7,7, todos ellos configuran un único grupo de estudio.
  • Características generales de la muestra: La muestra global de este trabajo esta constituida por 52 usuarios del programa de Natación Terapéutica realizado en tres centros de la provincia de Sevilla: Mar de Plata (24, 46,2%), San Pablo (22, 42,3%) y Piscina Sevilla (6, 11,5%), de los cuales 34 son mujeres y 18 hombres, con una edad media de 60,73 +/- 7,7, todos ellos configuran un único grupo de estudio.
  • Características generales de la muestra: La muestra global de este trabajo esta constituida por 52 usuarios del programa de Natación Terapéutica realizado en tres centros de la provincia de Sevilla: Mar de Plata (24, 46,2%), San Pablo (22, 42,3%) y Piscina Sevilla (6, 11,5%), de los cuales 34 son mujeres y 18 hombres, con una edad media de 60,73 +/- 7,7, todos ellos configuran un único grupo de estudio.
  • Por ejemplo si P 25 =40 55 sgnifica queel 25% del total tienen una edad > o = a 55 años
  • Trataremos la relación entre variables medidas en diferentes escalas de medida. El primer paso consiste en la recogida de información de dos variables en varios casos. Nuestro objetivo será tratar de averiguar si existe relación entre las dos variables , de qué tipo y si es posible predecir una de ellas a partir de la otra. Para valores de X por encima de la media tenemos valores de Y por encima y por debajo en proporciones similares. Incorrelación . Para los valores de X mayores que la media le corresponden valores de Y mayores también. Para los valores de X menores que la media le corresponden valores de Y menores también. Esto se llama relación directa . Para los valores de X mayores que la media le corresponden valores de Y menores. Esto es relación inversa o decreciente.
  • Consiste en generalizar loque pasa en mi muestra a la población general; para ello debemos: Definir lamuestra Definir la población Definir como hemos cogido la muestra (debe ser probabilística)
  • Estadistica

    1. 1. ANALISIS DE DATOS
    2. 2. ESTADÍSTICA DESCRIPTIVA E INFERENCIAL
    3. 3. CONCEPTOS BÁSICOS DE ESTADÍSTICA <ul><li>POBLACIÓN : es el conjunto de todos los elementos que cumplen ciertas propiedades, entre las cuales se desea estudiar un determinado fenómeno  UNIVERSO </li></ul><ul><ul><li>SEGÚN LA FINITUD: </li></ul></ul><ul><ul><ul><li>Población finita : se conoce el número exacto de todos los elementos que componen el conjunto </li></ul></ul></ul><ul><ul><ul><li>Población infinita : en el supuesto que no se puedan conocer todos los elementos que componen el conjunto </li></ul></ul></ul><ul><ul><li>SEGÚN LA MUESTRA ESCOGIDA </li></ul></ul><ul><ul><ul><li>Población objeto : es aquella en la que se desea estudiar cierta información </li></ul></ul></ul><ul><ul><ul><li>Población inferencial : es aquella para la cual se hacen inferencias, no necesariamente válidas </li></ul></ul></ul><ul><li>ESCALAS DE MEDIDA  NIVELES DE MEDIDA DE LAS VARIABLES* </li></ul>
    4. 4. <ul><li>MUESTRA : si la población es un conjunto, la muestra es un subconjunto de ésta. </li></ul><ul><li>INDIVIDUO : se identifica al individuo de una población o de una muestra como cada uno de los elementos que la componen y de los cuales obtenemos cierta información mensurable del fenómeno que se desea estudiar. </li></ul><ul><li>Podemos considerar individuo un ser humano, un animal, o un evento, por ejemplo acudir a consulta, etc. </li></ul>CONCEPTOS BÁSICOS DE ESTADÍSTICA
    5. 5. <ul><li>CARÁCTER : es la propiedad o cualidad que presentan los elementos de una población que se desea estudiar </li></ul><ul><ul><li>Caracteres cualitativos: son aquellos que no pueden medirse numéricamente, es decir, que no pueden cuantificarse. </li></ul></ul><ul><ul><li>Caracteres cuantitativos: son aquellos que pueden medirse numéricamente, es decir, pueden cuantificarse </li></ul></ul><ul><ul><li>Modalidad o clase de un carácter: son las distintas formas en las que dicho carácter puede presentarse. </li></ul></ul><ul><ul><li>Ej: el carácter sexo presenta dos modalidades hombre y mujer. </li></ul></ul>CONCEPTOS BÁSICOS DE ESTADÍSTICA
    6. 6. <ul><li>La frecuencia absoluta de una modalidad de un carácter es el número de elementos en estudio que presentan esa modalidad de ese carácter. </li></ul><ul><li>  </li></ul><ul><li>La frecuencia relativa de una modalidad de un carácter es el cociente entre la frecuencia absoluta de dicha modalidad y el número total de elementos que constituyen la muestra. </li></ul><ul><li>Porcentaje de una modalidad: se obtiene multiplicando la frecuencia relativa por 100. </li></ul>CONCEPTOS BÁSICOS DE ESTADÍSTICA
    7. 7. NIVELES DE MEDIDA DE LAS VARIABLES <ul><li>Medición supone establecer una regla para hacer corresponder los números con las formas en las que se presenta una característica de los objetos o individuos. </li></ul><ul><li>Con niveles de medida nos referimos a las formas en que se emplean los números: </li></ul><ul><ul><li>Nominal : asignar números supone etiquetar o poner nombres. Los objetos difieren entre sí. </li></ul></ul><ul><ul><li>Ordinal : establecemos una ordenación, creciente o decreciente, entre los objetos. Sabemos que es mayor o menor, pero no cuánto. </li></ul></ul><ul><ul><li>Intervalo: las distancias numéricas iguales suponen distancias idénticas respecto a la cualidad que se está midiendo. </li></ul></ul><ul><ul><li>Razón: a las características del nivel de medida de intervalo, se añade la existencia del cero absoluto (cero supone ausencia de rasgo medido), no hay valores negativos. </li></ul></ul>
    8. 8. ESCALAS DE MEDIDA Media geométrica Media armónica Coeficiente de variación Cero absoluto Establecer igualdad de razones De razón o proporción Media aritmética Desviación típica Correlaciones Unidad constante Determinar la igualdad o diferencia de intervalo De intervalo Mediana Percentiles Correlación lineal Mantenimiento del orden Determinar lo >, lo =, o lo < Ordinal Frecuencias Moda Coefic. De contigencia Permutación Establecer la igualdad o desigualdad Nominal ESTADÍSTICOS APLICABLES CONDICIONES OPERACIONES LÓGICAS ESCALAS DE MEDIDA
    9. 9. ANÁLISIS VALIDEZ Y FIABILIDAD DE LA MEDIDA
    10. 10. Análisis de la Fiabilidad La precisión o fiabilidad de una medida: ausencia de variabilidad. Una medición es fiable cuando se obtienen resultados iguales en mediciones sucesivas. Medición de temperatura: 36º, 30º, 40º (no es fiable).    O rígenes de la variabilidad: 1.Variabilidad atribuible al procedimiento (instrumentos, pruebas, cuestionarios, etc). 2.Variabilidad debida a discrepancias entre los observadores (variaciones inter‑observador e intra‑observador). 3.Variabilidad por cambios en las características sometidas a medición (variaciones biológicas, conductuales, ambientales, etcétera), La fiabilidad se valora realizando dos o más mediciones independientes del mismo atributo y comparando luego los hallazgos.
    11. 11. Análisis de la Fiabilidad La fiabilidad de las medidas utilizadas ha de analizarse cuando se aplique una forma de medición nueva.   Se deben realizar esfuerzos para hacer más fiable la información recogida, pero más que intentar conseguir una fiabilidad total, se debe poder cuantificar el grado de error cometido en la medición.   Cuando en el diseño de un estudio se planifique la medición de las variables seleccionadas, se deben adoptar medidas para conseguir una mínima variabilidad en los resultados.   ¿Cómo?: - definiciones operativas claras, - instrucciones precisas sobre la recogida de información, - entrenamiento de los observadores, - procedimientos de medidas estándar previamente utilizados y - técnicas de enmascaramiento.
    12. 12. Análisis de la Fiabilidad en variables cualitativas Analizar/ Estadísticos descriptivos / Tablas de Contingencia / Índice Kappa de Cohen + coeficiente de contingencia + prueba Chi-cuadrado Coincidieron 20 negativos en el test1 tb son negativos en el test2. 20 + en test 1 también son + en el test2. No coincidieron 5 + en test 1 después en test 2 son negativos No coincidieron 5 negativos en test 1 después en test 2 son + Tuvo en total 40 coincidencias (20 ++ y 20 --) y 10 no coincidencias (5+- y 5 -+)
    13. 13. Analizar/ Estadísticos descriptivos / Tablas de Contingencia / Índice Kappa de Cohen + coeficiente de contingencia + prueba Chi-cuadrado (es una binomial 2x2) Análisis de la Fiabilidad en variables cualitativas Chi-cuadrado indica si una medición coincide con la otra o no.
    14. 14. Analizar/ Escalas / Análisis de fiabilidad Análisis de la Fiabilidad en variables cuantitativas La matriz de correlaciones indica que existe una alta relación entre las mediciones, o sea que existe escasa variabilidad, por lo que mis 5 mediciones han sido muy fiables.
    15. 15. Analizar/ Escalas / Análisis de fiabilidad Análisis de la Fiabilidad en variables cuantitativas
    16. 16. VALIDEZ Y FIABILIDAD DE LA ESCALA DE MEDIDA Analizar/ Reducción de datos / Análisis factorial / KMO y prueba de esfericidad de Barlett Análisis de la Variabilidad (varianza) de una medición Identificar un pequeño número de factores que explique la mayoría de la varianza observada. Kaiser-Meyer-Olkin contrasta si las correlaciones parciales entre las variables son pequeñas (% de varianza en mis variables generada por esos factores) . La prueba de esfericidad de Bartlett me indica si mis variables están relacionadas o no. Gráfico de sedimentación: varianza asociada a cada factor. Típicamente muestra la clara ruptura entre la pronunciada pendiente de los factores más importantes y el descenso gradual de los restantes (los sedimentos). ,000 Sig. 10 gl 64,101 Chi-cuadrado aproximado Prueba de esfericidad de Bartlett ,752 Medida de adecuación muestral de Kaiser-Meyer-Olkin. ,852 PRETEST dolor MM.SS. ,555 PRETEST dolor MM.II. ,589 PRETEST dolor columna lumbar ,773 PRETEST dolor columna dorsal ,771 PRETEST dolor cabeza-cuello 1 Componente
    17. 17. ESTADÍSTICA DESCRIPTIVA UNIVARIANTE
    18. 18. <ul><li>Una distribución de frecuencias consiste en presentar deforma ordenada todos los valores que contiene la variable objeto de estudio, así como la frecuencia con que aparecen </li></ul><ul><li>En el SPSS: </li></ul>ESTADÍSTICA DESCRIPTIVA Analizar/ Estadísticos descriptivos/ Frecuencias
    19. 19. <ul><li>Una serie de datos quedan perfectamente definidos si se dan sus tablas de frecuencias o se realizan unas representaciones gráficas adecuadas . </li></ul><ul><li>A veces es más simple y suficientemente representativo obtener unas medidas que los resuma . </li></ul><ul><li>A tales medidas se les denomina medidas de distribución de frecuencias. </li></ul><ul><ul><li>medidas de tendencia central, </li></ul></ul><ul><ul><li>medidas de posición, </li></ul></ul><ul><ul><li>medidas de dispersión y </li></ul></ul><ul><ul><li>medidas de forma. </li></ul></ul>ESTADÍSTICA DESCRIPTIVA
    20. 20. ESTADÍSTICA DESCRIPTIVA <ul><li>MEDIDAS DE </li></ul><ul><li>TENDENCIA </li></ul><ul><li>CENTRAL </li></ul><ul><li>Media </li></ul><ul><li>Mediana </li></ul><ul><li>Moda </li></ul><ul><li>MEDIDAS DE </li></ul><ul><li>DISPERSIÓN o </li></ul><ul><li>VARIABILIDAD </li></ul><ul><li>Desviación típica </li></ul><ul><li>Varianza </li></ul><ul><li>Amplitud </li></ul><ul><li>MEDIDAS </li></ul><ul><li>DE FORMA </li></ul><ul><li>Asimetría </li></ul><ul><li>Curtosis </li></ul>Analizar/ Estadísticos descriptivos/ Frecuencias Analizar/ Estadísticos descriptivos/ Descriptivos Analizar/ Estadísticos descriptivos/ Explorar <ul><li>MEDIDAS DE </li></ul><ul><li>POSICIÓN </li></ul><ul><li>Mediana </li></ul><ul><li>Cuartiles </li></ul><ul><li>Deciles </li></ul><ul><li>Centiles </li></ul><ul><li>Percentiles </li></ul>
    21. 21. MEDIDAS DE TENDENCIA CENTRAL <ul><li>MEDIA: se define como el valor obtenido como resultado de sumar todas las puntuaciones y dividir por el número de las mismas. </li></ul><ul><li>Para su cálculo, los datos han de estar medidos, al menos, en una escala de intervalo. </li></ul><ul><li>Solo para variables cuantitativas. </li></ul>
    22. 22. MEDIDAS DE TENDENCIA CENTRAL <ul><li>MEDIANA: es el valor perteneciente o no a la muestra que divide en dos partes iguales un conjunto de puntuaciones. </li></ul><ul><li>Deja tantas observaciones por debajo como por encima de él. </li></ul><ul><li>Es el percentil 50 </li></ul><ul><li>Su cálculo es posible cuando los datos se miden en escala ordinal, al menos (variables cuantitativas). </li></ul><ul><li>La mediana en un número de datos impar, corresponde al valore central . </li></ul><ul><li>Cuando el número de observaciones es par, la mediana es el promedio de las dos observaciones centrales. </li></ul><ul><li>La mediana es una medida de tendencia central que </li></ul><ul><li>no es sensible a los valores atípicos (a diferencia de la </li></ul><ul><li>media). </li></ul>
    23. 23. MEDIDAS DE TENDENCIA CENTRAL <ul><li>MODA: es el valor que más se repite dentro de un conjunto de puntuaciones. </li></ul><ul><li>Valor con mayor frecuencia absoluta. </li></ul><ul><li>Si varios valores comparten la mayor frecuencia de aparición, cada una de ellas es una moda. </li></ul><ul><li>SPSS da la + pequeña de esas modas múltiples. </li></ul><ul><li>Se calcula con cualquiera de los </li></ul><ul><li>niveles de medida (variables cuali- </li></ul><ul><li>tativas o cuantitativas). </li></ul>
    24. 24. MEDIDAS DE TENDENCIA CENTRAL <ul><li>Suma: es la suma o total de todos los valores, a lo largo de todos los casos que no tengan valores perdidos . </li></ul>
    25. 25. MEDIDAS DE TENDENCIA CENTRAL <ul><li>La mediana es menos sensible que la media a la variación de las observaciones muestrales . </li></ul><ul><li>La media está muy influenciada por observaciones muy grandes o muy pequeñas con relación a las restantes que componen la muestra, y sin embargo la mediana no. </li></ul><ul><li>La mediana es el fundamento de diversas técnicas estadísticas, pero el número de estas es mucho menor que el de las técnicas basadas en la media . </li></ul><ul><li>La mediana es más recomendable que la media cuando la distribución de frecuencias es muy asimétrica, es decir, cuando existen una o muy pocas observaciones en uno de los extremos. </li></ul><ul><li>La media no debe ser calculada cuando las observaciones no sean numéricas. </li></ul><ul><li>La moda tiene el inconveniente de no ser necesariamente única. </li></ul><ul><li>En el caso de variables cualitativas y dado que este tipo de datos no permite el cálculo ni de la media ni de la mediana, el cálculo de la moda es forzoso. </li></ul><ul><li>Las unidades en que vienen expresadas la media, mediana y moda corresponden a las de la variables en estudio. </li></ul>
    26. 26. MEDIDAS DE DISPERSIÓN <ul><li>DESVIACIÓN TÍPICA: es la raíz cuadrada de la varianza. </li></ul><ul><li>VARIANZA: suma de los cuadrados de las desviaciones respecto a la media dividida por el número de casos menos 1 . </li></ul><ul><li>Es el promedio de las desviaciones de las </li></ul><ul><li>puntuaciones respecto a la media aritmética. </li></ul>Ejemplo: podemos obtener una media de 5 con los siguientes datos: 5,6,4,5,5. Pero tb con: 10,5,1,2,7. en el segundo caso diremos que hay mayor variabilidad. ¿pero como podemos medir la variabilidad? Analizar/ Estadísticos descriptivos/ Frecuencias Analizar/ Estadísticos descriptivos/ Descriptivos Analizar/ Estadísticos descriptivos/ Explorar Indican si los valores de las observaciones (si los valores de las modalidades de un carácter) se encuentran muy próximas entre sí o muy dispersas .
    27. 27. MEDIDAS DE DISPERSIÓN <ul><li>AMPLITUD: es la diferencia entre el valor máximo y el mínimo de un conjunto de puntuaciones . </li></ul><ul><li>Mínimo. Valor más pequeño de una variable numérica . </li></ul><ul><li>Máximo. El mayor valor de una variable numérica . </li></ul><ul><li>Error Típico de la media. Medida de cuánto puede variar el valor de la media de una muestra a otra, extraídas éstas de la misma distribución . </li></ul>Analizar/ Estadísticos descriptivos/ Frecuencias Analizar/ Estadísticos descriptivos/ Descriptivos Analizar/ Estadísticos descriptivos/ Explorar
    28. 28. MEDIDAS DE DISPERSIÓN <ul><li>Todas las medidas de dispersión son siempre positivas . </li></ul><ul><li>Todas las medidas de dispersión se anulan cuando todas las observaciones muestrales son idénticas. </li></ul><ul><li>La amplitud presenta el inconveniente de utilizar únicamente dos observaciones: las dos más extremas. </li></ul><ul><li>La varianza tiene el inconveniente de tener como unidades las de la variable original al cuadrado. Esta es la razón por la que se emplea la desviación típica . </li></ul><ul><li>La varianza y la desviación típica son muy sensibles a la variación de cada una de las observaciones, ya que su valor depende de todos y cada uno de los valores de los datos obtenidos en la muestra . </li></ul><ul><li>La varianza y la desviación típica son fundamentos de muchas técnicas estadísticas . </li></ul><ul><li>No se recomienda el uso de la varianza o de la desviación típica en aquellos casos en los que no se recomiende el uso de la media como medida de tendencia central . </li></ul>
    29. 29. MEDIDAS DE FORMA <ul><li>Estas medidas nos informan sobre la distribución de las puntuaciones </li></ul><ul><li>Describen la forma y la simetría de mi distribución de datos. </li></ul><ul><li>Dos medidas: ( asimetría y curtosis) </li></ul><ul><ul><li>ASIMETRÍA : </li></ul></ul><ul><ul><ul><li>Si valores de media, mediana y moda coinciden  distribución simétrica </li></ul></ul></ul><ul><ul><ul><li>Cuando se alejan hacia la izda  asimetría negativa </li></ul></ul></ul><ul><ul><ul><li>Hacia la dcha  asimetría positiva </li></ul></ul></ul>Analizar/ Estadísticos descriptivos/ Frecuencias Analizar/ Estadísticos descriptivos/ Descriptivos Analizar/ Estadísticos descriptivos/ Explorar
    30. 30. MEDIDAS DE FORMA <ul><li>ASIMETRÍA : </li></ul><ul><ul><ul><li>Una distribución que tenga una asimetría positiva significativa tiene una cola derecha larga . </li></ul></ul></ul><ul><ul><ul><li>Una distribución que tenga una asimetría negativa significativa tiene una cola izquierda larga . </li></ul></ul></ul><ul><ul><ul><li>Un valor de la asimetría mayor que el doble de su error típico se asume que indica una desviación de la simetría . </li></ul></ul></ul><ul><ul><ul><li>Cuando al trazar una vertical, en el diagrama de barras o histograma, de una variable (discreta o continua) por la media, esta vertical es el eje de simetría, la distribución es simétrica . </li></ul></ul></ul><ul><ul><ul><li>Simétrica, cuando a ambos lados de la media aritmética haya el mismo nº de valores de la variable, equidistantes de dicha media dos a dos, y tales que cada par de valores equidistantes tiene la misma frecuencia absoluta. </li></ul></ul></ul>
    31. 31. MEDIDAS DE FORMA <ul><li>Cálculo de la ASIMETRÍA : </li></ul><ul><ul><ul><li>coeficiente de FISHER ( g 1 ): </li></ul></ul></ul><ul><ul><ul><ul><li>Si g 1 > 0  la distribución será asimétrica positiva o a derechas (desplazada hacia la derecha). </li></ul></ul></ul></ul><ul><ul><ul><ul><li>Si g 1 < 0  la distribución será asimétrica negativa o a izquierdas (desplazada hacia la izquierda).   </li></ul></ul></ul></ul><ul><ul><ul><ul><li>Si g 1 = 0  la distribución será simétrica . </li></ul></ul></ul></ul><ul><ul><ul><li>coeficiente de PEARSON (Ap): </li></ul></ul></ul><ul><ul><ul><ul><li>solo es cierto cuando la distribución </li></ul></ul></ul></ul><ul><ul><ul><ul><li>tiene las siguientes condiciones: Unimodal, </li></ul></ul></ul></ul><ul><ul><ul><ul><li>campaniforme y moderada o ligeramente asimetrica. </li></ul></ul></ul></ul>
    32. 32. MEDIDAS DE FORMA <ul><li>CURTOSIS : </li></ul><ul><ul><li>Medida del grado en que las observaciones están agrupadas en torno al punto central </li></ul></ul><ul><ul><li>Nos indica el apuntamiento o escarpamiento de la distribución de puntuaciones. </li></ul></ul>Analizar/ Estadísticos descriptivos/ Frecuencias o Analizar/ Estadísticos descriptivos/ Descriptivos Analizar/ Estadísticos descriptivos/ Explorar
    33. 33. MEDIDAS DE POSICIÓN <ul><li>Estas medidas nos informan de la situación de una puntuación respecto al grupo en el que se encuentra incluído. </li></ul><ul><ul><li>Mediana : es tb una medida de tendencia central, aquí divide la distribución de la variable en dos partes iguales. </li></ul></ul><ul><ul><li>Cuartiles: son los 3 valores que divide en 4 partes idénticas el conjunto de puntuaciones </li></ul></ul><ul><ul><li>Deciles : son los 9 valores que divide en 10 partes idénticas el conjunto de puntuaciones </li></ul></ul><ul><ul><li>Centiles: es dividir la distribución de la variable en 100 partes iguales </li></ul></ul><ul><ul><li>99 valores, pertenecientes o no a la distibución de datos, que dividen a esta en 100 partes iguales . </li></ul></ul><ul><ul><li>Percentiles: es asignar a un valor de la variable el porcentaje de individuos que deja por debajo de él. </li></ul></ul><ul><li>Tales medidas son información de las m ésimas (por ciento, décimas y cuartas) partes del total de puntuaciones del grupo. </li></ul>
    34. 34. MEDIDAS DE POSICIÓN Analizar/ Estadísticos descriptivos/ Frecuencias Analizar/ Estadísticos descriptivos/ Explorar
    35. 35. MEDIDAS DE POSICIÓN Analizar/ Estadísticos descriptivos/ Frecuencias
    36. 36. LA DISTRIBUCIÓN NORMAL &quot;Campana de Gauss&quot; Abraham de Moivre (1667-1754) Carl Friedrich Gauss (1777-1855)
    37. 37. PROPIEDADES DE LA DISTRIBUCIÓN NORMAL <ul><li>Tiene una única moda, que coincide con su media y su mediana. </li></ul><ul><li>La curva normal es asintótica al eje de abscisas (área total bajo la curva es = 1) </li></ul><ul><li>Es simétrica con respecto a su media. </li></ul><ul><li>La distancia entre la línea trazada en la media y el punto de inflexión de la curva es igual a una desviación típica. </li></ul><ul><li>El área bajo la curva comprendido entre los valores situados aproximadamente a dos desviaciones estándar de la media es igual a 0,95. </li></ul><ul><li>La forma de la campana de Gauss depende de los parámetros: media y desviación típica </li></ul>
    38. 38. DISTRIBUCIÓN NORMAL ESTÁNDAR <ul><li>Corresponde a una distribución de media 0 y varianza 1. </li></ul>
    39. 39. CONTRASTE DE NORMALIDAD <ul><li>Determina si se ajusta a una normal o no (paramétrica o no paramétrica). </li></ul><ul><li>Esto determina el tipo de pruebas estadísticas a desarrollar, para establecer correlaciones o contrastar hipótesis que establezcan la existencia de una relación causa efecto. </li></ul><ul><li>Los coeficientes de asimetría de Fisher y de Pearson indican si una distribución se ajusta a una normal ( = 0). </li></ul><ul><li>Existen tres pruebas estadísticas que nos permiten determinar si una distribución de datos se ajusta a una normal o no: </li></ul><ul><ul><li>el test de Kolmogorov-Smirnov para una muestra (en el SPSS Analizar/ Pruebas no paramétricas/ K-S de 1 muestra) (variables cuantitativas). </li></ul></ul><ul><ul><li>El test de Kolmogorov-Smirnov con un nivel de significación de Lilliefors (en el SPSS Analizar/ Estadísticos descriptivos/ Explorar se abre un cuadro de diálogo en el que podemos meternos en la pestaña “gráficos”, una vez que entramos en gráficos marcamos la cuadrícula “Gráficos con pruebas de normalidad”). (variables cuantitativas). </li></ul></ul>
    40. 40. CONTRASTE DE NORMALIDAD <ul><li>Coeficiente de asimetría de Fisher </li></ul>Test de Kolmogorov-Smirnov Analizar/ Pruebas no paramétricas/ K-S de 1 muestra Las variables pretest, postest e índice de mejora no se distribuyen de forma normal. Tendremos que usar pruebas no paramétricas (aunque si el tamaño de la muestra es grande la “violación” de los supuestos paramétricos es tolerable. Sig. mayor de 0,05 se ajusta a la normal. Menor a 0,05 no se ajusta a la normal. Variables cuantitativas
    41. 41. CONTRASTE DE NORMALIDAD Test de Kolmogorov-Smirnov Analizar/ Pruebas no paramétricas/ K-S de 1 muestra La variable número de sesiones en todos los casos no se distribuyen de forma normal. Pero los grado I y grado II si se distribuyen de forma normal Variables cuantitativas
    42. 42. CONTRASTE DE NORMALIDAD Analizar/ Estadísticos descriptivos/ Explorar/ Gráficos/ Gráficps con prueba de normalidad Test de Kolmogorov-Smirnov con un nivel de significación de Lilliefors
    43. 43. CONTRASTE DE NORMALIDAD Test de Kolmogorov-Smirnov con un nivel de significación de Lilliefors Analizar/ Estadísticos descriptivos/ Explorar/ Gráficos/ Gráficps con prueba de normalidad
    44. 44. REPRESENTACIÓN GRÁFICA DE LA INFORMACIÓN
    45. 45. CONDICIONES GENERALES QUE DEBEN CUMPLIR <ul><li>Deben indicar claramente las escalas y unidades de medida. </li></ul><ul><li>Deben explicarse por sí solas. </li></ul><ul><li>Deben contribuir a clarificar el material presentado . </li></ul>
    46. 46. GRÁFICO DE SECTORES Y GRÁFICO DE BARRAS Analizar/ Estadísticos descriptivos/ Frecuecias/ Gráficos Se pueden emplear en variables cuantitativas, pero forzosamente en las cualitativas Gráfico de Sectores: Contribución de las partes a un todo (frecuencia o %). El ángulo central es proporcional a la frecuencia absoluta. Gráfico de Barras: muestra la frecuencia de cada valor como una barra diferente permitiendo comparar las categorías de forma visual (frecuencia o %).
    47. 47. HISTOGRAMA Representación de una variable cuantitativa que muestra la concentración relativa de los datos a lo largo de diferentes intervalos o secciones de la escala en la que están medidos dichos datos . Cuentan con barras, pero se representan a lo largo de una escala de intervalos iguales La altura de cada barra es el recuento de los valores que están dentro del intervalo para una variable cuantitativa . Los histogramas muestran la forma, el centro y la dispersión de la distribución. El histograma se construye sobre unos ejes de coordenadas . Se señalan en el eje horizontal los distintos extremos de los intervalos de clase, y en el eje vertical las frecuencias relativas partidas por las amplitudes de cada intervalo . A partir de esto se construyen rectángulos yuxtapuestos, cuyas bases son los diferentes intervalos de clase y cuya altura es el cociente de la frecuencia relativa entre la amplitud del intervalo .
    48. 48. POLÍGONO DE FRECUENCIAS El polígono de frecuencias resulta de la unión mediante una línea quebrada de los puntos medios de las bases superiores de los rectángulos de un histograma . No es aplicable a las variables cualitativas
    49. 49. CAJA Y BIGOTES En el diagrama de cajas y bigotes presentamos los percentiles recogidos, la mediana y los valores extremos. La caja central registra los valores comprendidos entre los percentiles del 25 (borde inferior de la caja) al 75 (borde superior de la caja). La línea negra que viene remarcada se corresponde con el percentil 50 o mediana. Los bigotes representan los casos máximo y mínimo. (ojo cuando aparezca un * no se corresponden con mínimo y máximo).
    50. 50. DIAGRAMA DE TALLO Y HOJAS Tallo Hojas
    51. 51. GRÁFICO DE NORMALIDAD
    52. 52. DIAGRAMA DE BARRAS AGRUPADAS Y BARRAS DE ERROR
    53. 53. GRÁFICO DE LÍNEAS Y DIAGRAMA DE DISPERSIÓN
    54. 54. DOS DIAGRAMAS DE LÍNEAS SUPERPUESTOS Y DIAGRAMA DE DISPERSIÓN (REGRESIÓN LOGÍSTICA)
    55. 55. ESTADÍSTICA DESCRIPTIVA BIVARIANTE
    56. 56. RELACIÓN ENTRE VARIABLES Y REGRESIÓN <ul><li>El establecimiento de la correlación supone el primer paso para predecir una variable a partir de la otra. </li></ul>Correlación positiva Correlación negativa Incorrelación Incorrelación 30 80 130 180 230 280 330 140 150 160 170 180 190 200
    57. 57. COEFICIENTES DE CORRELACIÓN <ul><li>Si las dos variables son: </li></ul><ul><ul><li>Distribuciones Paramétricas (de intervalo u ordinal): coeficiente de correlación de Pearson </li></ul></ul><ul><ul><li>Distribuciones No Paramétricas (de intervalo u ordinal) : coeficiente de correlación Spearman </li></ul></ul><ul><ul><li>Variables Nominales: coeficiente de contingencia </li></ul></ul>Analizar/ Estadísticos descriptivos/ Tablas de contingencia Analizar/ Correlaciones/ Bivariadas Analizar/ Correlaciones/ Bivariadas
    58. 58. COEF. CORREL. DE PEARSON (VARIABLES CUANTITATIVAS PARAMÉTRICAS) <ul><li>Medida de la asociación lineal entre dos variables . </li></ul><ul><li>Sus valores se encuentran comprendidos entre -1 y 1. </li></ul><ul><li>El signo del coeficiente indica la dirección de la relación y su valor absoluto indica la fuerza . </li></ul><ul><li>Los valores mayores indican que la relación es más estrecha . </li></ul><ul><li>Un valor positivo indica que a puntuaciones por encima de la media en una de las variables le corresponden puntuaciones también por encima de la media en la otra variable, y viceversa. </li></ul><ul><li>Un valor negativo señala que a puntuaciones por encima de la media en una de las variables le corresponden puntuaciones también por debajo de la media en la otra variable, y viceversa. </li></ul><ul><li>Un valor igual o cercano a cero indica que no existe relación lineal entre las variables, aunque puede existir cualquier otro tipo de relación no lineal. </li></ul>Analizar/ Correlaciones/ Bivariadas
    59. 59. COEF. CORREL. DE PEARSON (VARIABLES CUANTITATIVAS PARAMÉTRICAS) Analizar/ Correlaciones/ Bivariadas
    60. 60. COEF. CORREL. RHO DE SPEARMAN (VARIABLES CUANTITATIVAS NO PARAMÉTRICAS) <ul><li>Versión no paramétrica del coeficiente de correlación de Pearson </li></ul><ul><li>Se basa en los rangos de los datos en lugar de hacerlo en los valores reales . </li></ul><ul><li>Resulta apropiado para datos ordinales, o los de intervalo que no satisfagan el supuesto de normalidad . </li></ul><ul><li>El signo del coeficiente indica la dirección de la relación y el valor absoluto del coeficiente de correlación indica la fuerza de la relación entre las variables. </li></ul><ul><li>Los valores absolutos mayores indican que la relación es mayor . </li></ul><ul><li>Es el coeficiente de correlación de Pearson, pero aplicado después de transformar las puntuaciones originales en rangos. </li></ul><ul><li>Toma valores entre -1y 1, y se interpreta igual que el coeficiente de correlación de Pearson. </li></ul><ul><li>Se utiliza como alternativa al de Pearson cuando las variables estudiadas son ordinales y/o se incumple el supuesto de normalidad . </li></ul>Analizar/ Correlaciones/ Bivariadas
    61. 61. COEF. CORREL. RHO DE SPEARMAN (VARIABLES CUANTITATIVAS NO PARAMÉTRICAS) Analizar/ Correlaciones/ Bivariadas
    62. 62. TABLAS DE CONTIGENCIA <ul><li>Permiten establecer si existe correlación entre: </li></ul><ul><ul><li>Dos variables cualitativas nominales (dicotómicas etc). Cualquiera de las 2 puede ir en columnas o filas. </li></ul></ul><ul><ul><li>Dos variables cualitativas ordinales. Cualquiera de las 2 puede ir en columnas o filas. </li></ul></ul><ul><ul><li>Una variable cuantitativa y otra nominal. Mejor poner la cuantitativa en las filas y la cualitativa en las columnas. </li></ul></ul><ul><li>Entramos en el SPSS EN Analizar/ Estadísticos descriptivos/ Tablas de Contingencia. En el cuadro de diálogo que se abre seleccionamos la variable que queremos que vaya en las columnas y cual en las filas. Después entramos en la pestaña estadísticos que nos permite 3 opciones fundamentalmente. </li></ul>
    63. 63. TABLAS DE CONTIGENCIA <ul><li>Permite obtener el estadístico Chi-cuadrado. </li></ul><ul><li>Permite obtener correlaciones (coeficiente de correlación de Pearson o Rho de Spearman). </li></ul><ul><li>En el caso de comparar DOS VARIABLES NOMINALES pedimos el coeficiente de contingencia. </li></ul><ul><ul><li>Medida de asociación basada en chi-cuadrado . </li></ul></ul><ul><ul><li>El valor siempre está comprendido entre 0 y 1 (también puede ser negativo) . </li></ul></ul><ul><ul><li>El valor 0 indica que no hay asociación entre las variables. </li></ul></ul><ul><ul><li>Valores cercanos a 1 indican que hay gran relación entre las variables. </li></ul></ul>
    64. 64. TABLAS DE CONTIGENCIA (CORRELACIONANDO DOS VARIABLES NOMINALES) <ul><li>Ejemplo: matriz faltar a clase (si o no) según sexo (26 hombres frente a 26 mujeres). </li></ul>
    65. 65. TABLAS DE CONTIGENCIA (CORRELACIONANDO DOS VARIABLES ORDINALES) <ul><li>En el caso de comparar dos variables ordinales pedimos en Analizar/ Estadísticos descriptivos/ Tablas de Contingencia/ Estadísticos “ordinal” el coeficiente Gamma. </li></ul><ul><ul><li>Gamma es una medida de asociación simétrica entre dos variables ordinales cuyo valor siempre está comprendido entre -1 y 1 . </li></ul></ul><ul><ul><li>Los valores próximos a 1, en valor absoluto, indican una fuerte relación entre las dos variables . </li></ul></ul><ul><ul><li>Los valores próximos a cero indican que hay poca o ninguna relación entre las dos variables. </li></ul></ul>
    66. 66. TABLAS DE CONTIGENCIA (CORRELACIONANDO DOS VARIABLES ORDINALES) <ul><li>Ejemplo: matriz ingresos (ninguno, escasos, moderados o elevados) según edad del sujeto (niño, adolescente, joven, adulto joven, adulto mediana edad). </li></ul>
    67. 67. TABLAS DE CONTIGENCIA (CORRELACIONANDO DOS VARIABLES ORDINALES) <ul><li>Ejemplo: matriz ingresos (ninguno, escasos, moderados o elevados) según edad del sujeto (niño, adolescente, joven, adulto joven, adulto mediana edad). </li></ul>
    68. 68. TABLAS DE CONTIGENCIA (CORRELACIONANDO UNA VARIABLE CUANTITATIVA CONTINUA O VARIABLE DE INTERVALO CON UNA VARIABLE CUALITATIVA NOMINAL) <ul><li>Cuando una variable es categórica y la otra es cuantitativa empleamos el estadístico “Eta”. </li></ul><ul><li>La variable categórica debe codificarse numéricamente. </li></ul><ul><li>Eta. Medida de asociación cuyo valor siempre está comprendido entre 0 y 1. </li></ul><ul><li>El valor 0 indica que no hay asociación entre la variable de fila (la cuantitativa) y de columna (la cualitativa nominal). </li></ul><ul><li>Los valores cercanos a 1 indican que hay gran relación entre las variables. </li></ul><ul><li>Se calculan dos valores de eta: uno trata la variable de las columnas como una variable de intervalo; el otro trata la variable de las filas como una variable de intervalo. </li></ul>
    69. 69. TABLAS DE CONTIGENCIA (CORRELACIONANDO UNA VARIABLE CUANTITATIVA CONTINUA O VARIABLE DE INTERVALO CON UNA VARIABLE CUALITATIVA NOMINAL) <ul><li>Ejemplo: matriz piernas (relación entre el ángulo tibio-tarsiano anterior con el suelo o ángulo Rebollo y la longitud del miembro inferior medida como variable nominal dicotómica: pierna corta o larga) . </li></ul>
    70. 70. TABLAS DE CONTIGENCIA <ul><li>Las Tablas de Contingencia, además de todo lo anterior, nos permiten obtener otros muchos estadísticos, entre ellos el ÍNDICE KAPPA DE COHEN que ya hemos comentado y que nos permite calcular la FIABILIDAD DE LA MEDICIÓN DE UNA VARIABLE CUALITATIVA . </li></ul>
    71. 71. ESTADÍSTICA INFERENCIAL
    72. 72. HIPÓTESIS ESTADÍSTICAS <ul><li>Cuando investigamos, buscamos generalizar los resultados, lo cual va a ser posible con la estadística inferencial. </li></ul><ul><li>Partimos de hipótesis científicas , que son traducidas a hipótesis estadísticas. </li></ul><ul><li>Las hipótesis estadísticas son PROPOSICIONES ACERCA de parámetros de la población, tales como la media , varianza, correlación, etc. </li></ul><ul><li>Dos tipos de hipótesis estadísticas: </li></ul><ul><ul><li>Hipótesis nula (H 0 ): generalmente supone la negación de la hipótesis de contraste. </li></ul></ul><ul><ul><li>Hipótesis alternativa (H 1 ): supone la afirmación de la hipótesis que deseamos someter a contraste. </li></ul></ul>Por ejemplo: Los ingresos del hombre (IH) son > que los de la mujer (IM) H 0  IH ≤ IM H 1  IH > IM
    73. 73. DECISIÓN ESTADÍSTICA <ul><li>Basándonos en la distribución muestral del estadístico de contraste podemos conocer cuál es el valor esperado para esa distribución bajo la hipótesis nula. En consecuencia, compararíamos nuestro valor observado con el esperado para decidir si rechazamos o no la hipótesis nula. </li></ul><ul><ul><li>Región de rechazo: región formada por los valores que se alejan del valor esperado bajo H 0 . </li></ul></ul><ul><ul><li>Región de aceptación: región formada por los valores que no se alejan tanto del valor esperado bajo H 0. </li></ul></ul><ul><ul><li>Valores críticos: valores del estadístico de contraste que delimitan la región del rechazo </li></ul></ul>
    74. 74. <ul><li>Contraste bilateral: cuando los valores se alejan de lo esperado bajo H 0 , por ser muy grandes y por ser muy pequeños. </li></ul><ul><li>Contraste unilateral: cuando los valores se alejan de lo esperado bajo H 0 , solo por ser muy grandes o sólo por ser muy pequeños. </li></ul><ul><li>Nivel de significación: probabilidad de que una muestra genere un valor del estadístico de contraste que esté dentro de la región de rechazo . </li></ul><ul><li>Nivel de confianza: probabilidad de que una muestra genere un valor del estadístico de contraste que esté fuera de la región de rechazo, es decir que esté dentro de la región de aceptación (1- α ). </li></ul>DECISIÓN ESTADÍSTICA
    75. 75. DECISIÓN ESTADÍSTICA <ul><li>Cuatro situaciones posibles al realizar un test de hipótesis: </li></ul>Acierto (Potencia Ө ) Error α O De Tipo I Rechazo H 0 Acepto H 1 Error β O De Tipo II Acierto Acepto H 0 Rechazo H 1 Decisión que toma el investigador H 0 Falso H 1 verdadero H 0 verdadero H 1 Falso Realidad
    76. 76. DECISIÓN ESTADÍSTICA Error α : Probabilidad de aceptar H 1 siendo falsa. Error β : Probabilidad de aceptar la H 0 siendo falsa. Ejemplo: realizo un test para saber si los sujetos de la muestra padecen una patología determinada. H 0 : No padecer la enfermedad. H 1 : Padecer la enfermedad. Error α probabilidad de que el test de positivo y el paciente realmente no tenga la enfermedad. Es lo que denominamos FALSO POSITIVO. Al valor 1- α se le denomina NIVEL DE CONFIANZA. Error β , el test me ha dado negativo y el paciente padece realmente la enfermedad. Es lo que denominamos FALSO NEGATIVO. Al valor 1- β se le denomina “POTENCIA DEL CONTRASTE”.
    77. 77. PROCESO DE DECISIÓN ESTADÍSTICA <ul><li>Formular hipótesis nula (H 0 ) y alternativa (H 1 ) </li></ul><ul><li>Fijar el nivel de significación (0,05 o 0,01) </li></ul><ul><li>Elegir el estadístico adecuado de contraste (t-student ...) </li></ul><ul><li>Determinar el valor del estadístico de contraste </li></ul><ul><li>Comprobar si el valor observado este dentro de la región de aceptación (es decir que es < o > que α o lo que es lo mismo que este por encima o por debajo del nivel de significación 1- α ). </li></ul><ul><li>Decidir si se rechaza o se mantiene la H 0 (si me sale 0,02 acepto la H 1 y rechazo la H 0 ). </li></ul><ul><li>Interpretar el resultado de acuerdo con el problema </li></ul>
    78. 78. NIVEL DE SIGNIFICACIÓN <ul><li>NIVEL DE SIGNIFICACIÓN  “p” </li></ul><ul><li>El nivel de significación fija el límite máximo que puede tomar esta “p”, mientras que el grado de significación es la probabilidad (el %) exacta de que habiendo aparecido estos valores sea cierta la H 0 </li></ul>
    79. 79. ¿PRUEBA PARAMÉTRICA O NO PARAMÉTRICA? SUPUESTOS PARAMÉTRICOS <ul><li>Pruebas paramétricas: referidas a parámetros poblacionales. SIGUEN LA NORMAL. </li></ul><ul><li>Pruebas no paramétricas: no hacen ningún supuesto acerca de la forma en la que fue extraída la muestra de la población. NO SIGUEN LA NORMAL. </li></ul><ul><li>SUPUESTOS PARAMÉTRICOS: </li></ul><ul><li>Las variables han de ser CUANTITATIVAS continuas o discretas, medidas, al menos, en una escala de intervalo. </li></ul><ul><li>La muestra procede de una población en la que las variables SIGUEN una distribución NORMAL. </li></ul><ul><li>Se cumple la homocedasticidad de varianzas (es decir IGUALDAD DE VARIANZAS). </li></ul><ul><li>La MUESTRA tiene un tamaño GRANDE (≥ 30) </li></ul>
    80. 80. ¿PRUEBA PARAMÉTRICA O NO PARAMÉTRICA? SUPUESTOS PARAMÉTRICOS <ul><li>SUPUESTOS PARAMÉTRICOS: </li></ul><ul><li>5. Las observaciones son independientes entre sí. </li></ul><ul><li>La selección de un caso cualquiera de la población con miras a incluirlo en la muestra no debe afectar a las posibilidades de incluir a cualquier otro caso, y la puntuación que se asigne a un caso cualquiera no debe influir en la puntuación que se asigne a cualquier otro caso. </li></ul>
    81. 81. ¿PRUEBA PARAMÉTRICA O NO PARAMÉTRICA? <ul><li>Las pruebas estadísticas de carácter PARAMÉTRICO son MÁS PODEROSAS para rechazar la cuando H 0 debe ser rechazada. </li></ul><ul><li>Las PRUEBAS NO PARAMÉTRICAS son menos poderosas para rechazar la cuando H 0 debe ser rechazada, pero ofrecen la ventaja de que NO TIENEN QUE CUMPLIRSE TODOS LOS SUPUESTOS PARAMÉTRICOS. </li></ul><ul><li>Las variables cuantitativas pueden ser paramétricas o no paramétricas. </li></ul><ul><li>Las variables cualitativas difícilmente pueden ser paramétricas. </li></ul>
    82. 82. <ul><li>Prueba T de Student </li></ul><ul><ul><li>Para una muestra </li></ul></ul><ul><ul><li>Para muestras independientes </li></ul></ul><ul><ul><li>Para muestras relacionadas </li></ul></ul><ul><li>ANOVA de un factor </li></ul>PRUEBAS PARAMÉTRICAS Analizar/ Comparar medias/ …
    83. 83. <ul><li>El procedimiento Prueba T para una muestra contrasta si la media de una sola variable difiere de una constante especificada. </li></ul><ul><li>Ejemplos. Un investigador desea comprobar si la puntuación media del coeficiente intelectual de un grupo de alumnos difiere de 100. </li></ul><ul><li>O bien, un fabricante de copos de cereales puede tomar una muestra de envases de la línea de producción y comprobar si el peso medio de las muestras difiere de 1 Kg con un nivel de confianza al 95%. </li></ul>Prueba T de Student para una muestra Analizar/ Comparar medias/ Prueba T para una muestra
    84. 84. <ul><li>Ejemplo: comparo si el número de sesiones que reciben los sujetos difiere de 9. </li></ul>Prueba T de Student para una muestra Analizar/ Comparar medias/ Prueba T para una muestra
    85. 85. <ul><li>La Prueba T para muestras independientes compara las medias de dos grupos de casos de una variable . </li></ul><ul><li>L os sujetos deben asignarse aleatoriamente a dos grupos, de forma que cualquier diferencia en la respuesta sea debida al tratamiento (o falta de tratamiento) y no a otros factores . </li></ul><ul><li>Este caso no ocurre si se comparan los ingresos medios para hombres y mujeres . El sexo de una persona no se asigna aleatoriamente . </li></ul><ul><li>Debemos asegurarse de que las diferencias en otros factores no enmascaren o resalten una diferencia significativa entre las medias. Las diferencias de ingresos medios pueden estar sometidas a la influencia de factores como los estudios (y no solamente el sexo). </li></ul><ul><li>La prueba emplea una variable de agrupación con dos valores para separar los casos en dos grupos. </li></ul><ul><li>La variable de agrupación puede ser numérica (valores como 1 y 2, o 6,25 y 12,5) o de cadena corta (como sí y no) . También puede usar una variable cuantitativa, como la edad, para dividir los casos en dos grupos especificando un punto de corte (el punto de corte 21 divide la edad en un grupo de menos de 21 años y otro de más de 21) </li></ul>Prueba T de Student para muestras independientes Analizar/ Comparar medias/ Prueba T para muestras independientes
    86. 86. Prueba T de Student para muestras independientes <ul><li>Ejemplo: analizo el número de sesiones que son necesarias para que desaparezca el dolor al aplicar TENS continuo frente a TENS pulsátil. </li></ul>Analizar/ Comparar medias/ Prueba T para muestras independientes
    87. 87. Prueba T de Student para muestras relacionadas <ul><li>El procedimiento Prueba T para muestras relacionadas compara las medias de dos variables de un solo grupo . </li></ul><ul><li>El procedimiento calcula las diferencias entre los valores de las dos variables de cada caso y contrasta si la media difiere de 0. </li></ul><ul><li>Ejemplo. En un estudio sobre la efectividad analgésica de una corriente TENS, se evalúa el dolor (escala E.V.A.) a todos los pacientes al comienzo del estudio (PRETEST), se les aplica un tratamiento y se evalúa el dolor otra vez (POSTEST). </li></ul><ul><li>LAS DOS VARIABLES deben ser CUANTITATIVAS . </li></ul>Analizar/ Comparar medias/ Prueba T para muestras relacionadas
    88. 88. Prueba T de Student para muestras relacionadas Analizar/ Comparar medias/ Prueba T para muestras relacionadas
    89. 89. <ul><li>El procedimiento ANOVA de un factor genera un análisis de varianza de un factor para una variable dependiente cuantitativa respecto a una única variable de factor (la variable independiente). </li></ul><ul><li>El análisis de varianza se utiliza para contrastar la hipótesis de que varias medias son iguales. </li></ul><ul><li>Esta técnica es una extensión de la prueba t para dos muestras. </li></ul><ul><li>Además de determinar que existen diferencias entre las medias me dice qué medias difieren y cuanto difieren. </li></ul><ul><li>Dos contrastes: a priori y post hoc. </li></ul><ul><li>ESTA PRUEBA SE EMPLEA POR EJEMPLO PARA COMPARAR LA EFECTIVIDAD DE UN TRATAMIENTO CON DOS O MÁS MODALIDADES (UNA EN CADA UNO DE LOS GRUPOS 2 O +). En este caso Post Hoc. </li></ul>Prueba Anova de un factor Analizar/ Comparar medias/ Anova de un Factor
    90. 90. PRUEBAS NO PARAMÉTRICAS Analizar/ Pruebas no paramétricas/ … <ul><li>Prueba Chi-cuadrado: podría utilizarse para determinar si una bolsa de caramelos contiene igual proporción caramelos de color azul, marrón, verde, naranja, rojo y amarillo o también podría utilizarse para ver si una bolsa de caramelos contiene un 5% de color azul, un 30% de color marrón, un 10% de color verde, un 20% de color naranja, un 15% de color rojo y un 15% de color amarillo . </li></ul><ul><li>Prueba Binomial : compara las frecuencias observadas de las dos categorías de una variable dicotómica con las frecuencias esperadas en una distribución binomial con un parámetro de probabilidad especificado. Ejemplo: lanzo una moneda al aire 40 veces y anoto los resultados (cara o cruz). Debería haberme salido 50% cara y 50% cruz, pero me ha salido 25% cara y 75% cruz. Al hacer la prueba binomial me sale que no hay significación, es decir que la moneda está trucada. </li></ul><ul><li>Prueba de Rachas: contrasta si es aleatorio el orden de aparición de dos valores de una variable . Una racha es una secuencia de observaciones similares . Una muestra con un número excesivamente grande o excesivamente pequeño de rachas sugiere que la muestra no es aleatoria . Ejemplo encuesta en la que todo los sujetos son mujeres. </li></ul>
    91. 91. PRUEBAS NO PARAMÉTRICAS Analizar/ Pruebas no paramétricas/ … 4) Prueba de Kolmogorov-Smirnov para una muestra: compara si la distribución de una variable se ajusta a una distribución teórica determinada, que puede ser la NORMAL , la uniforme, la de Poisson o la exponencial . 5) Prueba para dos muestras independientes (U de Mann-Whitney): es la versión no paramétrica de la prueba T Student para muestras independientes (equivale a esta prueba). C ompara dos grupos de casos existentes en una variable . Por ejemplo: analizo la disminución del dolor al aplicar TENS continuo frente a TENS pulsátil. 6) Prueba para Varias muestras independientes. H de Kruskal-Wallis: es el análogo no paramétrico del análisis de varianza (ANOVA) de un factor. Nos permite comparar la efectividad de un tratamiento con dos o más modalidades (una en cada uno de los grupos 2 o +).
    92. 92. PRUEBAS NO PARAMÉTRICAS Analizar/ Pruebas no paramétricas/ … 7) Prueba para Dos Muestras Relacionadas o Prueba de los Rangos con Signos de Wilcoxon, Prueba de McNemar ... etc.: es la análoga no paramétrica a la prueba T Student para muestras relacionadas . Podemos usar la prueba de WILCOXON PARA EVALUAR SI EL DOLOR DISMINUYE (PRETEST EN RELACIÓN AL POSTEST) AL APLICAR UN TRATAMIENTO. También podemos emplear l a PRUEBA DE MCNEMAR : prueba no paramétrica para DOS VARIABLES DICOTÓMICAS RELACIONADAS . Contrasta los cambios en las respuestas utilizando la distribución de chi-cuadrado. Es útil para detectar cambios en las respuestas debidas a la intervención experimental en los diseños del tipo &quot;antes-después&quot;. Para las tablas cuadradas de mayor orden se informa de la prueba de simetría de McNemar-Bowker. LA PRUEBA DE HOMOGENEIDAD MARGINAL es una prueba no paramétrica para DOS VARIABLES ORDINALES RELACIONADAS . Se trata de una extensión de la prueba de McNemar a partir de la respuesta binaria a las respuestas multinominales. Contrasta los cambios de respuesta, utilizando la distribución de chi-cuadrado, y es útil para detectar cambios de respuesta causados por intervención experimental en diseños antes-después.
    93. 93. PRUEBAS NO PARAMÉTRICAS Analizar/ Pruebas no paramétricas/ … 8) Prueba para Varias o K Muestras Relacionadas. Pruebas de Friedman y Prueba Q de Cochran. P rueba de Friedman es el equivalente no paramétrico de un diseño de medidas repetidas para una muestra o un análisis de varianza de dos factores con una observación por casilla. Las variables en este caso se medirán en una escala ordinal. Diferencias entre dos series de puntuaciones. Prueba Q de Cochran Contraste no paramétrico de la hipótesis de que varias variables dicotómicas relacionadas tienen la misma media. Las variables medirán al mismo individuo o a individuos emparejados . Las variables en este caso se medirán en una escala nominal u ordinal. Analizamos la existencia de diferencias entre dos series de puntuaciones.
    94. 94. PRUEBAS NO PARAMÉTRICAS Analizar/ Pruebas no paramétricas/ … Friedman Diferencias entre muestras Ordinal Cochran Diferencias entre dos series de puntuaciones Nominal u ordinal K muestras relacionadas Kruskal-Wallis Ordinal Chi-cuadrado Diferencias entre muestras Nominal K muestras independientes Wilcoxon (muestras relacionadas) Mann-Whitney (muestras independientes) Diferencias entre muestras Ordinal Dos muestras Kolmogorov-Smirnov La forma de distribución una variable (bondad de ajuste) intervalo Una muestra PRUEBA NO PARAMÉTRICA TIPO DE CONTRASTE ESCALA DE MEDIDA MUESTRAS
    95. 95. PRUEBAS PARA DOS MUESTRAS INDEPENDIENTES ¿Las medias de la VD son similares en los distintos valores de la VI? t-Student F del Anova t 2 = F VD Normal Homocedástica ¿Las medias de la VD son similares en los distintos valores de la VI? t o F de Welch VD Normal no Homocedástica ¿Los rangos de la VD se distribuyen de forma similar en los distintos valores de la VI? U de Mann-Whitney VD NO Normal Cuantitativa ¿Los rangos de la VD se distribuyen de forma similar en los distintos valores de la VI? U de Mann-Whitney Ordinal ¿La distribución de casos en las categorías de la VD cambia en función de los valores de la VI? χ 2 Chi-cuadrado Cualitativa VI cualitativa 2 muestras independientes Objetivos Pruebas Supuestos VD
    96. 96. CALCULANDO EL TAMAÑO DEL EFECTO 0,01 0,06 0,14 R 2 = F/(F+gl) Eta o R cuadrado F del Anova (F de Snedecor) 0,20 0,50 0,80 d = 2t/  gl Diferencia de medias estandarizada t de Student 0,10 0,30 0,50 r φ 2 = φ 2 = χ 2 /N Coeficiente de Contingencia Chi-cuadrado Peq Medio Grande Fórmula Medida Prueba
    97. 97. DATOS QUE DEBEMOS APORTAR EN UN INFORME Nota: si el contraste es a una cola hay que señalarlo indicando p (a una cola) = ... / Recordar que si el contraste es a una cola hay que dividir la p que me de entre 2 (en SPSS sale p=0,02 pongo p=0,01) Medias y desviaciones típicas de los distintos grupos F (gl1,gl2) = ... , p = ... , R 2 = ... F del Anova (F de Snedecor) Medias y desviaciones típicas de los distintos grupos t (gl) = ... , p = ... , d = ... t de Student Frecuencias o porcentajes de las categorías de una variable en función de las categorías de la otra χ 2 (gl,N = ...) = ... , p = ... , φ 2 = ... Chi-cuadrado Datos descriptivos Datos de la prueba Prueba
    98. 98. DATOS QUE DEBEMOS APORTAR EN UN INFORME El contraste general entre los dos tratamientos continuo y pulsátil, es decir, el análisis de los índices de mejora, comparando ambos tratamientos, empleando la prueba t-Student para muestras independientes (implementando realmente la prueba de Welch al no existir igualdad de varianzas y ser heterocedásticas ambas distribuciones de datos), así como la prueba U de Mann-Whitney muestra que existe una diferencia estadísticamente significativa entre ambos tratamientos, siendo mejor la pulsátil ( p < 0.05 ). Comprobamos en primer lugar la ausencia de diferencias significativas entre las varianzas de error del diseño, F Levene (1, 899) = 15,567 ( p = 0.000 ). El grupo tratado con corriente pulsátil (media 1,99 DT 0,60) obtuvo una disminución del dolor significativamente superior a la del grupo tratado con corriente continua (media 1,17 DT 0,37) t de Welch (648,831) = -23,674 p (a una cola) = 0.000 . Empleado para determinar el tamaño del efecto el programa effect size calculator (disponible en: http:// www . uccs . edu /~ faculty / lbecker / ) obteniendo d = 1,8588. Se trata de un valor de tamaño del efecto elevado, que refleja la importante diferencia existente a favor de la corriente pulsátil. Este valor también lo hemos obtenido al emplear la fórmula: d = 2t/√gl
    99. 99. DATOS QUE DEBEMOS APORTAR EN UN INFORME <ul><li>Comprobación del supuesto de homocedasticidad ( α = 0,05): </li></ul><ul><ul><li>Comprobamos en primer lugar la ausencia de diferencias significativas entre las varianzas de error del diseño, F Levene (1, 94) = 0,009 ( p = 0,923 ). </li></ul></ul><ul><li>Contrastes bidireccionales ( α = 0,05 ) con F y t: </li></ul><ul><ul><li>Se encontraron diferencias estadísticamente significativas en el número de sesiones efectuadas entre el grupo tratado con tens pulsátil (M = 8,35 DT = 3,605) y el tratado con tens continuo (M = 10,29 DT = 3,567) F (1,94) = 7,005, p = 0,010, R 2 = 0,069 [calculado R 2 =F/(F+gl)=7,005/(7,005+94)]. </li></ul></ul><ul><ul><li>Se encontraron diferencias estadísticamente significativas entre el grupo que recibió tens pulsátil (M = 8,35 DT = 3,605) y el que recibió tens continuo (M = 10,29 DT = 3,567) t(94) = 2,647, p = 0,010, d = 0,55. </li></ul></ul>
    100. 100. DATOS QUE DEBEMOS APORTAR EN UN INFORME <ul><li>Contrastes unidireccionales ( α = 0,05 ) con F y t: </li></ul><ul><ul><li>El grupo que recibió tens pulsátil (M = 8,35 DT = 3,605) obtuvo una media significativamente inferior a la del grupo que recibió tens continuo (M = 10,29 DT = 3,567) F (1,94) = 7,005, p (a una cola) = 0,005, R 2 = 0,069. </li></ul></ul><ul><ul><li>El grupo que recibió tens pulsátil (M = 8,35 DT = 3,605) obtuvo una media significativamente inferior a la del grupo que recibió tens continuo (M = 10,29 DT = 3,567) t(94) = 2,647, p (a una cola) = 0,005, d = 0,55. </li></ul></ul><ul><li>Contrastes bidireccionales ( α = 0,01 ) con F y t: </li></ul><ul><ul><li>Aunque el tamaño del efecto encontrado resultó moderado R 2 = 0,069 las diferencias entre los sujetos que recibieron tens pulsátil (M = 8,35 DT = 3,605) y los que recibieron tens continuo (M = 10,29 DT = 3,567) no resultaron significativas F (1,94) = 7,005, p = 0,010 </li></ul></ul><ul><ul><li>Aunque el tamaño del efecto encontrado resultó moderado d = 0,55 las diferencias entre los sujetos que recibieron tens pulsátil (M = 8,35 DT = 3,605) y los que recibieron tens continuo (M = 10,29 DT = 3,567) no resultaron significativas t(94) = 2,647, p = 0,010. </li></ul></ul>
    101. 101. DATOS QUE DEBEMOS APORTAR EN UN INFORME Tras un procedimiento de muestreo no probabilístico a conveniencia, nuestra muestra está conformada por un total de 44 individuos, con una edad media de 39,6818 años con una desviación típica (DT en adelante) de 5,97581 y los valores mínimos y máximos son 23 y 49 años. Las edades se distribuyen de forma normal cuando no consideramos el grupo de tratamiento. Estadístico de Shapiro-Wilk = 0,955 ( p = 0,081 ). Si consideramos cada grupo por separado la variable edad también se distribuye normalmente. Estadístico de Shapiro-Wilk para el grupo control = 0,934 ( p = 0,147 ). Estadístico de Shapiro-Wilk para el grupo experimental = 0,967 ( p = 0,633 ). Como el número de sujetos incluidos en cada grupo fue de 22 (por tanto inferior de 30) empleamos tanto pruebas de carácter paramétrico como no paramétrico para determinar la presencia/ausencia de sesgos en la distribución de edades de los sujetos en nuestros dos grupos. Los dos grupos son homogéneos en relación a la edad de los sujetos (grupo control media 39.8636 años DT=5.97053, grupo experimental media 39,5 y DT = 6,11594). No existe una diferencia significativa entre la edad de los dos grupos. Comprobamos en primer lugar la ausencia de diferencias significativas entre las varianzas de error del diseño, F Levene (1, 42) = 0,138 ( p = 0,712 ). El grupo control presenta una media de edad no significativamente superior a la del grupo experimental, con una t de Student (42) = 0,2 p (a una cola) = 0,843 . En el grupo control el rango promedio fue de 23,27 mientras que en el experimental fue 21,73 U de Mann-Whitney = 225 ( p = 0,689 ).
    102. 102. DATOS QUE DEBEMOS APORTAR EN UN INFORME De los 44 pacientes estudiados en nuestro ensayo 14 son varones lo que representa un 31,8%, mientras que 30 son mujeres (68,2%). Estos datos se muestran de forma gráfica en la figura xx. En el grupo control, al igual que en el experimental hemos incluido un total de 7 hombres (31,8%) y 15 mujeres (68,2%). Hemos comprobado, empleando la prueba Chi-cuadrado, que no hay un sesgo en la distribución por sexos de nuestros pacientes en los dos grupos analizados. La proporción de mujeres y de hombres incluidos en el grupo control frente al grupo experimental son iguales X 2 (1,44) = 0,000, p = 1,000.
    103. 103. INVESTIGACIONES EN SALUD Frenk,J. (Modificado por Toledo, G.) INVESTIGACION BIOMEDICA (Nivel subindividual) EN SISTEMAS DE SALUD INVESTIGACION EN SALUD PUBLICA (Nivel poblacional) INVESTIGACION CLINICA (Nivel individual) DESCRIPTIVAS EPIDEMIOLOGICA EN POLITICAS DE SALUD ORGANIZACION DE S. S. ( Nivel micro intraorganizacional) Estudios ecológicos EN SERVICOS DE SALUD POLITICA S DE SALUD ( Nivel macro o interorganizacional) E studios de mortalidad proporcional E studios de incidencia E studios de prevalencia ANALITICAS OBSERVACIONALES E ncuestas Transversales EXPERIMENTALES O DE INTERVENCION Estudios de Cohorte Estudios de Casos y controles ENSAYOS COMUNITARIOS ENSAYOS DE CAMPO ENSAYOS CLINICOS Clasificación de las investigaciones en Salud
    104. 104. Estudio observacional Estudio experimental ¿dirección? Estudio analítico Estudio descriptivo Estudio de cohorte Estudio de casos y controles Estudio de corte tranversal Ensayo clínico controlado aleatorizado Ensayo controlado no aleatorizado ¿asignación aleatoria? ¿grupo de comparación? ¿el investigador manipuló la exposición? Si No Si No Si No exposición efecto exposición efecto exposicion = efecto
    105. 105. Exposición Efecto Exposición Efecto Estudio de cohorte Estudio de caso-control Exposición Efecto Estudio de caso-control Tiempo Temporalidad de los estudios epidemiologicos

    ×