Estadística II (II Bimestre)
Upcoming SlideShare
Loading in...5
×
 

Estadística II (II Bimestre)

on

  • 30,663 views

Universidad Técnica Particular de Loja

Universidad Técnica Particular de Loja
Psicología
Estadística II
II Bimestre
Abril-Agosto 2007
Ponente: Ec. Miriam Guajala

Statistics

Views

Total Views
30,663
Views on SlideShare
30,388
Embed Views
275

Actions

Likes
3
Downloads
483
Comments
0

3 Embeds 275

http://vdmeducar.cl 207
http://www.slideshare.net 66
http://www.vdmeducar.cl 2

Accessibility

Categories

Upload Details

Uploaded via as Microsoft PowerPoint

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

Estadística II (II Bimestre) Estadística II (II Bimestre) Presentation Transcript

  • ESCUELA : PONENTE : BIMESTRE : ESTAD ÍSTICA II CICLO : PSICOLOGÍA II BIMESTRE Ec. Miriam Guajala ABRIL – AGOSTO 2007
  • PRUEBA DE T DE STUDENT PARA UNA MUESTRA
    • Pruebas de homogeneidad
      • Estudian si dos o más muestras que se diferencian en el valor de una característica proceden de poblaciones donde los parámetros que las definen son iguales.
      • Valoran si hay diferencias entre medias,varianzas,proporciones, etc.
        • Pruebas de homogeneidad de dos medias
        • Pruebas de homogeneidad de dos proporciones
    • 2 Muestras
      • 1: N 1 , x 1 S 2 1
      • 2: N 2 , x 2 S 2 2
    • 2 Poblaciones
      • 1:  1  1
      • 2:  2  2
    • Se desea contrastar las hipótesis :
      • Ho=  1 =  2 (  1 -  2 = 0)
      • H1= (  1   2 )
    Prueba de homogeneidad de dos medias
      • ¿Pertenecen a 2 poblaciones de igual media?
  • La t de student, es una prueba práctica, bastante poderosa ampliamente utilizada en las ciencias del comportamiento. Esta prueba es muy similar a la prueba Z y la diferencia radica en que Z utiliza la una desviación poblacional y la prueba t en cambio utiliza una desviación estándar muestra QUE ES LA PRUEBA T DE STUDENT?
  • FORMULAS
    • USO:
    • Probar hipótesis en experimentos con una sola muestra.
    • Estimar la media de la población al construir intervalos de confianza.
    • Probar la significancia de la r de Pearson.
    • PROBAR HIPOTESIS EN EXPERIMENTOS CON UNA SOLA MUESTRA.
    • La prueba t es adecuada cuando:
    • Se conoce la media poblacional de la Ho y se desconoce la
  • La distribución t, es una familia de curvas que varían con los grados de libertad asociados al cálculo de t. Existe N-1 grados de libertad asociados con la prueba t para una muestra. Las curvas de la distribución muestral son simétricas, con forma de campana y media = 0. La prueba t es adecuada cuando la distribución muestral de es normal. Para que la distribución muestral de sea normal, la población de datos debe poseer una distribución normal, o bien N<30
    • Intervalos de confianza: Rango de valores que probablemente, contengan al valor poblacional.
    • Límites de confianza: Valores que delimitan al intervalo de confianza.
    • Significacia de la r de Pearson: Nos permite examinar el valor de la muestra para ver si existe una correlación de la población.
  • GR Á FICAS
  • Tipos de pruebas t
    • Prueba t para una muestra: prueba si la media de la muestra de una variable difiere significativamente de la media conocida de la población
    • Prueba t no pareada o independiente: prueba si las medias estimadas de la población por 2 muestras independientes difieren significativamente (grupo de hombres y grupo de mujeres)
    • Prueba t pareada: prueba si la media estimada de la población por muestras dependientes difieren significativamente (media de pre y post-tratamiento para el mismo grupo de pacientes.
      • La fórmula para grupos independientes
        • x 1 - x 2
        • t =
        • S 2 1 /N 1 + S 2 2 /N 2
    Con un nº de grados de libertad de N 1 +N 2 -2
        • * Si t  t  ,N se acepta la hipótesis nula
        • * Si t > t  ,N se rechaza la hipótesis nula.
    Nº de datos que pueden variar independientemente para una determinada operación
    • Pruebas de independencia
      • Ver si en un estudio de 2 ó más variables, éstas relacionadas
      • Coeficiente de correlación de Pearson (r)
        • Designa la magnitud de la relación entre 2 variables
        • Sus valores absolutos oscilan entre 0 y 1.
          • La correlación es perfecta positiva si su valor es +1
          • La correlación es perfecta negativa si su valor es -1
          • La relación entre 2 variables x e y es positiva cuando al aumentar una, aumenta la otra y negativa cuando al disminuir una disminuye la otra
    • VARIANZA - PRUEBA F (ANOVA)
    • Es usada para descubrir el efecto principal y los efectos de interacción de variables categóricas independientes (llamados factores) sobre un intervalo de la variable dependiente
    • Tipos de anova
    • Anova de una forma prueba diferencias en un intervalo de la variable dependiente entre dos, tres o más grupos formados por las categorías de una variable categórica independiente.
    • Uno de las pruebas mas importantes que utiliza la varianza en la F, que básicamente es la razón de dos estimaciones independientes de la varianza de la misma poblacion.
    • Varian con los grados de libertad.
    • La distribución F:
    • Está sesgada positivamente
    • No tiene valores negativos
    • Posee una mediana aproximadamente igual a 1 según la n de las estimaciones.
    • La técnica del análisis de varianza se utiliza con los experimentos con más de dos grupos independientes.
    • Esta técnica permite comparar las medias de los distintos grupos en una sola evaluación y asi evita el aumento de probabilidad de cometer un error de tipo I.
    • Cuando hay igualdad de varianzas: única estimación de la varianza poblacional en la diferencia de medias.
      • Si F < F t : no existen diferencias en las varianzas
      • Se compara con la F t de la tabla, para (N-1) gº de libertad del numerador y denominador:
  •  
    • PRUEBA JI CUADRADO
    • Una de las técnicas de inferencia de uso más frecuente, para el análisis de datos nominales es la prueba no paramétrica llamada Ji – cuadrado. Es adecuada para el análisis de datos consistentes en frecuencias que provienen de una o dos variables.
    • Pruebas de homogeneidad de 2 proporciones (Prueba de χ 2)
      • χ 2 : Estadístico que indica, en general, la discrepancia entre ciertas frecuencias observadas (empíricas) de una variable cualitativa dividida en k categorías y la frecuencia teórica.
    • La Ji cuadrada mide, es esencia, la discrepancia entre la frecuencia observada y la frecuencia esperada, para cada una de las celdas en una tabla de doble entrada.
    • REQUERIMIENTOS
    • Datos deberán estar en forma de frecuencias
    • El total número de observaciones deberá exceder 20
    • Frecuencia esperada en una categoría o en cualquier celda deberá ser >5 (cuando un de las celdas tiene <5 observados se usa corrección de Yates o si tiene <5 de esperados se usa exacta de Fisher)
    • El grupo de comparación deberá ser aproximadamente igual.
    • Usada para probar la fuerza de asociación entre dos variables cualitativas
    • Usada para datos categóricos
        • Se compara el valor de χ 2 obtenido con el teórico que proporciona la tabla de su función de probabilidad:
          • Si χ 2 0 > χ 2 t , se rechaza Ho
          • Si χ 2 0  χ 2t , se acepta Ho.
        • Se obtiene el estadístico χ 2
    • El valor de χ 2 teórica depende de:
      • Nivel de significación α
      • Grados de libertad (k-1)(y-1)
        • k = nº de muestras
        • y = nº de categorías
      • Al trabajar con una tabla de contingencia tetracórica de 2 X 2 el nº de gº de libertad es 1
  • Frecuencias esperadas o teóricas Frecuencias observadas Sumando cada diferencia: χ 2 = N (a 1 b 2 – a 2 b 1 ) N 1 N 2 N A N B χ 2 N N 2 N 1 N B b 2 b 1 B N A a 2 a 1 A 2 1 N N 2 N 1 N B N 2 N B N N 1 N B N B N A N 2 N A N N 1 N A N A 2 1
  • Como seleccionar la prueba estadística adecuada
    • Tipo de variables
        • Cuantitativa (tensión arterial)
        • Cualitativa (género)
    • Tipos de preguntas de investigación
        • Asociación
        • Comparación
        • Factor de riesgo
    • Estructura de datos
            • Independientes
            • Dependientes
            • Pareados
  • Pregunta de investigación Asociación de 2 variables (dep, indep) Correlación Spearman Regresión lineal Cuantitativa Cuantitativa
    • Prueba T
    • +3 ANOVA
    categórica Cuantitativa Regresión logística cuantitativa categórica chi-cuadrada categórica categórica Prueba Tipos de variable Dependiente independiente
  • Buscando el factor de riesgo Regresión log lineal Cuantitativa Cuantitativa ANOVA Categórica Cuantitativa Regresión log múltiple Categórica Categórica Prueba Tipos de variable s Dependiente algunas indep.
  • DISTRIBUCI Ó N BINOMIAL
  • DISTRIBUCION BINOMIAL Distribución de probabilidad N ensayos 2 posibles resultados Mutuamente excluyentes Son independientes entre sí C/resultado posible es la misma
  • DESARROLLO BINOMIAL (P+Q) N De donde: P es la probabilidad de uno de los dos resultados posibles en un ensayo Q es la probabilidad del otro resultado posible N es el número de ensayos
  • USO DE TABLA BINOMIAL Sustituto del desarrollo binomial. Proporciona la distribución binomial para valores de N ( número de ensayo) hasta 20 en la primera columna y los resultados posibles están en la segunda columna, bajo el encabezado “Número de eventos P y Q. El resto de columnas contienen datos de probabilidad para diversos valores de P o Q
  • USO DE TABLA BINOMIAL Ejemplo: Si lanzo tres monedas que no están cargadas, una sola vez, ¿Cuál es la probabilidad de obtener 2 caras y una cruz? Suponga que cada moneda sólo puede caer en cara o en cruz. Datos. N= 3 (monedas) P= 2 (cara o cruz) p= 0.50
  • PRUEBA DE HIPÓTESIS
  • DISEÑO DE MEDIDAS REPETIDAS Característica Son la existencia de resultados pareados en las condiciones y la elaboración de un estudio que analiza la diferencia entre éstos.
  • HIPOTESIS ALTERNATIVA Afirma que la diferencia de resultados entre las condiciones se debe a la variable independiente. Direccional No direccional Cuando existe una buena base teórica y buena evidencia de apoyo literario Cuando el experimento es básico para determinar el hecho Evalúa con un valor de prob. De una cola Evalúa con un valor de prob. De dos colas
  • HIPOTESIS NULA Es la contraparte lógica de la alternativa, de modo que si la primera es falsa, la segunda debe ser verdadera. H1 no direccionada  H0 especifica que la Var. Ind. No influye sobre la Var. Dep. H1 direccionada  H0 establece que la Var. Ind. No influye sobre la Var. Dep. en la dirección dada
  • PEGLA DE DECISION Siempre evaluamos los resultados de un experimento evaluando la H0 porque podemos calcular la prob. De los eventos aleatorios. EVALUACION H0 es V y si esta es menor o igual al nivel alfa o nivel de probabilidad crítica  Rechazamos la Ho y aceptamos de manera indirecta la H1. Por lo tanto los resultados son significativos o confiables. Si la prob. Obtenido es mayor al nivel alfa, conservamos la Ho
  • ERROR DE TIPO I Y DE TIPO II ERROR TIPO I Rechazamos la H0 cuando esta es verdadera ERROR TIPO II No rechazamos la H0 cuando esta es falsa CONCLUSION Estado real Decisión H0 (V) H0 (F) Aceptar Ho Decisión Correcta Error Tipo II Rechazar H0 Error Tipo I Decisión Correcta
  • NIVEL ALFA Y EL PROCESO DE DECISION Nivel al cual desean limitar la probabilidad de cometer un Error Tipo I CONCLUSION Estado real Nivel Alfa Prob. Obt. Decisión H0 (V) H0 (F) 0.05 0.02 Aceptar Ho Decisión Correcta Error Tipo II 0.01 0.02 Rechazar H0 Error Tipo I Decisión Correcta
  • EVALUACION DE LA COLA DE LA DISTRIBUCION H1 no direccionada Evaluamos el resultado obtenido en ambas direcciones o colas. H1 direccionada Evaluamos solamente la cola de la distribución que está en la dirección dada por la H1 Necesitamos de Signos positivos y negativos y hemos de incluir de los resultados positivos los tantos o valores mas extremos.
  • EVALUACION DE LA COLA DE LA DISTRIBUCION Ejemplo. N= 10 y p=0.50 Signos positivos: 9 Tantos extremos: 0,1,9,10 Tabla B P(0,1,9,10)= p(0)+p(1)+p(9)+p(10) = 0.0010+0.0098+0.0098+0.0010 = 0.0216
  • EVALUACION DE PROBABILIDADES PARA UNA O DOS COLAS Nivel alfa. Determina si la evaluación de la probabilidad debe ser de una o dos colas. Regla. La evaluación debe ser siempre de dos colas, a menos que el experimentador conserve H0 cuando los resultados sean extremos en la dirección opuesta a la prevista.
  • DISTRIBUCIONES MUESTRALES
  • Todos los valores que se pueden asumir Distribución Muestral Conjunto real o teórico de datos si se realiza sobre toda la población y la variable independiente no tuviese efectos. Población de la hipótesis nula La probabilidad de obtener cada valor Una distribución muestral. Proporciona todos los valores que puede asumir un estadístico, junto con la probabilidad de obtener cada valor si el muestreo es aleatorio a partir de la población de hipótesis nula.
  • La prueba (Z) de la desviación normalizada Distribución muestral de la media Se utiliza cuando conocemos los parámetros de la población de la H0. Proporciona todos los valores que puede asumir la media, junto con la probabilidad de obtener cada valor si el muestreo es aleatorio a partir de la población de H0
  • Características de la dist. Muestral de la media a). Tiene una media y una desviación estándar. u x= es la media de la distribución muestral de la media G x= es la desviación estándar de la distribución muestral de la media. b). Tiene una media igual a la media poblacional de datos crudos. u x = u c) Tiene una desviación estándar igual a la desviación estándar poblacional de datos crudos, dividida entre la raíz cuadrada de N (ensayos o población) G x = G / N d) Presenta una forma normal que depende de cómo se distribuya la población de datos crudos y del tamaño de la muestra.
  •