Your SlideShare is downloading. ×
  • Like
Estadística ultimaparte
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×

Now you can save presentations on your phone or tablet

Available for both IPhone and Android

Text the download link to your phone

Standard text messaging rates apply

Estadística ultimaparte

  • 1,831 views
Published

 

Published in Education
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
    Be the first to like this
No Downloads

Views

Total Views
1,831
On SlideShare
0
From Embeds
0
Number of Embeds
0

Actions

Shares
Downloads
14
Comments
0
Likes
0

Embeds 0

No embeds

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. Muestreo Aleatorio y Probabilidad • En la estadística inferencial se pretende usar los datos de una muestra para hacer una afirmación acerca de una característica de la población. • Se hacen 2 afirmaciones: – Prueba de Hipótesis: se asegura o se descarta una afirmación sobre la variable a estudiar. – Estimación de Parámetros: se cuantifica alguna característica de la población. Muestreo Aleatorio • Una muestra debe ser aleatoria. Cualquier elemento introducido para elegir la muestra que no sea el azar, puede condicionar, tendenciar, sesgar la muestra. • Para ser aleatoria, debe reunir dos condiciones: – Cada muestra de un tamaño n tenga la misma probabilidad de ser elegida. – Todos los miembros de la muestra la misma probabilidad de quedar en la muestra.
  • 2. Técnicas de muestreo • Muestreo con reemplazo: cada miembro de la población elegida para la muestra, se regresa a la población, antes de elegir el siguiente miembro. • Muestreo sin reemplazo: cada miembro elegido de la población no retorna a la misma. Probabilidad • A priori: antes de realizar la prueba. • A posteriori: luego de la prueba. • p(A)= número de eventos clasificables como A Cantidad total de eventos posibles Ej: si tenemos un dado y lo arrojamos, cual es la probabilidad de que salga un 2? A= número de eventos “cara 2 del dado” p(A) = 1 = 0,1667 ( a priori ) 6
  • 3. Probabilidad • La probabilidad varía entre 0 y 1. 0 indica que no existe posibilidad alguna de que ocurra el evento y 1 indica la certeza de que ocurra. • Si se multiplica por 100, se halla en porcentaje. Ej: p(A) = 0,1667 16,67 % • A veces se expresa en términos de “a favor” o “en contra” de un evento. Ej: 3 a 1 a favor de …sería igual ¾ = 0,75 o 75 % Cálculo de la Probabilidad • La Suma: La probabilidad de ocurrencia de A o B es igual a la ocurrencia de A mas la probabilidad de que ocurra B menos la probabilidad de que ocurran A y B. – p(A o B)= p(A) + p(B) – p(A y B) • Eventos mutuamente excluyentes: si no pueden ocurrir al mismo tiempo, o la ocurrencia de uno impide la ocurrencia del otro. p(A y B) = 0 . p(A o B) = p(A) + p(B)
  • 4. Cálculo de la Probabilidad • Si hay dos o mas eventos mutuamnete excluyentes la probabilidad de que ocurra cualquiera de esos eventos es igual a la suma de las probabilidades de cada evento. p(A o B…o Z) = p(A) + p(B) +...+p(Z) • Un conjunto de eventos es exhaustivo si incluye a todos los eventos posibles. La suma de las probabilidades individuales de un conjunto exhaustivo es igual a 1. Ej: el dado. • Cuando existen dos eventos y son mutuamente excluyentes se denomina P a la probabilidad de que ocurra uno de ellos y Q a la probabilidad de que ocurra el otro evento. Cálculo de la Probabilidad • El Producto: La probabilidad de ocurrencia de A y B es igual a la probabilidad de ocurrencia de A, multiplicada la probabilidad de que B ocurra, dado que A ha ocurrido. p(A y B) = p(A) p(B/A). • Si son eventos excluyentes: p(A y B) = 0 • Eventos Independientes: son aquellos en los que la ocurrencia de uno no tiene efecto sobre la probabilidad del otro. Ej: el muestreo con reemplazo. Si A y B son independientes, entonces p(B/A) = p(B), y p(A y B) = p(A) p(B) • Si hay mas de 2 eventos independientes: • p(A y B y …y Z) = p(A) p(B)…p(Z)
  • 5. Cálculo de la Probabilidad • Producto: Eventos dependientes. La probabilidad de B es afectada por la p(A). Es el caso del muestreo sin reemplazo. • Ejemplo: A=sacar As en la 1era. vez B=sacar As en la 2da. Vez p(A) = 4/52 = 0,07692 p(B) = p(A) en el caso con reemplazo (independientes) p(B) = p(B/A) = 3/51 = 0,05882 en el caso sin reemplazo (dependientes). • Para el caso de tener mas de 2 eventos dependientes: p(A y B y C y… y Z) = p(A) p(B/A) p(C/AB)…p(Z/ABC…Y) Probabilidad y Variables Continuas • Cuando trabajamos con variables continuas, p(A) = área debajo de la curva, correspondiente a A área total bajo la curva. 45 Z=x– μ = 6 -4 = 1,74 40 35 σ 1,15 30 25 20 15 La probabilidad de 10 que x sea >= 6 5 0 0 2 4 6 8
  • 6. Probabilidad y Variables Continuas Prueba de Hipótesis • Diseño de medidas repetidas: ( de medidas replicadas o de grupos correlacionados): son las que aparea resultados obtenidos como control y resultados obtenidos experimentalmente y se analiza la diferencia entre ambos. • Se puede tratar del mismo grupo evaluado con diferentes “métodos”, o dos grupos homogéneos por alguna condición y se desea evaluar otra condición.
  • 7. Hipótesis • Hipótesis Alternativa H1:es la que afirma que la diferencia de resultados entre las condiciones se debe a la variable independiente. • Se enuncia como “afecta”, “es causa de”, “influye en”, “ aumenta”, “disminuye”, etc. • Puede direccional o no direccional. • Hipótesis Nula H0: es la contraparte lógica de H1, por lo tanto es excluyente y exhaustiva de ésta. • Se enuncia en función de H1: “no afecta”, “no es causa de”, “no influye en”, “no aumenta”, “no disminuye”, etc. • Al rechazar una hipótesis, se acepta la otra.
  • 8. Regla de Decisión (Nivel α) • Siempre se evalúa la H0, suponiendo que es verdadera y verificando si la misma se produce solo por efecto del azar. • Si la probabilidad resultante es menor o igual que un nivel de probabilidad crítico, llamado nivel α, rechazamos al H0. • Cuando rechazamos H0, decimos que los resultados son significativos y aceptamos H1, ya que consideramos que es una explicación razonable. • Si conservamos H0, decimos que los datos no son significativos o confiables y no aceptamos H1. • Si la probabilidad obtenida <= α, rechazamos H0 • Si la probabilidad obtenida > α, conservamos H0 Errores y Niveles de α • Por lo general, los niveles de α son pequeños. • Por lo general, los niveles de α son pequeños. Pueden ser α = 0,01 o α = 0,05 Pueden ser α = 0,01 o α = 0,05 • Error de Tipo II consiste en rechazar H 0 ,, cuando • Error de Tipo consiste en rechazar H 0 cuando ésta es Verdadera. ésta es Verdadera. • Error de Tipo II consiste en NO rechazar H 0 ,, • Error de Tipo II consiste en NO rechazar H 0 cuando ésta es falsa. cuando ésta es falsa. • El nivel α minimiza la posibilidad de cometer ET I. • El nivel α minimiza la posibilidad de cometer ET I. • Al rechazar la H 0 ,, con α = 0,05, estamos diciendo • Al rechazar la H 0 con α = 0,05, estamos diciendo que podemos cometer un error del 5%. que podemos cometer un error del 5%. • Cuanto menor sea α incrementamos la posibilidad • Cuanto menor sea α incrementamos la posibilidad de cometer ET II. de cometer ET II.
  • 9. Errores y Niveles de α Estado Real Nivel α Probabilidad Decisión H0 es Verdadera H0 es Falsa obtenida 0,05 0,02 Rechazar H0 ET I D. C. 0,01 0,02 Aceptar H0 D. C. ET II • Si los resultados sirven para comunicar un nuevo hecho científico a la comunidad científica, es mejor usar niveles de α estrictos, ya que hay que minimizar el ET I. • Si el experimento tiene una finalidad mas “exploratoria” conviene usar niveles menos estrictos (α= 0,10 o α= 0,20) ya que los resultados pueden guiar al investigador hacia nuevos experimentos. • Los resultados certeros no dependen del nivel de α. • Lo mejor es repetir, de manera independiente el experimento. Distribuciones Muestrales • Una Distribución Muestral proporciona todos los valores que puede asumir un estadístico, junto con la probabilidad de obtener cada valor si el muestreo es aleatorio a partir de la población de hipótesis nula. • Las pruebas estadísticas suponen una determinada distribución muestral. • La prueba z, emplea las medias muestrales como estadístico básico.
  • 10. Prueba z • La distribución muestral de la media proporciona todos los valores que puede asumir la media, junto con la probabilidad de obtener cada valor si el muestreo es aleatorio a partir de la población de la hipótesis nula. Muestra 2 de tamaño N 45 Muestra 3 de X2 tamaño N 40 X3 35 30 25 Muestra K de 20 tamaño N Muestra 1 de 15 Xk tamaño N 10 X1 5 0 0 2 4 6 8 Características de la Distribución Muestral de la Media • Si los datos crudos tienen una distribución muestral, entonces la distribución de las medias muestrales también tendrá esa característica. • Si no es así, o no se sabe la distribución, entonces habrá que incrementar el tamaño de muestras. N >= 30. • Teorema Central del Límite: sin importar la forma que presente la población de datos crudos, la distribución muestral de la media tiende a distribuirse de manera normal cuando aumenta N, el tamaño de la muestra.
  • 11. Cálculo de Zob • Región crítica de rechazo de H0:es el área debajo de la curva que contiene a todos los valores del estadístico que permiten el rechazo de la H0. Está determinado por α. Hay que considerar 1 o 2 colas. • El valor crítico de un estadístico es aquel que determina la región crítica. Zcri • Por ejemplo: si α=0,051cola, en la dirección que predice un valor negativo de Zob, entonces la región crítica para el rechazo de H0 es el área bajo la cola izquierda de la curva que es igual a 0,05. El valor de Z para α=0,05 es Zcri=1,645 • Si Zob cae en la región de rechazo, no aceptamos H0 Cálculo de Zob ob 1. Cálculo del Estadístico 1. Cálculo del Estadístico 2. Evaluación del Estadístico con base en su 2. Evaluación del Estadístico con base en su distribución muestral distribución muestral Ejemplo: Ejemplo: Zob = Xob – μ = 72 – 75 = - 1,88 Zob = Xob – μ = 72 – 75 = - 1,88 σx σx 1,6 1,6 Zcri para α= 0,05 es …. Zcri = -1,645 Zcri para α= 0,05 es …. Zcri = -1,645 Como Zob < Zcri cae dentro del área de rechazo de Como Zob < Zcri cae dentro del área de rechazo de H0,, entonces rechazamos H0 H0 entonces rechazamos H0 También se puede tomar el valor absoluto: También se puede tomar el valor absoluto: Si Zob >= Zcri se rechaza H0 Si Zob >= Zcri se rechaza H0
  • 12. Prueba t de Student para grupos correlacionados • Grupos correlacionados: – Se aplica la misma prueba al mismo grupo en varias oportunidades. – Se aplican distintas pruebas al mismo grupo. – Se aplican distintas pruebas a grupos homogéneos. • La prueba t se aplica cuando no se conoce σ. Entonces se trabaja con S. • En el caso de grupos correlacionados, evalúa las diferencias obtenidas en la medición de ambos grupos. Prueba t para muestras Prueba t para grupos Simples correlacionados tob = Xob – μ tob = Dob – μ D S/ N SD/ N tob = Xob – μ tob = Dob – μ D SC SC D N (N – 1) N (N – 1) SC = Σ x2 – (Σx)2 SC = Σ D2 – (ΣD)2 N N
  • 13. Cálculo de tob 1. Cálculo del Estadístico 2. Evaluación del Estadístico con base en su distribución muestral. Ejemplo: tob = Dob – μD = 5,3 – 0 = 5,08 sx 10 Para hallar tcri, se observan los grados de libertad (gl), que en este caso se usa N-1 porque se usó S. La prueba es a 2 colas tcri para α= 0,052colas es …. tcri = ± 2,262 Como tob >= tcri se rechaza H0 Prueba z y t para grupos Independientes • Se utilizan en experimentos en los cuales hay dos (o mas) condiciones, por lo general: de control y de experimental. • No existe base alguna para que cada sujeto entre en uno u otro grupo, por eso se denomina independiente. • Se calculan los estadísticos de manera separada y se comparan entre ellos para determinar si es el azar, por si solo, la explicación razonable para las diferencias. • μ1 σ1 y μ2 σ2 • Se supone que el hecho de modificar el nivel de la variable independiente afecta la media, pero no debería afectar al desvío estándar. • Por lo tanto, bajo este supuesto: – σ1 = σ2 – μ1 > μ2 ó μ1 < μ2 H1 direccional – μ1 # μ2 H1 no direccional – μ1 = μ2 H0
  • 14. Zob para 2 muestras independientes Zob para 2 muestras independientes Z ob= (X1 – X2)) – μxx11-x22 Z ob= (X1 – X2 – μ -x σxx11-x22 σ -x tob para 2 muestras independientes tob para 2 muestras independientes μxx11-x22= μ1 – μ2 μ -x = μ1 – μ2 tt ob = (X1 – X2)) – μxx11-x22 ob = (X1 – X2 – μ -x σxx11-x22= σ -x = σ2 σ2 1 +1 1 +1 sxx11-x22 s -x Sw2 = SC1 + SC2 Sw2 = SC1 + SC2 n1 n2 n1 n2 n1+n2 -2 n1+n2 -2 μxx11-x22= μ1 – μ2 μ -x = μ1 – μ2 SCii = Σxii2 -- (Σxii))2 SC = Σx 2 (Σx 2 sxx11-x22= sw2 1 + 1 s -x = sw2 1 + 1 n ii n n1 n2 n1 n2 Grados de Libertad gl • Los grados de libertad para cualquier estadístico es el número de datos que pueden variar libremente para calcular dicho estadístico. • La media tiene N gl, porque ya está dado, si se saben los N-1 datos el n-ésimo dato puede ser cualquiera, sin restricciones. • Cuado se calcula desvío estandar, por ejemplo, como la suma de las desviaciones debe ser igual a 0, solo N-1 valores pueden asumir cualquier valor, porque el n-ésimo valor debe ser tal que cumpla con la condición dada, por lo tanto tiene N-1 gl
  • 15. Distribución normal y significado del área bajo la curva Áreas bajo la curva normal estándar. Los valores de la tabla que se muestran representan la probabilidad de observar un valor menor o igual que z. La cifra entera y el primer decimal se buscan en la primer columna y el 2do. Decimal en la cabecera de la tabla