Analisis parametricos-y-no-parametricos

13,449 views

Published on

Published in: Education
0 Comments
4 Likes
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
13,449
On SlideShare
0
From Embeds
0
Number of Embeds
6
Actions
Shares
0
Downloads
233
Comments
0
Likes
4
Embeds 0
No embeds

No notes for slide

Analisis parametricos-y-no-parametricos

  1. 1. NO PARAMÉTRICOS Y ANÁLISIS PARAMÉTRICOS
  2. 2. Análisis No Paramétricos Una alternativa en la solución de problemas son los métodos no paramétricos o de distribución libre, los cuales no existen supuestos tan numerosos ni severos y son aplicables a cualquier variable, en particular a las de tipo nominal u ordinal así como a distribuciones diversas
  3. 3. ¿Cuáles son las presuposiciones de la estadística no paramétrica?  La mayoría de estos análisis no requieren de presupuestos acerca de la forma de la distribución poblacional. Aceptan distribuciones no normales  Las variables no necesariamente deben de estar medidas en un nivel por intervalos o razón , pueden analizarse datos nominales u ordinales  Sí se quiere análisis no paramétricos a datos por intervalos o razón, estos deben se resumidos a categoría discretas. Las variables deben ser categóricas
  4. 4. ¿Cuáles son los métodos o pruebas estadísticas no paramétricas más utilizadas? utilizadas  La Ji cuadrada o Chi cuadradra  Los coeficientes de correlación e independencia para tabulaciones cruzadas  Los coeficientes de correlación para rangos ordenados de Spearman y Kendall
  5. 5. ¿Qué es la Ji cuadrada o Chi Cuadrado?  Definición: Es una prueba estadística para evaluar la hipótesis acerca de la relación entre dos variables categóricas Se simboliza por x2 Hipótesis a probar: Correlacionales Variables Involucradas : Dos Nivel de medición de las variables : Nominal u ordinal ( o intervalos o razón reducida a ordinales) La Chi cuadrada se calcula a través de una tabla de contingencia o tabulación cruzada, de dos dimensiones y cada una representa una variable.
  6. 6. ¿Qué son los coeficientes de correlación e independencia para tabulaciones cruzadas? Este son otros coeficientes para evaluar si las variables incluidas en la tabla de contingencia o tabulación cruzada están correlacionadas; algunos coeficientes son los siguientes: Phi, Coeficiente de contingencia o C dePearson,V de Gramer, Lamdba ,Gamma, Tau-b de Kendall(Tau-b) , D de Somers, Eta. etc.
  7. 7. ¿Qué otra utilización tienen las tablas de contingencia? Además de servir para el cáculo de la chi cuadrado y otros coeficientes, son útiles para describir conjuntamente a dos o más variables . Esto se efectúa convirtiendo las frecuencias observadas en frecuencia relativas o porcentaje. En una tabla cruzada puede haber tres tipos de porcentajes a cada celda: Porcentaje en relación al total de frecuencias observadas (N)  Porcentaje en relación al total marginal de la columna  Porcentaje en relación al total marginal del renglón 
  8. 8. ¿Qué son los coeficientes de correlación por rangos ordenados de Spearman y Kendall? Los coeficientes rhoi de Spearman, simbolizado por rs, y tau de Kendall, simbolizado como t, son medidas de correlación para variables en un nivel de medición ordinal, de tal modo que los individuos u objetos de la muestra pueden ordenarse por rangos o jerarquías.  Ambos coeficientes varían de -1.0 (correlación negativa perfecta) a +1,0 ( correlación positiva perfecta)   Estadísticas sumamente perfecta para variables ordinales
  9. 9. ANALISIS MULTIVARIADO  Los métodos de análisis multivariado son aquellos en donde se analiza la relación entre varias variables independientes y al menos una dependiente.  Son métodos que requieren del uso de computadoras para efectuar los cálculos necesarios  La regresión múltilpe es un método que permite analizar el efecto de dos o más variables independientes sobre una dependiente. Es una extensión de la regresión lineal sólo que con un mayor número de variables independientes.
  10. 10. Análisis Paramétricas      Las dócimas que hemos mencionado hasta ahora, siempre presuponen distribuciones particulares de la variable aleatoria, o bien sus hipótesis especifican parámetros o distribuciones. Por esto la estadística que se usan con más frecuencia son las estadísticas paramétricas.  Estas técnicas permiten confirmar resultados o valorar las inconsistencias de ellos.
  11. 11. ¿Cuáles son los supuestos de las estadísticas paramétricas? 1. La distribución poblacional de la variable dependiente es normal: el universo tiene una distribución normal. 2. El nivel de la medición de la variable dependiente es por intervalo o razón 3. Cuando dos o más poblaciones son estudiadas, éstas tienen una varianza homogénea, es decir: 4. Las poblaciones en cuestión tienen una dispersión similar en sus distribuciones
  12. 12. ¿Cuáles son los métodos o pruebas estadísticas paramétricas más utilizadas ?  Coeficiente de Correlación de Pearson y la regresión lineal Prueba “ t ”  Prueba de contraste de la diferencia de proporciones  Análisis de varianza unidireccional (ANOVA Oneway)  Análisis de varianza factorial (ANOVA)  Análisis de covarianza (ANCOVA) 
  13. 13. ¿Qué es el coeficiente de correlación de Pearson?  Definición.Es una prueba estadística para analizar la relación entre dos o más variables medidas en un nivel por intervalos o razón Se simboliza por “ r “ Hipótesis a probar: Correlacionalmente, del tipo : “A mayor X, mayor Y”; ”A mayor X, menor Y”, “Altos valores en X están asociados con altos valores en Y”, “Altos valores en X se asocian con bajos valores de Y”
  14. 14. ¿Qué es la regresión lineal?  Definición.Es un modelo matemático para estimar el efecto de una variable sobre otra. Está asociado con el coeficiente de Pearson r de Pearson  Hipótesis a probar: Correlacionales y causales
  15. 15. ¿Qué es la prueba “t” ?  Definición: Es una prueba estadística para evaluar si dos grupos difieren entre sí de manera significativa respecto a su medias. Se simboliza por “ t ” Hipótesis a probar: De diferencia entre dos grupos.La hipóteisis de investigación propone que los grupos difieren significativamente entre sí y la hipótesis nula no difiere significativamente
  16. 16. ¿Qué es la prueba de diferencia de proporciones?  Definición: Es una prueba estadística para analizar si dos proporciones difieren significativamente entre si. Hipótesis a probar: De diferencia de proporciones entre dos grupos
  17. 17. ¿Qué es el análisis de varianza unidireccional ? (oneway) Definición Es una prueba estadística para analizar si más de dos grupos difieren significativamente entre sí en cuanto a sus medias y varianzas . La prueba “ t “ es utilizada para dos grupos y el análisis de varianza unidereccional se usa para tres, cuatro o más grupos Hipótesis a probar: De diferencia entre dos o más grupos, se propone que los grupos difieren significativamente entre si y la nula propone que no difieren
  18. 18. ¿Qué es el análisis factorial de varianza? Definición: Es una prueba estadística para evaluar el efecto de dos o más variable independientes sobre una variable dependiente Se conoce como ANOVA ( análisis de varianza de k-direcciones)
  19. 19. ¿Qué es el análisis de covarianza? Definición: Es una prueba estadística que analiza la relación entre una variable dependiente y dos o más independientes, removiendo y controlando el efecto de al menos una de estas independientes Se destacan tres perspectivas para el análisis de covarianza a) Perspectiva experimental b) Perspectiva de interés por la covariable c) Perspectiva de regresión

×