SlideShare una empresa de Scribd logo
1 de 27
Descargar para leer sin conexión
Análisis de Autocorrelación
UCSH
Autocorrelación
•

El análisis se realiza analizando la hipótesis, donde la hipótesis que
establece que el vector de perturbaciones sigue una distribución según un
vector normal esférico.

La hipótesis de covarianzas nulas es muy interesante desde el punto de vista de las
propiedades deseables para los estimadores mínimo cuadráticos ordinarios, pero con
frecuencia esta hipótesis es difícil de aceptar en la práctica, en especial cuando las
observaciones se suceden en el tiempo. Este problema lo reflejó Malinvaud
(1964)señalando
que:
“... existe a menudo una correlación positiva entre los términos de perturbación
separados en periodos debido al hecho de que los factores no identificados del
fenómeno actúan con una cierta continuidad y afectan frecuentemente de análoga
manera dos valores sucesivos de la variable endógena.”
Autocorrelación
• Entre los factores no identificados señalados por
Malinvaud podría encontrarse en los errores cuando:
– La especificación de la forma funcional del modelo es errónea.
– Cuando existe omisión de variables relevantes que puede dar
lugar a un comportamiento sistemático de los residuos que
podría interpretarse como autocorrelación cuando en realidad se
corrige al especificar correctamente el modelo.

• En los casos de incumplimiento de la hipótesis de no
autocorrelación es necesario formular el
– modelo de regresión de un modo más general prescindiendo de
esta hipótesis; este modelo recibe el nombre de modelo de
regresión lineal generalizado y su estimación se realizará
aplicando métodos distintos al de mínimos cuadrados
ordinarios.
Autocorrelación
• Matemáticamente este supuesto de
autocorrelación se expresa a partir de la
hipótesis que hace referencia a la covarianza
de la perturbación que, como se ha señalado es
no nula.
Gráficos
DETECCIÓN DE LA AUTOCORRELACIÓN
• Para detectar la presencia de autocorrelación se pueden
utilizar métodos gráficos y contrastes de hipótesis. A
través de los contrastes gráficos se intuirá si existe
autocorrelación cuando existan comportamientos
sistemáticos para los residuos.
• Los contrastes de hipótesis, por su parte, permiten, a
través de una regla de decisión, considerar si con los
datos de la muestra y con un nivel de significación (a)
concreto se debe o no rechazar la hipótesis nula.
• Todos los contrastes numéricos de autocorrelación se
plantean con idénticas hipótesis; así, podemos señalar
que la forma general del contraste es:
• H0: No existe autocorrelación
• H1: Existe autocorrelación
Contraste d de Durbin-Watson (1951)
– El contraste desarrollado por Durbin y Watson es la
prueba más frecuentemente empleada para detectar
la presencia de autocorrelación en los modelos de
regresión. Este contraste permite verificar la hipótesis
de no autocorrelación frente a la alternativa de
autocorrelación
de primer orden bajo un esquema autorregresivo —
AR(1) Analíticamente el contraste se especifica del
siguiente modo:
Formulación de las hipótesis:
: H0 No existe autocorrelación AR(1)
: H1 Existe autocorrelación AR(1)
Contraste d de Durbin-Watson (1951)
•

Estadístico de prueba:

A partir de este estadístico se puede interpretar que,
· Si hay autocorrelación positiva las diferencias entre residuos que distan un periodo es
muy pequeña por lo que el valor del estadístico d será próximo a cero.
· Si hay autocorrelación negativa los residuos serán prácticamente iguales pero de
signo contrario, su diferencia será por tanto grande y el estadístico será más próximo al
límite superior que, como se verá, se establece en cuatro.
· Si no hay autocorrelación, la relación entre los residuos será intermedia y por tanto, el
valor del estadístico experimental también alcanzará un valor intermedio.
Contraste d de Durbin-Watson (1951)
Contraste d de Durbin-Watson (1951)
Contraste d de Durbin-Watson (1951)
Desventajas de DW
– No siempre es concluyente, sobre todo
cuando las los valores del estadístico se
encuentran en la zona de incertidumbre.
– Solo indica AR(1) (Autorregresion de nivel 1)
Contraste d4 de Wallis7 (1972)
Contraste h de Durbin (1970)
•

El contraste de Durbin-Watson, como ya se ha especificado anteriormente, impone
como condición para su correcta interpretación que los modelos contengan
regresores exclusivamente no aleatorios; con lo cual no se puede aplicar en modelos
dinámicos en los que se considere como regresor algún retardo de la variable
dependiente. Para corregir esta deficiencia, Durbin desarrolló un estadístico que sí
puede aplicarse en estos modelos que incluyan retardos de la variable dependiente.
Para este caso se ha obtenido un test asintótico para muestras grandes.
Contraste h de Durbin (1970)
Contraste h de Durbin (1970)
Para el cálculo de este estadístico se necesitan conocer los siguientes datos:
1) Tamaño de la muestra (n)
2) Varianza muestral estimada del coeficiente del regresor aleatorio (Yt-1) en la
regresión MCO del modelo a estimar; es decir, obtenida bajo el supuesto de MRLNC
[Var(bi)].
3) Coeficiente de correlación estimado ( pˆ ) Este coeficiente de correlación estimado se
puede calcular a partir de la estimación de una estructura autorregresiva de orden 1
para los residuos una regresión MCO de los residuos
Contraste h de Durbin (1970)
Desventajas del Test H de Durbin
Contraste de Breusch-Godfrey (1978)
• Los Test anteriores sirven solo para detectar
procesos autorregresivos de primer orden
AR(1).
• Para detectar los procesos autorregresivos de
orden superior, se aplica el test de BG.
• El procedimiento es el siguiente:
– H0 –> Indica ausencia de autocorrelación.
– H1-> Especifica un esquema concreto de
autocorrelación.
Contraste de Breusch-Godfrey (1978)
Contraste de Breusch-Godfrey (1978)
• Procedimiento
Contraste de Breusch-Godfrey (1978)
Consideraciones
• A pesar de estas ventajas que lo pueden hacer
preferible al contraste de Durbin Watson, no hay que
olvidar que para la aplicación de este contraste es
necesario especificar una longitud del retardo y que ésta
se determinará por un procedimiento de
experimentación basado en el análisis de significación
individual de los retardos de los residuos, lo que en
principio podría dificultar la tarea de selección del orden
de autocorrelación.
Contraste de Sargan (1964)
•

Cuando el resultado del contraste de Durbin-Watson indica que debe
rechazarse la hipótesis nula el origen de esta posible autocorrelación puede
deberse a la existencia de errores en la especificación del modelo. Por
ejemplo, la omisión de variables relevantes llevaría a incluir esas variables
omitidas en el término de perturbación; si estas variables estuvieran
correlacionadas podría detectarse un problema de autocorrelación en la
perturbación cuando el verdadero origen de ésta se debe a la falta de
especificación de aquéllas.
Contraste de Sargan (1964)
Contraste de Box-Pierce-Ljung
Contraste de Box-Pierce-Ljung

Más contenido relacionado

La actualidad más candente

Examen unidad 4 - Tipo 2
Examen unidad 4 - Tipo 2Examen unidad 4 - Tipo 2
Examen unidad 4 - Tipo 2Cesar-Sanchez
 
Econometria: Clase 1, qué es econometría
Econometria: Clase 1, qué es econometríaEconometria: Clase 1, qué es econometría
Econometria: Clase 1, qué es econometríaHugo Maul
 
Ejemplos modelos econometricos
Ejemplos modelos econometricosEjemplos modelos econometricos
Ejemplos modelos econometricosSam Wilson
 
Coeficientes determinacion y correlacion
Coeficientes determinacion y correlacionCoeficientes determinacion y correlacion
Coeficientes determinacion y correlacionJanneth Zepeda
 
Compilacion econometria con Eviews
Compilacion econometria con EviewsCompilacion econometria con Eviews
Compilacion econometria con EviewsRodrigo Paniagua
 
Ejercicios econometría1
Ejercicios econometría1Ejercicios econometría1
Ejercicios econometría1cesarmanosalvas
 
Multicolinealidad
MulticolinealidadMulticolinealidad
MulticolinealidadUTPL UTPL
 
130447032 inferencia-estadistica-unidad-ii (1)
130447032 inferencia-estadistica-unidad-ii (1)130447032 inferencia-estadistica-unidad-ii (1)
130447032 inferencia-estadistica-unidad-ii (1)EstesoyyoEmanuel Gonzalez
 
Distribucion muestral de una proporcion
Distribucion muestral de una proporcion Distribucion muestral de una proporcion
Distribucion muestral de una proporcion Oscar Saenz
 
Autocorrelación
AutocorrelaciónAutocorrelación
AutocorrelaciónUTPL UTPL
 
Estadistica intervalos de confianza
Estadistica intervalos de confianzaEstadistica intervalos de confianza
Estadistica intervalos de confianzaDanielPachecoRojas1
 
Estadigrafos centrales y de dispersion
Estadigrafos centrales y de dispersionEstadigrafos centrales y de dispersion
Estadigrafos centrales y de dispersionYerko Bravo
 
Ejemplos practicos de muestreo
Ejemplos practicos de muestreoEjemplos practicos de muestreo
Ejemplos practicos de muestreoDaniel Flores
 
Distribuciones de probabilidad con ejemplos
Distribuciones de probabilidad con ejemplosDistribuciones de probabilidad con ejemplos
Distribuciones de probabilidad con ejemplosamy Lopez
 
Distribuciones de variables aleatorias discretas y continuas
Distribuciones de variables aleatorias discretas y continuasDistribuciones de variables aleatorias discretas y continuas
Distribuciones de variables aleatorias discretas y continuasCristhiam Montalvan Coronel
 

La actualidad más candente (20)

Regresion lineal multiple
Regresion lineal multipleRegresion lineal multiple
Regresion lineal multiple
 
Examen unidad 4 - Tipo 2
Examen unidad 4 - Tipo 2Examen unidad 4 - Tipo 2
Examen unidad 4 - Tipo 2
 
Econometria: Clase 1, qué es econometría
Econometria: Clase 1, qué es econometríaEconometria: Clase 1, qué es econometría
Econometria: Clase 1, qué es econometría
 
Ejemplos modelos econometricos
Ejemplos modelos econometricosEjemplos modelos econometricos
Ejemplos modelos econometricos
 
2 distribución de probabilidad discreta
2 distribución de probabilidad discreta2 distribución de probabilidad discreta
2 distribución de probabilidad discreta
 
Coeficientes determinacion y correlacion
Coeficientes determinacion y correlacionCoeficientes determinacion y correlacion
Coeficientes determinacion y correlacion
 
Compilacion econometria con Eviews
Compilacion econometria con EviewsCompilacion econometria con Eviews
Compilacion econometria con Eviews
 
Ejercicios econometría1
Ejercicios econometría1Ejercicios econometría1
Ejercicios econometría1
 
Multicolinealidad
MulticolinealidadMulticolinealidad
Multicolinealidad
 
130447032 inferencia-estadistica-unidad-ii (1)
130447032 inferencia-estadistica-unidad-ii (1)130447032 inferencia-estadistica-unidad-ii (1)
130447032 inferencia-estadistica-unidad-ii (1)
 
Distribucion muestral de una proporcion
Distribucion muestral de una proporcion Distribucion muestral de una proporcion
Distribucion muestral de una proporcion
 
Autocorrelación
AutocorrelaciónAutocorrelación
Autocorrelación
 
17.regresión y correlación simple
17.regresión y correlación simple17.regresión y correlación simple
17.regresión y correlación simple
 
Distribución normal y t de student
Distribución normal y t de studentDistribución normal y t de student
Distribución normal y t de student
 
Estadistica intervalos de confianza
Estadistica intervalos de confianzaEstadistica intervalos de confianza
Estadistica intervalos de confianza
 
Estadigrafos centrales y de dispersion
Estadigrafos centrales y de dispersionEstadigrafos centrales y de dispersion
Estadigrafos centrales y de dispersion
 
Ejemplos practicos de muestreo
Ejemplos practicos de muestreoEjemplos practicos de muestreo
Ejemplos practicos de muestreo
 
Distribuciones de probabilidad con ejemplos
Distribuciones de probabilidad con ejemplosDistribuciones de probabilidad con ejemplos
Distribuciones de probabilidad con ejemplos
 
Distribuciones de variables aleatorias discretas y continuas
Distribuciones de variables aleatorias discretas y continuasDistribuciones de variables aleatorias discretas y continuas
Distribuciones de variables aleatorias discretas y continuas
 
Datos y estadisticas
Datos y estadisticasDatos y estadisticas
Datos y estadisticas
 

Similar a 6993547 analisis-de-autocorrelacion

Supuesto no autocorrelación de análisis de regresion
Supuesto no autocorrelación de análisis de regresionSupuesto no autocorrelación de análisis de regresion
Supuesto no autocorrelación de análisis de regresionKevin Erick Pacheco
 
Anova un factor-lectura
Anova un factor-lecturaAnova un factor-lectura
Anova un factor-lecturaJoel Rojas
 
3- Regresiones lineales (para Matemáticas de Bioquímica)
3- Regresiones lineales (para Matemáticas de Bioquímica)3- Regresiones lineales (para Matemáticas de Bioquímica)
3- Regresiones lineales (para Matemáticas de Bioquímica)Javier García Molleja
 
4 Modelos autorregresivos.pdf
4 Modelos autorregresivos.pdf4 Modelos autorregresivos.pdf
4 Modelos autorregresivos.pdfJoseFlores569854
 
Cap3. violacion modelo-regresión multiple-2011
Cap3. violacion modelo-regresión multiple-2011Cap3. violacion modelo-regresión multiple-2011
Cap3. violacion modelo-regresión multiple-2011Noemi Zapata
 
Investigación tema 5
Investigación tema 5Investigación tema 5
Investigación tema 5CarmenAlonzo7
 
Modelos var y de corrección de error
Modelos var y de corrección de errorModelos var y de corrección de error
Modelos var y de corrección de errorkengy hurtado quispe
 
Análisis Cuantitativo: Estadística Inferencial
Análisis Cuantitativo: Estadística InferencialAnálisis Cuantitativo: Estadística Inferencial
Análisis Cuantitativo: Estadística InferencialHarold Gamero
 

Similar a 6993547 analisis-de-autocorrelacion (20)

Supuesto no autocorrelación de análisis de regresion
Supuesto no autocorrelación de análisis de regresionSupuesto no autocorrelación de análisis de regresion
Supuesto no autocorrelación de análisis de regresion
 
Unidad IV(Econometrics).pptx
Unidad IV(Econometrics).pptxUnidad IV(Econometrics).pptx
Unidad IV(Econometrics).pptx
 
Anova un factor-lectura
Anova un factor-lecturaAnova un factor-lectura
Anova un factor-lectura
 
3- Regresiones lineales (para Matemáticas de Bioquímica)
3- Regresiones lineales (para Matemáticas de Bioquímica)3- Regresiones lineales (para Matemáticas de Bioquímica)
3- Regresiones lineales (para Matemáticas de Bioquímica)
 
5. regresión lineal multiple
5.  regresión lineal multiple5.  regresión lineal multiple
5. regresión lineal multiple
 
Modelos lineales de regresion
Modelos lineales de regresionModelos lineales de regresion
Modelos lineales de regresion
 
App unid3 kkop
App unid3 kkopApp unid3 kkop
App unid3 kkop
 
2 modelos lineales
2 modelos lineales2 modelos lineales
2 modelos lineales
 
2 modelos lineales
2 modelos lineales2 modelos lineales
2 modelos lineales
 
2 modelos lineales
2 modelos lineales2 modelos lineales
2 modelos lineales
 
2 modelos lineales
2 modelos lineales2 modelos lineales
2 modelos lineales
 
4 Modelos autorregresivos.pdf
4 Modelos autorregresivos.pdf4 Modelos autorregresivos.pdf
4 Modelos autorregresivos.pdf
 
Cap3. violacion modelo-regresión multiple-2011
Cap3. violacion modelo-regresión multiple-2011Cap3. violacion modelo-regresión multiple-2011
Cap3. violacion modelo-regresión multiple-2011
 
Investigación tema 5
Investigación tema 5Investigación tema 5
Investigación tema 5
 
minimos-cuadrados-y-regresion
minimos-cuadrados-y-regresionminimos-cuadrados-y-regresion
minimos-cuadrados-y-regresion
 
Modelos var y de corrección de error
Modelos var y de corrección de errorModelos var y de corrección de error
Modelos var y de corrección de error
 
Informe estadistica bivariada
Informe estadistica bivariadaInforme estadistica bivariada
Informe estadistica bivariada
 
Experimentos con un solo factor
Experimentos con un solo factorExperimentos con un solo factor
Experimentos con un solo factor
 
Variables Tesis, apoyo con Luis S.
Variables Tesis, apoyo con Luis S.Variables Tesis, apoyo con Luis S.
Variables Tesis, apoyo con Luis S.
 
Análisis Cuantitativo: Estadística Inferencial
Análisis Cuantitativo: Estadística InferencialAnálisis Cuantitativo: Estadística Inferencial
Análisis Cuantitativo: Estadística Inferencial
 

6993547 analisis-de-autocorrelacion

  • 2. Autocorrelación • El análisis se realiza analizando la hipótesis, donde la hipótesis que establece que el vector de perturbaciones sigue una distribución según un vector normal esférico. La hipótesis de covarianzas nulas es muy interesante desde el punto de vista de las propiedades deseables para los estimadores mínimo cuadráticos ordinarios, pero con frecuencia esta hipótesis es difícil de aceptar en la práctica, en especial cuando las observaciones se suceden en el tiempo. Este problema lo reflejó Malinvaud (1964)señalando que: “... existe a menudo una correlación positiva entre los términos de perturbación separados en periodos debido al hecho de que los factores no identificados del fenómeno actúan con una cierta continuidad y afectan frecuentemente de análoga manera dos valores sucesivos de la variable endógena.”
  • 3. Autocorrelación • Entre los factores no identificados señalados por Malinvaud podría encontrarse en los errores cuando: – La especificación de la forma funcional del modelo es errónea. – Cuando existe omisión de variables relevantes que puede dar lugar a un comportamiento sistemático de los residuos que podría interpretarse como autocorrelación cuando en realidad se corrige al especificar correctamente el modelo. • En los casos de incumplimiento de la hipótesis de no autocorrelación es necesario formular el – modelo de regresión de un modo más general prescindiendo de esta hipótesis; este modelo recibe el nombre de modelo de regresión lineal generalizado y su estimación se realizará aplicando métodos distintos al de mínimos cuadrados ordinarios.
  • 4. Autocorrelación • Matemáticamente este supuesto de autocorrelación se expresa a partir de la hipótesis que hace referencia a la covarianza de la perturbación que, como se ha señalado es no nula.
  • 6. DETECCIÓN DE LA AUTOCORRELACIÓN • Para detectar la presencia de autocorrelación se pueden utilizar métodos gráficos y contrastes de hipótesis. A través de los contrastes gráficos se intuirá si existe autocorrelación cuando existan comportamientos sistemáticos para los residuos. • Los contrastes de hipótesis, por su parte, permiten, a través de una regla de decisión, considerar si con los datos de la muestra y con un nivel de significación (a) concreto se debe o no rechazar la hipótesis nula. • Todos los contrastes numéricos de autocorrelación se plantean con idénticas hipótesis; así, podemos señalar que la forma general del contraste es: • H0: No existe autocorrelación • H1: Existe autocorrelación
  • 7. Contraste d de Durbin-Watson (1951) – El contraste desarrollado por Durbin y Watson es la prueba más frecuentemente empleada para detectar la presencia de autocorrelación en los modelos de regresión. Este contraste permite verificar la hipótesis de no autocorrelación frente a la alternativa de autocorrelación de primer orden bajo un esquema autorregresivo — AR(1) Analíticamente el contraste se especifica del siguiente modo: Formulación de las hipótesis: : H0 No existe autocorrelación AR(1) : H1 Existe autocorrelación AR(1)
  • 8. Contraste d de Durbin-Watson (1951) • Estadístico de prueba: A partir de este estadístico se puede interpretar que, · Si hay autocorrelación positiva las diferencias entre residuos que distan un periodo es muy pequeña por lo que el valor del estadístico d será próximo a cero. · Si hay autocorrelación negativa los residuos serán prácticamente iguales pero de signo contrario, su diferencia será por tanto grande y el estadístico será más próximo al límite superior que, como se verá, se establece en cuatro. · Si no hay autocorrelación, la relación entre los residuos será intermedia y por tanto, el valor del estadístico experimental también alcanzará un valor intermedio.
  • 9. Contraste d de Durbin-Watson (1951)
  • 10. Contraste d de Durbin-Watson (1951)
  • 11. Contraste d de Durbin-Watson (1951)
  • 12. Desventajas de DW – No siempre es concluyente, sobre todo cuando las los valores del estadístico se encuentran en la zona de incertidumbre. – Solo indica AR(1) (Autorregresion de nivel 1)
  • 13. Contraste d4 de Wallis7 (1972)
  • 14. Contraste h de Durbin (1970) • El contraste de Durbin-Watson, como ya se ha especificado anteriormente, impone como condición para su correcta interpretación que los modelos contengan regresores exclusivamente no aleatorios; con lo cual no se puede aplicar en modelos dinámicos en los que se considere como regresor algún retardo de la variable dependiente. Para corregir esta deficiencia, Durbin desarrolló un estadístico que sí puede aplicarse en estos modelos que incluyan retardos de la variable dependiente. Para este caso se ha obtenido un test asintótico para muestras grandes.
  • 15. Contraste h de Durbin (1970)
  • 16. Contraste h de Durbin (1970) Para el cálculo de este estadístico se necesitan conocer los siguientes datos: 1) Tamaño de la muestra (n) 2) Varianza muestral estimada del coeficiente del regresor aleatorio (Yt-1) en la regresión MCO del modelo a estimar; es decir, obtenida bajo el supuesto de MRLNC [Var(bi)]. 3) Coeficiente de correlación estimado ( pˆ ) Este coeficiente de correlación estimado se puede calcular a partir de la estimación de una estructura autorregresiva de orden 1 para los residuos una regresión MCO de los residuos
  • 17. Contraste h de Durbin (1970)
  • 18. Desventajas del Test H de Durbin
  • 19. Contraste de Breusch-Godfrey (1978) • Los Test anteriores sirven solo para detectar procesos autorregresivos de primer orden AR(1). • Para detectar los procesos autorregresivos de orden superior, se aplica el test de BG. • El procedimiento es el siguiente: – H0 –> Indica ausencia de autocorrelación. – H1-> Especifica un esquema concreto de autocorrelación.
  • 21. Contraste de Breusch-Godfrey (1978) • Procedimiento
  • 23. Consideraciones • A pesar de estas ventajas que lo pueden hacer preferible al contraste de Durbin Watson, no hay que olvidar que para la aplicación de este contraste es necesario especificar una longitud del retardo y que ésta se determinará por un procedimiento de experimentación basado en el análisis de significación individual de los retardos de los residuos, lo que en principio podría dificultar la tarea de selección del orden de autocorrelación.
  • 24. Contraste de Sargan (1964) • Cuando el resultado del contraste de Durbin-Watson indica que debe rechazarse la hipótesis nula el origen de esta posible autocorrelación puede deberse a la existencia de errores en la especificación del modelo. Por ejemplo, la omisión de variables relevantes llevaría a incluir esas variables omitidas en el término de perturbación; si estas variables estuvieran correlacionadas podría detectarse un problema de autocorrelación en la perturbación cuando el verdadero origen de ésta se debe a la falta de especificación de aquéllas.