3. El modelo de regresión múltiple asume diverso
supuestos estadísticos que determinan la validez de los
resultados econométricos así como la inferencia
estadística
Asume principalmente
Y β U
X regresores fijos
X regresores aleatorios
con muestras independientes
E(U) 0
E(U/) 0
4. 1) El término de error tiene media cero
i
Eu X 0 para i = 1,2,…,N
2) El término de error presneta varianza constante
NN
EuuX2
I
3) No existe autocorrelación
E
uiuj X 0 para todo i ≠ j
4) El término de error se distribuye como una normal
d
u X N0, 2
I
5) No existe correlación entre los regresores y el término de error
Eu X 0
6) La forma funcional es lineal
7) Los parámetros del modelo son invariantes a lo largo de la muestra.
5. Teoría económica
Modelo teórico
Modelo estimable
Proceso generador de información
Datos observados
Modelo estadístico
F(X1t,X2t,..Xnt)
Et[yt/t]= Et[yt/t,yti,] [Zjt/X1t, 2]+Ut
Estimación
Mala especifcación
Reparametrización
yt=1yt-i+iCt-i+Ut
Modelo econométrico final
Aproximación de P.G.T.
Simulación
Pronóstico
6. 1)Consistencia con la teoría económica.Implica que el
modelo estimado debe satisfacer las restricciones impuestas por la
teoría económica sobre la especificación inicial y los valores de los
coeficientes.
2)El modelo es admisible respecto a los datos.La
condición se refiere a que las predicciones de la ecuación
estimada debe generar resultados que sean lógicos de acuerdo a
la teoría económica.
3)Coherencia con los datos.El modelo debe reproducir
adecuadamente el comportamiento de los datos.De manera que las
innovaciones del modelo no deben presentar autocorrelación y
heteroscedasticidad (deben ser ruido blanco).
7. 4)Parámetros constantes. Esta condición es
necesaria para poder utilizar el modelo con propósitos
de simulación y pronóstico.
5)Condicionamiento válido.Se refiere que las
variables explicativas deben ser exógenas débiles.De
manera que los parámetros de interés son una función
del modelo condicional y no existe información
adicional que sea relevante para el modelo.
6)Englobamiento. El modelo final debe explicar las
características básicas de los modelos previos.
8. Como identificar la mejor ecuación:
•Consistencia con la hipótesis teórica
•Coherencia con los datos (información sistemática)
10. El modelo de regresión múltiple asume diverso
supuestos estadísticos que determinan la validez
de los resultados econométricos así como la
inferencia estadística
Y β U
Representación matricial del modelo de regresión
múltiple
Normalidad. El término de error se distribuye como
una función de densidad de probabilidad normal
con media cero y varianza constante
u
u|X~N 0, σ2I
11. a) Importancia del supuesto de normalidad
En el contexto del modelo de regresión múltiple, los
estimadores de MCO se distribuyen como una
función de densidad de probabilidad normal
2
ˆ 1
u
,
N X'X
Esta propiedad permite realizar inferencia estadística
sobre el modelo a través de probar diferentes
hipótesis en los valores de los estimadores
t-Student´s
F-estadística
2 ji-cuadrada
12. El rechazo de normalidad en los errores afecta el
valor de los estadísticos de las pruebas de hipótesis
como el t-Student y F
. Los valores de los estadísticos
son sensibles a la distribución normal
El valor del estadístico ji-cuadrada también se ve
afectado.Bajo condiciones de No-normalidad el valor
crítico del ji-cuadrado se modifica
Los estimadores siguen siendo insesgados, pero
cuando no se cumple el supuesto de normalidad se
pierde eficiencia
13. Prueba de Normalidad
Se basa en el tercer y cuarto momento de la distribución
de los errores.Es decir el seso y la curtosis
14. Tercer momento de la distribución: Sesgo o Simetría
2
ˆ
ˆ
1/2
1
1
ˆ
3
SK
T
t1
t
T
i
t
t1
i
, ̂ u
T
u , ̂
T
̂3
Se construye el coeficiente de sesgo o simetría (SK)
E X 3
En una distribución
normal el coeficiente de
sesgo es igual a cero
15. .0
.1
.2
.3
.4
1 2 3 4 5 6 7 8 9 10 11
X_N Normal X_S1 Normal
Density
Sesgo a la izquierda
Simetría negativa
0
ˆ
ˆ 3
3
̂3
Media<Mediana<Moda
-0.11743306...
16. .0
.1
.2
.3
.4
-2 -1 0 1 2 3 4 5 6 7 8 9
X_N Normal X_S2 Normal
Density
Sesgo a la derecha
Simetría positiva
0
̂3
ˆ 3
ˆ
3
Media>Mediana>Moda
17. Cuarto momento de la distribución (Curtosis)
E X 4
1/2
2
ˆ
ˆ
ˆ
4
t
1 1
KC
T
t1
T
t1
i
t T
i
, ̂ u
u , ̂
T
̂4
Se construye el coeficiente de curtosis (KC)
En una distribución normal
el coeficiente de curtosis es
igual a 3
18. 3
ˆ
4
̂4
KC
Exceso de curtosis,el
coeficiente es mayor a 3
El coeficiente es menor a 3
3
ˆ
4
KC
̂4
19. Hipótesis nula
Hipótesis alternativa
H1 : SK 0 y KC 3 0
1
H : SK 0 y KC 3 0
Se distribuye como
una normal
NO se distribuye
como una normal
El estadístico se denomina Jarque-Bera (JB) basado en
el criterio de multiplicador de Lagrange
JB
T
SK2
T
KC 32
6 24
20. Bajo lahipótesis nula el estadístico JBse distribuye como
una ji-cuadrada con dos grados de libertad,ya que es la
suma de dos variables aleatorias normalizadas
Aun nivel de significancia del
5% el estadístico JB tiene
como valor crítico el 5.99
23. Se asume que los errores del modelo presentan
una varianza constante a lo largo de la muestra
Var(u ) E(u2
) 2
t t
Heteroscedasticidad se define como un patrón
sistemático que presentan los errores donde su
varianza no es constante
Var(u ) 2
t t
25. Implicaciones del problema de Heteroscedasticidad
Considerando el modelo de regresión múltiple
Y Xβ u
Los estimadores de mínimos cuadrados ordinarios
β̂ X´X 1
X´Y
La varianza del estimador se obtiene como:
𝑉𝑎𝑟 𝛽
^ = 𝐸 𝛽
^− 𝛽 𝛽
^− 𝛽 ′
𝑉𝑎𝑟 𝛽
^ = 𝑋´𝑋 −1𝑋′𝐸 𝑢𝑢´ 𝑋 𝑋´𝑋 −1
26.
2 1
1 2
1
1
T
T 2
T 1
2 T
1 T
1
(uu´) u T
u2
u u
u2
u2
uT
u
⁝
⁝
u u u u
u u
2
⁝ ⋱
u u u u
u ⁝
La matriz de covarianzas y varianzas del error
2
1 2
1
T
T 2
T 1
1 T
E(u2
)
E(u u )
E(u u )
E(u u )
E(u2
)
E(u u )
E(uu´)
2 T
⁝
⁝
2 1
⁝
E(u2
) E(u u ) E(u u )
⋱
Varianza
del error
27. Considerando que la covarianza de los términos de
error son iguales a cero,es decir no hay autocorrelación
𝐸 𝑢𝑖 𝑢𝑗 = 0 Para 𝑖 ≠ 𝑗
𝐸 𝑢1𝑢2 = 𝐸 𝑢1𝑢3 = ⋯ 𝐸 𝑢𝑇𝑢𝑇−1 = 0
El supuesto del modelo econométrico es que la varianza
es constante en el tiempo o a lo largo de la muestra
2 2
2
2 2
1 E(u )
E(u ) T
E(u )
28. 2
0 1
σ2
I
0
0
0
σ2
0
0 1 0 … 0
1 … 0
⁝ ⋱ ⁝
…
⁝
0 …
σ2
…
⋱
0 … σ
σ2
0
Euu´
⁝
La matriz de varianzas y covarianzas del término de
error se define como:
ˆ
2
T k 1
u
Se utiliza un estimador de la varianza de los errores
T
t
S2
ˆ2
t1
Donde k es el número de
variables explicativas
29. −1
La varianza del estimador se define como:
Matriz
identidad
𝑉𝑎𝑟 𝛽
^ = 𝑆2 𝑋´𝑋 −1
Cuando existe un problema de heteroscedasticidad la
matriz de covarianza es distinta a 𝜎2𝐈
𝐸 𝑢𝑢´ = 𝐕 ≠ 𝜎2𝐈
La varianza del estimador se modifica:
𝑉𝑎𝑟 𝛽
^ = 𝑋´𝑋 −1𝑋′𝐕𝑋 𝑋´𝑋 −1
𝑉𝑎𝑟 𝛽
^ = 𝑋´𝑋 −1𝜎2𝐈𝑋′𝑋 𝑋´𝑋
𝑉𝑎𝑟 𝛽
^ = 𝜎2 𝑋´𝑋 −1
Podemos utilizar el estimador de la varianza
30. Consecuencias de la heteroscedasticidad
𝜎2 𝑋´𝑋 −1 ≠ 𝑋´𝑋 −1𝐗′𝐕𝐗 𝑋´𝑋 −1
La principal consecuencia de la heteroscedasticidad es
que los estimadores de MCO pierden eficiencia
La construcción de los intervalos de confianza de los
estimadores utiliza el error estándar de los errores,
en consecuencia no son apropiados
La prueba t-Student pierde potencia por que
también utiliza el error estándar del estimador
31. Pruebas para detectar Heteroscedasticidad
PruebaWhite de heterosecadasticidad
En este caso laheteroscedasticidad del error puede
estar asociado a las variables explicativas del modelo
𝑡
𝜎2 = 𝑓(𝑋𝑡)
32. Pruebas para detectar Heteroscedasticidad
a) White: Términos Cruzados
Esta prueba asume que la heteroscedasticdad es
función de la variables independientes de la
ecuación inicial
Estimar el modelo:
Yt 0 1Xt 2Zt ut
Obtener la serie de los errores y estimar la
regresión auxiliar
33. t
t
t
u2
t
2
5
3XtZt 4Zt Z e
2
2
0 1Xt X
ˆ
H0 :1 2 3 4 5 0
H1 :1 0,2 0,3 0,4 0,5 0
La Hipótesis nula asume que no existen problemas de
heteroscedasticidad y la Hipótesis alternativa indica la
presencia de problemas de heteroscedasticidad
Especificación de la prueba,por medio de la regresión
auxiliar
34.
35. La probabilidad del estadístico F indica que no se rechaza
la hipótesis nula por lo tanto la varianza no depende de
sus valores pasados NO HAY heteroscedasticidad
36. Prueba ARCH de Heteroscedasticidad
En esta prueba se asume que la varianza de los errores
es una función de sus propios valores pasados
𝜎2 = 𝑓(𝜎2 , 𝜎2 ,⋯, 𝜎2 )
𝑡 𝑡−1 𝑡−2 𝑡−𝑝
Se utiliza en datos de series de tiempo.Los valores
pasados de lavarianza contienen toda lainformación
relevante para explicar la varianza en el periodo actual
37. EspecificaciónARCH(1)
Estimar el modelo original
Yt 0 1Xt 2Zt ut
Obtener la serie de los errores y especificar la siguiente
regresión auxiliar
e
u2
t
2
0 1 t1 t
ˆ
u
ˆ
H0 : 1 0 No hay
heteroscedasticidad
Problemas de
heteroscedasticidad
H1 : 1 0
38. EspecificaciónARCH(2)
t
e
u2
t
2
2 t2
2
0 1 t1 ˆ
u
ˆ
u
ˆ
0
H : 1 0, 2 0
No hay
heteroscedasticidad
Problemas de
heteroscedasticidad
H1 : 1 0, 2 0
El estadístico de la prueba se distribuye como una F
𝐻0
Rechazo de H0
39.
40. La probabilidad del estadístico F indica que no se rechaza
la hipótesis nula por lo tanto la varianza no depende de
sus valores pasados NO HAY heteroscedasticidad
42. El problema de una mala especificación de la forma
funcional en el modelo,esta asociado a no considerar de
manera correcta la relación entre la variable dependiente
y la variable explicativa
𝑡
explicativa,por ejemplo 𝑋2 El modelo debería ser
estimado como
Por ejemplo:en un modelo de una sola variable explicativa
(1) 𝑌𝑡= 𝛽0 + 𝛽1𝑋𝑡 + 𝑢𝑡
Asumiendo que se omite un efecto de la variable
𝑡
(2) 𝑌𝑡 = 𝛽0 + 𝛽1𝑋𝑡 + 𝛾𝑋2 + 𝑢𝑡
43. En la ecuación (1) el efecto entre la variable explicativa
y la variable dependiente estaría definida como:
𝑑𝑌𝑡
𝑑𝑋𝑡
= 𝛽1
Pero en la ecuación (2),que sería la especificación
correcta entre las dos variables sería
𝑑𝑌𝑡
𝑑𝑋𝑡
= 𝛽1 + 2𝛾𝑋𝑡
Es el efecto no considerado en la primera ecuación.
Esto genera que la interpretación de los resultados de la
regresión no sean correctos. Es decir
,no se mide
correctamente la relación entre las variables
44. Prueba Ramsey-Reset
Es una prueba en el contexto de variables omitidas
Y Xβ z u
La variable Z se pude definir como una función no lineal
Z g(X) g(X)2
.... g(X)k
45. Especificación de la prueba
Las pruebas utilizadas para comprobar linealidad en el
modelo. Se basan en rechazar que el modelo se pruede
aproximar como una función polinómica
Hipótesis nula H0:Lineal
EY/ X x g(X)
Hipótesis alternativa H1:No lineal
EY/ X x g(X) g(X)2
.... g(X)k
46. Prueba RESET
modelo
estimación
Aproximación a la función polinómica
g ( X ) g ( X ) 2
.... g ( X ) k
Y X u
Y
ˆ Xˆ
Yˆ 2
Yˆ 3
... Yˆ k
Yˆ
m
ˆ ˆ
3
1 2 m
Y u
Y X Yˆ2
Y
H0 :1 2 m 0
H1 : j 0
Regresión auxiliar
47. Sea estima el modelo
Se estima la regresión auxiliar
Estimado la variable dependiente
Yt 0 1 Xt ut
̂0 ̂1 Xt
Yˆt
t
w
2
2 t
ˆ
Yt 0 1 Xt Y
Ejemplo RESET(1):modelo simple de regresión
Se plantea la siguiente prueba de hipótesis
Hipótesis nula la forma
funcional es lineal
Hipótesis alternativa la forma
funcional NO ES LINEAL
H0 :2 0
H1 :2 0
48. Se utiliza una prueba F
Modelo sin restricción
Modelo con restricción
w
2
t 0 1 t 2 t t
ˆ
Y X Y
RRSS URSS/ m
URSS /(T k)
Yt 0 1 Xt ut
Se define
URSS.- suma de errores al cuadrado de la regresión sin
restricción
RRSS.- suma de errores al cuadrado de la regresión CON
restricción
m = es el número de restricciones
F k =Número de parámetros en la
regresión auxiliar
49. Zona de No
Rechazo H0
Zona de
RECHAZO H0
F(m,T-k) al 5% de significancia
Hipótesis nula la forma
funcional es lineal
Hipótesis alternativa la forma
funcional NO ES LINEAL
H0 :2 0
H1 :2 0
52. SUPUESTO: La covarianza de los términos de
error es igual a cero
Cov(utus ) E[utus ] 0 t s
No existe autocorrelación.Los términos de error son
estadísticamente independientes,no existe relación entre
los errores
Cunado el supuesto no se cumple el modelo presenta
problemas deAutocorrelación
Cov(utus ) 0
53. Se asume que la relación entre los errores describe un
proceso autorregresivo de orden uno 𝐴𝑅(1)
1) ut ut-1 νt
Donde 𝜌 < 1
No están correlacionados los términos 𝑢𝑡−1 y 𝑣𝑡
Eut-1νt 0
Cúales son las características del término de error bajo
el problema de autocorrelación:
2
t
Varν
t
Los supuestos Eν 0
54. 0
-4
-8
-12
4
8
12
10 20 30 40 50 60 70 80 90 100
ût ût-1 νt
Ante un desajuste del modelo el error se
mantiene en varios periodos
Autocorrelación
55. 3
2
1
0
-1
-2
-3
10 20 30 40 50 60 70 80 90 100
No hay autocorrelación,los desajustes se corrigen
rápidamente,no hay información sistemática
56. Se aplica valor esperado a la ecuación (1)
E (ut ) E (ut1 ) E (vt ) 0
La varianza del término de error a partir de la
ecuación (1)
t-1
t t ν )2
Var(u ) E(u2
) E( u
2
t
t-1 t
2 2
t-1
t
Varu E
t
u 2u ν ν
Var(u ) 2
E(u2
)
t t-1 t
E(ν2
)
2E(ut-1νt )
Igual a cero
57. ν
σ2
t
Var(u )
ν
2 2
u
2 2
u
σ2
2
u
2
σ
ν
1 2
2
u
Despejando para 𝜎2
El resultado importante es que la varianza del error
depende del coeficiente rho
Cuando rho se acerca al valor de uno la varianza crece,
cuando rho se acerca al valor de cero la varianza del error
𝑣
es igual a 𝜎2
58. Que sucede con la covarianza del error
E(ut-iut-j)
(1- 2
)
2
Cov(utut-1) ν
Desarrollando el caso de 𝐸(𝑢𝑡 𝑢𝑡−1)
Cov(utut-1) Cov((ut-1 νt )ut-1)
Covut-1ut-1 Covνtut-1
Varut-1 Eνtut-1
Igual a cero
Cov(u u ) 2
t t-1 u
59. 2
Cov(u u ) Cov(ν u )
t-2 t-2 t-1 t-2
t-2 νt-1)ut-2)
Cov((u
Cov(ut-1ut-2) Cov(νtut-2)
Cov(ut-1ut-2)
Cov(utut-2) Cov((ut-1 νt )ut-2)
t-2
t-2 t-2
t t-2
Cov(u u ) 2
Var(u u ) 2
E(u2
)
σ2
ν
1 2
2
Cov(utut-2)
Nota 𝑢𝑡−2 = 𝜌𝑢𝑡−1 + 𝑣𝑡−1
Igual a cero
60. Cov(u u ) 2
t t-1 u
σ2
ν
1 2
σ2
3
σ2
ν
1 2
ν
1 2
2
Cov(utut-2)
s
Cov(utut-3)
⁝
Cov(utut-s )
La covarianza de los
errores depende de
coeficiente de
correlación
61.
1 T
E(uu )
1
T
E(u )
1 T
⋱ ⁝
2
E(utut) ⁝
E(u2
) E(uu )
La matriz de varianzas y covarianzas de los errores
se modifica:
2 2
2
2 2
1
Asumiendo que la varianza de los errores es
constante
σ2
ν
12
u
n
E(u )
E(u ) E(u )
62. Eutus
1 2
u
k 2
Cov utus
T2
T1
1
⁝
1
v
u
V 2
2
…
1 …
⋱
T1
T2
T3
1 2
⁝
2
Se define una nueva matriz de varianzas y covarianzas
63. Consecuencias de la autocorrelación
En el contexto de la representación matricial del modelo
econométrico
𝑌𝑡= 𝑋𝑡𝛽 + 𝑈𝑡
Las propiedades del término de error
𝑈𝑡 ~𝑁(0, 𝜎2Ω)
El estimador de mínimos cuadrados ordinarios sigue
siendo lineal e insesgado,pero pierde eficiencia
𝑡 𝑡
𝛽^~𝑁(𝛽,𝜎2 𝑋′𝑋𝑡
−1𝑋′Ω𝑋𝑡 𝑡
𝑋′𝑋𝑡
−1)
64. 4
3
2
1
0
-1
-2
-3
-4
10 20 30 40 50 60 70 80 90 100
NO_AUTOCORRELACION
AUTOCORRELACION
Comparativo errores con y sin autocorrelación
66. 𝐻0: 𝜌 = 0
La hipótesis nula (𝐻0) es que no existe autocorrelación.
La hipótesis alternativa es que el parámetro rho sea
diferente de cero
𝐻𝑎 : 𝜌 ≠ 0
Si rho es diferente de cero se puede plantear el caso
de que 𝜌 < 0,también 𝜌 > 0.En este contexto Durbin
yWatson plantean un estadístico cuya distribución
tenga una hipótesis alternativa con dos alternativas
𝐻𝑎1: 𝜌 < 0 𝐻𝑎2: 𝜌 > 0
67. Durbin y Watson proponen un estadístico cuya
distribución permita manejar dos límites:uno superior y
otro inferior
𝑟𝐿≤ 𝑟 ≤ 𝑟𝑈
El estadístico propuesto es el denominado d o estadístico
DurbinWatson,que se define como la razón de la suma
del cuadrado de la primera diferencia de los residuales
con respecto a la suma del cuadrado de los residuales
DW T
t
T
t
t1
t2
2
t1
uˆ2
û û
68.
K exp
T T
t
t1 t1
2
2
1
u 2utut1
(1 )
2
2
La distribución teórica del estadístico de Durbin-
Watson se define como:
De este manera se demuestra que el estadístico Durbin-
Watson puede tomar valores entre cero y cuatro
DW
0 2
𝜌
4
−1 0 1
69. Las zonas de H0 y de la hipótesis alternativa de se
definen a partir de los límites inferior y superior
DW
0 2 4
4 − 𝑑𝑈
𝑑𝑈
Valores admisibles
para DW 𝑑𝑈 < 𝐷𝑊 < 4 − 𝑑𝑈
71. Para k = número de variables independientes
(du, 4-du)
Estática K = 2 (1.57, 2.43) T=30
Ajuste K = 3 (1.65, 2.35) T=29
Dinámica K = 5 (1.84, 2.16) T=29
Diferencia K = 2 (1.56, 2.44) T=29
ECM K = 6 (1.96, 2.04) T=28
Estática 0.539620 Diferencia 0.625492
Ajuste 0.879090 ECM 2.334384
Dinámica 0.520320
Estadísticos DW ecuaciones
72.
DW
t
t
t
t
T
t1
T
t2
2
t1
t t1
T
t1
T
t2
2
t1
uˆ2
)
ˆ
(û2
2û û u
uˆ2
û û
Desarrollando el estadístico Durbin-Watson
t
T
t
T
T
t1
t2 t1
T
t1
t2 t t1
t
T
t
T
t1
t2
2
uˆ2
uˆ2
uˆ2
û û
uˆ2
uˆ2
≈ 1 = 𝜌
^ ≈ 1
DW 1 2 1 2 2 2(1 )
Si el DW se ubica entre 1.5 y 2.5 se puede asumir que
no existe autocorrelación
73. La DurbinWatson es válida solo cuando las variables
incluidas en la ecuación son exógenas.
DurbinWatson pierde potencia cuando se incluyen los
valores rezagados de la variable dependiente en la
ecuación de regresión.
En este caso el valor del estadístico dw esta sesgado
hacia 2 y puede por tanto indicar la independencia serial
cuando en realidad existe un problema de
autocorrelación.
74. Prueba de autocorrelación Breusch-Godfrey
(LM-autocorrelación)
Breusch,T
.S. (1979) "Testing for Autocorrelation in
Dynamic Linear Models",Australian Economic Papers,
17,334–355
76. Estadístico de la prueba.Se demuestra que el 𝑅2 de la
regresión auxiliar multiplicada por los grados de libertad
(𝑇 − 𝑝)𝑅2~𝜒2(𝑝)
Donde 𝑝 es el número de restricciones en la regresión
auxiliar
.El estadístico se distribuye como una ji-cuadrada
Rechazo de
𝐻0
Zona de
𝐻0
77. Eviews también reporta un estadístico F
,el resultado
indica problemas de autocorrelación
79. Supuesto de estabilidad de los estimadores
La especificación del modelo econométrico asume que
los estimadores permanecen estables a lo largo de la
muestra.No se modifica el valor de los estimadores
Modelo general
ˆ
Yt X t ut
El valor de los estimadores
no cambia en el tiempo
Cuando el valor de los estimadores cambia se dice que el
modelo presenta problemas de Cambio Estructural.La
respuesta entre las variables cambia en el tiempo
80. Yt Xt t ut
Cambio estructural
Consecuencias del cambio estructural
a) El valor de los estimadores no miden adecuadamente
larelación entre las variables, larespuesta de la
variable dependiente cambia en el tiempo
b) El modelo no puede ser utilizado para realizar
pronóstico
c) Genera sesgo en la distribución de los errores
d) Es una causa de problemas de heteroscedasticidad
81. Estimación por mínimos cuadrados recursivos
Es una serie de estimaciones por MCO.Donde la
muestra para cada estimación se incrementa
sucesivamente.
Yi Xîi ui i =m, ..., T
82. Prueba de Residuales Recursivos
La posible inestabilidad de los estimadores podría
verificarse examinando el comportamiento de los
residuos que generan las estimaciones recursivas del
modelo
Su representación gráfica permite observar como el
estimador cambia en el tiempo
Por estimaciones recursivas se entienden aquellas en
que laecuación se estima repetidamente, con la
utilización siempre del mayor subconjunto de los
datos muestrales
83. Prueba CUSUM
Xt̂t1
t
/
t
t
2
X X
t1 t1
1 x x
Var( v )
Se estandariza la varianza
Var(vt )
vt
v
~ Para t= k+1, ..., T
Se calculan los residuales recursivos
vt Yt
Se obtiene la varianza
84. Se construye la suma acumulada (CUSUM)
CUSUM Wt
T
̂2
jk1
̂2
RSS /(T k )
T
Se espera que E(Wt)=0 pero si los parámetros no son
constantes diverge del cero
v~j
85.
k,a Tk
T,3a Tk
Límites
de no
rechazo
=0.05 a= 0.948
El gráfico de la suma acumulada de los residuales
recursivos (CUSUM) respecto al tiempo permite verificar
desviaciones sistemáticas de éstos desde su línea de cero
que es el valor esperado
Se definen un límite inferior y un límite superior para la
trayectoria de la suma acumulada de los errores
recursivos
88. -15
-20
82 84 86 88 90 92 94 96 98 00 02 04 06 08 10 12
-10
-5
0
5
10
15
20
CUSUM 5% Significance
0
-4
-8
-12
-16
84 86 88 90 92 94 96 98 00 02 04 06 08 10 12
4
8
12
16
20
24
CUSUM 5% Significance
No hay cambio
estructural,la suma
acumulada esta dentro
de los límites
Problemas de cambio
estructural sale de las
bandas
89. Cusum cuadrado (CUSUMSQ). Una medida alternativa,
aunque no equivalente a utilizar CUSUM, consiste en
emplear los cuadrados de los residuos recursivos.De
nuevo, la suma acumuladaen el tiempo de estos residuos
al cuadrado,conocida como CUSUM al cuadrado,permite
comprobar desviaciones no aleatorias desde su línea de
valor medio
La serie de CUSUM al cuadrado (CUSUMSQ),
debidamente estandarizada,tiene un valor esperado que
va de cero en t=1 hasta uno al final de la muestra,t=T
90. CUSUM SQR
t k 1,...,T
w
w
T
t
2
j
2
j
t
W
~
jk1
jk1
t
T k
E
W
~
t k
91. La prueba CUSUM es un indicador de la instabilidad de
la media condicional del modelo, no permite identificar
las fechas de cambio
La prueba CUSUMSQ esta asociado a cambios en la
varianza de los errores,por lo tanto se sugiere aplicar
previamente las pruebas de heteroscedasticidad
Existen otras pruebas más eficientes en la detección de
problemas de cambio estructural pero requieren una
muestra de datos grande
92. Causas que generan el problema:
1) Choques externos o medidas de política económica
que han afectado la evolución de la variables
2) El problema de heteroscedasticidad y forma
funcional están relacionados con el cambio
estructural
3) Es necesario incorporar más información estadística
en el modelo,mediante otras variables explicativas
y/o rezagos de las variables del modelo
93. 0
2
4
6
8
10
10 20 30 40 50 60 70 80 90 100
Y1
0
2
4
6
8
10
12
10 20 30 40 50 60 70 80 90 100
Y2
0
4
8
12
16
20
10 20 30 40 50 60 70 80 90 100
Y3
0
5
10
15
20
25
10 20 30 40 50 60 70 80 90 100
Y4
Sin cambio estructural Cambio en el intercepto
Cambio en la tendencia Cambio en el intercepto
y la tendencia