Modelo lineal genaral eco0
Upcoming SlideShare
Loading in...5
×
 

Modelo lineal genaral eco0

on

  • 529 views

Explicación del Modelo Lineal General

Explicación del Modelo Lineal General

Statistics

Views

Total Views
529
Views on SlideShare
529
Embed Views
0

Actions

Likes
0
Downloads
6
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

Modelo lineal genaral eco0 Modelo lineal genaral eco0 Presentation Transcript

  • 1Tema 3Primera parteEl Modelo Lineal General:Especificación y estimaciónMonia Ben Kaabia21) ESPECIFICACIÓN E INTERPRETACIÓN DEL MLG2) HIPÓTESIS DEL MODELO.3) RECTA DE REGRESIÓN MUESTRAL Y POBLACIONAL4) ESTIMACIÓN POR MCO DE LOS PARÁMETROS DEPOSICIÓN.5) PROPIEDADES DE LOS ESTIMADORES MCO DE LOSPARÁMETROS DE POSICIÓN.6) PROPIEDADES ALGEBRAICAS DE LA ESTIMACIÓN MCO7) ESTIMACIÓN MCO DEL PARÁMETRO DE DISPERSIÓN.PROPIEDADES.8) ESTIMACIÓN DE MÁXIMA VEROSIMILITUD DE LOSPARÁMETROS.9) BONDAD DE AJUSTE DEL MODELO10) FORMA FUNCIONAL Y CAMBIO DE ESCALAINDICE3Especificación del Modelo Lineal General (MLG)Con el MLG se pretende cuantificar una supuesta relaciónestocástica lineal unidireccional entre una variable Y (Variableendógena o dependiente) y K≥1 variables X1, X2, ,...,Xk(variables explicativas)Para ello es necesario disponer de una colección de datos omuestra de T observaciones21122212121211111⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡kTTTTkkxxxyxxxyxxxyLMMMMLL1- ESPECIFICACIÓN DEL MLG41- ESPECIFICACIÓN DEL MLGEl MLG con (k) variables explicativas y dada una muestra de Tobservación de cada una de las variables, tiene la siguienteespecificación:T1,2,..,i2211 =++++= ikikiii uXXXY βββ KLa terminología del MLG es:• Yi: observación i-ésima de la variable endógena o dependientes• X1i, X2i,...,Xki: observaciones i-ésimas de las k variables explicativas o exógenas• ui: i-ésimo valor del término del error o perturbación aleatoria (no observable)• β1, β2, ..., βk, son los parámetros de posición (desconocidos, a estimar)Por tanto el MLG define una relación:-Lineal entre una variable endógena y k variables explicativas-Estocástica, ya que admite errores de ajuste-Útil para inferir los valores Yi, conociendo los valores de Xji (j=1,2,..,k)
  • 51- ESPECIFICACIÓN DEL MLGEl MLG tiene término constante cuando X1i=1 para todoi=1,...,T. En este caso, El MLG con (k-1) variables explicativas yuna constante tiene la siguiente especificación:T1,2,..,i221 =++++= ikikii uXXY βββ Kβ1 es el término constante y β2, β3,...,βk las pendientes del modeloMuy importante: El MLG es Lineal porque los parámetros quefiguran en su lado derecho lo hacen de forma lineal ( a lo sumo,están multiplicados por un término que no depende de ningúnparámetro del modelo)61- ESPECIFICACIÓN DEL MLG• Ejemplos:- Análisis de los determinantes de las ventas anuales de una empresatttt uecioGpubventas +++= Pr321 βββ• Venta son las ventas anuales de la empresa en miles de euros• Gpub son los gatos anuales en publicidad realizados por la empresa en miles de euros• Precio es el precio de ventas del productos en euros por unidad- Análisis de los determinantes de los salarios de los trabajadoresiiii uExpEduSalario +++= 321 βββ• Salario del individuo en euros por hora• Edu es su nivel de educación en años• Exp es el número de años que lleva trabajando7Especificación: representación matricial del MLG-La información asociada a la variableendógene se almacena en un vectorcolumna Y de tamaño Tx1)-La información (datos) asociada a lasvariables explicativas se recoge en unamatriz X de tamaño (Txk)-Las perturbaciones en un vector U detamaño (Tx1) y los parámetros en unvector B de tamaño (kx1)⎟⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎜⎝⎛=TyyyYM211112222121⎟⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎜⎝⎛kTTkkxxxxxxKMOMMLLU 2121⎟⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎜⎝⎛=⎟⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎜⎝⎛=Tk uuuMMββββ1- ESPECIFICACIÓN DEL MLG81- Especificación: Representación Matricial del MLGUXY += β1T1kkT1T212121222121211121××××⎟⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎜⎝⎛+⎟⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎜⎝⎛⎟⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎜⎝⎛=⎟⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎜⎝⎛=TkkTTTkkT uuuxxxxxxxxxyyyYMMKMOMMLLMβββ(ObservacionesVble. Endógena)Observaciones en periodo t=1 de todas las variablesObservaciones variable x1XObservacionesVbles. Exp.Parámetros Perturbaciones
  • 91- Especificación: MLG con término constanteUXY += βY = X β + U1T1kkT1T1112121222212121××××⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎝⎛+⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎝⎛⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎝⎛=⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎝⎛TkkTTkkT uuuxxxxxxyyyMMKMOMMLLMβββ(ObservacionesVble. Endógena)Observaciones en periodo t=1 de todas las variablesObservaciones variable x1=1 para i=1,...,T101- Especificación: MLG con término constanteobs ventas publicidad precio1 120 8 1002 115 9 1023 130 10 954 142 14 905 148 12 926 144 16 947 165 20 888 160 22 869 175 26 9010 180 24 86Ejemplo: ventas de una empresa de aspiradorestttt uecioGpubventas +++= Pr321 βββTabla de datos para la estimación del modeloT=1,2,...,10Especificación en forma matricial⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝⎛=180175160165144148142130115120VENTAS⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝⎛=86241902618622188201941619212190141951011029110081XUXVENTAS += β⎟⎟⎠⎞⎜⎜⎝⎛=321ββββ111.2- Interpretación gráfica del MLG: Gráfico de nube de puntosiii uxy ++= 121 ββ i=1,2,..,T***** ***** ****xiyiPdte = β2Ord. Origen*uiβ1Interpretación de β1-Gráfica: Ordenada en el origenInterpretación de β2- Gráfica: pendiente de la recta deregresión- Económica: Efecto parcial- Matemática: Derivada parcial1- Especificación y interpretación del MLG121-2) Interpretación Económica y matemática del del MLGCuando las variables explicativas son continuas (Cuantitativas),los parámetros del MLG pueden interpretarse como:Matemáticamente: derivadas (parciales) de la variable endógenacon respecto a las variables explicativas.Económicamente: Efecto parcial de las variables explicativassobre la endógenaiii uxy ++= 110 ββiiiiXYdxdy111ΔΔ==ββ1 representa la variación absoluta en la variable endógenaante una variación de 1 unidad en la variable X1
  • 131.2) Interpretación Económica y matemática del del MLGImportante. Cuando en el MLG hay mas de una variablesexplicativas, en la interpretación de los parámetros hay queañadir la coletilla ceteris paribus .T1,2,..,i221 =+β++β+β= ikikii uXXY Kβi representa la variación absoluta de la endógena (y) debido auna variación en una unidad de la explicativa (xi), suponiendoque los demás factores en (2) se mantienen constantes.14β0: es la constante o el término independienteβ1:mide el cambio absoluto en Y ante un cambio en una unidaden la variable X1, manteniendo X2 constante (efecto ceterisparibus):β2: mide el cambio en Y ante un cambio en una unidad en lavariable X2, manteniendo X1 constante (efecto ceteris paribus)iiii uxxy +++= 22110 βββuxxy Δ+Δ+Δ=Δ 2211 ββ02 =Δx 11 xy Δ=Δ β01 =Δx 22 xy Δ=Δ β1-2) Interpretación Económica y matemática del del MLG15Ejemplos del MLG:iiii uExpLEducSal +β+β+β= 210β1: mide el efecto ceteris paribus del nivel de educación en elsalario percibido. Es decir, representa la variación absoluta en elsalario de cualquier trabajador debido a un año adicional deeducación, suponiendo que los demás factores se mantienenconstantesβ2: mide el efecto ceteris paribus de los años de experiencia en elsalario, es decir, representa la variación absoluta en el salario decualquier trabajador debido a un año adicional de experiencia,suponiendo que los demás factores se mantienen constantes1-2) Interpretación Económica del del MLG162- Hipótesis del MLGLa especificación completa del MLG no incluyesolamente la forma de la relación entre Y y las kvariables explicativas;Sino también la especificación de la distribución deprobabilidad de la perturbación así como de la forma enque se han generado los valores de las explicativasHace falta establecer una serie de hipótesis básicasobre la parte aleatoria y la parte sistemática delmodelo
  • 172- Hipótesis del modelo• Supuesto 1: Muestreo aleatorio:{(yi, xi1, x2i,…xki); i=1, …, T} muestra aleatoriadel modelo poblacional de tamaño T• Supuesto 2: Ausencia de error de especificación- Lineal- No se omiten variables relevantes- No se incluyen variables irrelevantes• Supuesto 3: Hipótesis de linealidad en losparámetros. Establece la linealidad en losparámetros en la relación entre la variable endógenay las explicativas. Es decir, en la función de consumotendremos:ttt uRC ++= 21 ββ 182- Hipótesis del modelo• Supuesto 4: Grados de libertad suficientes:Tenemos muchomas observaciones en la muestra que parámetros a estimar. Esdecir, T-k>0.• Supuesto 5: Hipótesis de parámetros constantes. Estahipótesis supone que los parámetros β1, β2, …,βk sonconstantes en el tiempo• Supuesto 6. Las variables explicativas sonlinealmente independientesAusencia de multicolinealidad exacta1)(0||)()(−′∃⇒≠′⇒=′⇒=XXXXkXXrkXr19Supuesto 7. Regresores no estocaticos. Esta hipótesis implicaque los datos de las variables explicativas son fijos en muestrasrepetitivas. Es decir:la parte sistemática y aleatoria son independientes:Cov(X,u)=0Supuesto 8: Hipótesis de convergencia2- Hipótesis del modeloxxT TXXΣ=′∞→lim Una matriz de constantes202- Hipótesis del modeloHipótesis referentes a las perturbaciones aleatorias• Supuesto 9. Esperance cero de las perturbacionesaleatorias: no hay error sistemáticoE(U)=0⇒ E(ui)=0 iTTTTuEuEuEuuuEUE 0000)()()()( 21211 =⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=×MMM
  • 212- Hipótesis del modeloSupuesto 10: Varianza de las perturbacionesaleatorias es constante a lo largo de la muestra:homoscedasticidad:i)()var( 22∀== σii uEuSupuesto 11: Covarianzas nulas entre un parde perturbaciones aleatorias distintas:Ausencia de autocorrelación en todo instantede tiempoji0)(),cov( ≠∀== jiji uuEuu22..xix1=80 x2=100y if(yi)Las varianzas de ui en dos niveles distintos derenta familiar, xi , son identicas.gastoCaso Homoscedasticorenta23.xtx1 x2yif(yi)La varianza de ui aumenta con la renta de lafamilia xi.gastoCaso Heteroscedasticox3..renta242- Hipótesis del modeloMatriz de varianzas y covarianzas del vector de perturbaciones aleatorias)(21212211212121⎟⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎜⎝⎛=′uuuuuuuuuuuuuuuEUUETTTTLMOMMLLTeniendo en cuenta S10+S11TIUUE 2222000000)( σσσσ=⎟⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎜⎝⎛=′LMOMMLLLas perturbaciones que cumplen ambos supuestos se denominanesféricas matriz de varianzas y covarianzas escalar
  • 252- Hipótesis del modeloSupuesto 12. ui se distribuye como una normalU ~ ),0( 2TIN σNui ≈Teniendo en cuenta: S9+S10+S11+S12diiN ..),0( 2σui ~262- Hipótesis del modeloUYEUYEXUEXUXEYE=⇒+==+=+=)(-Y)(Y)()()( βββ),( 2TIXNY σβ≈Características de la variable endógena bajo el cumplimiento delas hipótesis básicas del MLGUXY += β-Media y VarianzaY es un vector devariables aleatoria- Distribución: teniendo en cuenta en supuesto 12, entonces:S.9[ ] TIUUEYEYYEYEYV 2)())())((()( σ=′=′−−=S5+S7),0( 2TINU σ≈S.12:S10+S11273- Recta de regresión poblacional y muetralEjemplo: Función de consumo keynesianoEspecificación del modelo econométricoYi=β1+β2Xi+uiE(Yi) = α + β XiCada media E(Yi) es una función de Xi.diiN ..),0( 2σui ~Teniendo en cuenta las hipótesis básicas del MLG:Esta ecuación se conoce comola recta de regresión poblacional (RRP).28Yi=α+βXi+ui80 100 120 140 160 180 200 220++++++++++++++++++++++++++++15010050XYPara cada valor de X existe una distribución deprobabilidad completa de valores de Y
  • 29++++YXE(Yi)=α+βXi80 100 120897765Distribución de Ydado X=120Media: E(Yi)Recta de RegresiónPoblacional++++++++30Especificacion Estocastica de la RRPDado un nivel de renta Xi, el consumo familiar se concentraalrededor del consumo medio de todas las familias connivel de renta Xi .. Es decir alrededor de su media E(Yi).La desviacion de un individuo Yi es:ui = Yi - E(Yi)o Yi = E(Yi) + uio Yi = α + β X i+ uiError estocastico oPerturbación aleatoria31La RRP es desconocida, al ser desconocidos los valores deα y β. Al estimarlos obtenemos la recta re regresiónmuestral (RRM):ii XˆˆYˆ β+α=Los valores de diferirán de los de Yi. Estasdiferencias reciben el nombre de residuos :iYˆiii uˆYˆY =−iuˆLos residuos pueden considerarse como estimaciones delas perturbaciones3-RECTA REGRESIÓN MUESTRAL32Recta de Regresión Muestral (RRM)....Y4Y1Y2Y3x1 x2 x3 x4}}{{1234Y = α + βXxY^ ^ ^E(Y) = α + βX(RRM)(RRP)Diferentes muestras tienen diferentes RRMuˆuˆuˆuˆ
  • 33RRM:Yi = α + β Xio Yi = α + β Xi + uio Yi = b1 + b2 Xi + eiRRP:Yi = α + β Xi + uiYi = estimador de Yi (E(Yi)β y = estimadores de β y αResiduoTérmino delError^^ ^^^ ^ ^^^αˆ 34Relacion entre Y, u y la recta de regresión verdadera...Y4Y1Y2Y3x1 x2 x3 x4}}{u1u2xY (RRM)(RRP)E(Y2)u2^Y2^XˆˆYˆ β+α=X)Y(E β+α=354) Estimación MCO de los parámetros deposición4.1) IntroducciónSupongamos que queremos estimar los parámetros de la función deconsumo keynesiano:Yt=β1+β2Xt+utPara ello, se dispone de una muestra de T datos de consumo yrenta que se pude representar en un plano Yt y XtGráfico: Nube de puntos real* * * ** ** * * * ** **YtXt36Una estimación de los parámetros del modelo se obtieneajustando una recta a la nube de puntos* * * ** ** * * * ** **YtXtRecta de ajuste:tt XY 21ˆˆˆ ββ +=El objetivo ahora es conseguir una estimación de losparámetros de manera que se cumpla algún criterio deoptimización.¿Qué criterio?
  • 371) Un criterio sería minimizar la suma de los residuos cometidosen toda la muestra2) Minimizar la suma de los residuos en valor absoluto3) Minimizar la suma de los cuadrados de los residuos∑ =iuˆminProblemas: los errores grandesy (+) se pueden compensarcon los grandes y (-)∑ =iuˆmin Dificultad analítica de obtener unasolución para∑ 2ˆmin iu 221 )ˆˆ(min tt xy ββ −−∑38El criterio de optimalidad seria obtener una expresión de queminimice la suma de los cuadrados de los residuos∑ 2ˆmin iu 221 )ˆˆ(min tt xy ββ −−∑Ventajas:- Eliminar la compensación de errores por el signo- Penalizar más los errores grandes que los pequeños- Llevar a una solución analítica sencilla.Este criterio de estimación es el más conocido enEste criterio de estimación es el más conocido enEconometría y se denomina MCO (MínimosEconometría y se denomina MCO (MínimosCuadrados Ordinarios)Cuadrados Ordinarios)394) Estimación MCO de los parámetros de posiciónkikii xxy β++β+β= ˆˆˆˆ 221 Kikikii uxxy ˆˆˆˆ221 +β++β+β= Kiikikiii yyxxyu ˆˆˆˆˆ 221 −=β−−β−β−= KMCO minimiza la SR= ∑ 2iuˆ∑ 2iuˆ Sxxy kikii =β−−β−β−∑ 2221 )ˆˆˆ( Kmin = minresiduos4-2) Estimación del modelo Lineal General40∑ 2iuˆ Sxxy kikii =β−−β−β−∑ 2221 )ˆˆˆ( Kmin = minCondiciones de primer orden:Condiciones de primer orden:0)ˆˆˆ(20)ˆˆˆ(20)ˆˆˆ(22212211222211=β−−β−β−−=β∂∂=β−−β−β−−=β∂∂=β−−β−β−−=β∂∂∑∑∑kikiikikkikiiiikikiixxyxSxxxyxSxxySKMKK
  • 41En forma matricial:βββ ˆˆˆ2ˆˆˆ2XXYXYYUUui′′+′′−′=′=∑Min S=0ˆ22ˆˆˆˆ=β′+′−=β∂′∂=β∂∂XXYXUUSβ′=′ ˆXXYXSistema de ecuaciones normales: k ecuaciones normales y kincógnitasCondiciones de primer orden:42Una solución, si existe, es el estimado MCO delvector de parámetros β:YX)XX(ˆ 1′′=β −A Solución única siB ∞ soluciones si0≠′XX0=′XXβ′=′ ˆXXYX0=′XX Multicolinealidad exacta (Falla S.9)Supuestos utilizados-S2. Especificación correcta-S3. Linealidad en los parámetros-S4.Grados de libertadsuficientes-S5. parámetros constantes-S6. No multicolinealidad exacta43⎟⎟⎟⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎜⎜⎜⎝⎛∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑−−−2121213232323223232kikiikkiikikiikikiiikiiiiiikiiixxxxxxxxxxxxxxxxxxxxxxxTLLMMOOLL=⎟⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎜⎝⎛∑∑∑kiiiiixyxyyM2⎟⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎜⎝⎛βββkˆˆˆ21Mβ′=′ ˆXXYXLas k ecuaciones normales bajo la forma matricial4) Estimación MCO de los parámetros de posición4412121213232323223232−−−−⎟⎟⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎜⎜⎝⎛∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑kikiikkiikikiikikiiikiiiiiikiiixxxxxxxxxxxxxxxxxxxxxxxTLLMMOOLL⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎝⎛∑∑∑kiiiiixyxyyM2=⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎝⎛kβββˆˆˆ21MExpresión matricial del estimador MCO (modelocon término constante)YX)XX(ˆ 1′′=β −4) Estimación MCO de los parámetros de posición
  • 454) Estimación MCO de los parámetros de posiciónEjemplo: ventas de una empresa de aspiradorestttt uecioGpubventas +++= Pr321 βββ⎟⎟⎠⎞⎜⎜⎝⎛=⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝⎛135522250531479180175160165144148142130115120⎟⎟⎠⎞⎜⎜⎝⎛=⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝⎛⎟⎟⎠⎞⎜⎜⎝⎛=′8546514592923145922977161923161108624190261862218820194161921219014195101102911008186908688949290951021002426222016121410981111111111XX⎟⎟⎠⎞⎜⎜⎝⎛=′86908688949290951021002426222016121410981111111111YX⎟⎟⎠⎞⎜⎜⎝⎛⎟⎟⎠⎞⎜⎜⎝⎛=′′=−−135522250531479854651459292314592297716192316110)(ˆ11YXXXβ⎟⎟⎟⎠⎞⎜⎜⎜⎝⎛=⎟⎟⎠⎞⎜⎜⎝⎛−=⎟⎟⎠⎞⎜⎜⎝⎛⎟⎟⎠⎞⎜⎜⎝⎛−−−−=321ˆˆˆ46,120,257,2471355222505314793849268339845926832721291449398459291449415028413274641βββ464) Estimación MCO de los parámetros de posiciónEjemplo: modelo estimado de las ventas de una empresa deaspiradorestttt uecioGpubventas ˆPr46,122,257,247 +−+=Interpretación de los resultados- Las ventas esperadas independientemente del precio y los gastos enpublicidad son de 247,57 miles de euros- Si se incrementan los gastos en publicidad en mil euros, manteniendo elprecio constante, las ventas se incrementan en 2,2 mil euros-Si se incrementa el precio en un euro, manteniendo los gastos en publicidadconstantes, disminuirán las ventas en 1,46 mil eurosE(ventas)= = 247,57 siendo Gpub = precio=01ˆβΔventas = *ΔGpub = 2,2*ΔGpub si ΔPrecio=02ˆβΔventas = *ΔPrecio = -1,46*ΔPrecio si Δgpub=03ˆβ474) Estimación MCO de los parámetros de posiciónEjemplo: modelo estimado de las ventas de una empresa deaspiradoresDependent Variable: VENTASMethod: Least SquaresDate: 03/08/06 Time: 13:19Sample: 2001 2010Included observations: 10========================================================Variable Coefficient Std. Error t-Statistic Prob.=========================================================C 247.5675 67.35953 3.675315 0.0079PUBLICIDAD 2.203809 0.545412 4.040634 0.0049PRECIO -1.464234 0.648685 -2.257233 0.0586=============================================================485) Propiedades de los estimadores MCO delos parámetros de posiciónun vector de variables aleatoriaA) Propiedad en muestras finitasLos estimadores MCO son ELIO, es decir,lineales, insesgados y óptimos (en el sentidode que cualquier otro estimador lineal einsesgado tiene una matriz de varianzas ycovarianzas “mayor”)Teorema de Gauss Markovβˆ
  • 491) Linealidad deEl estimador MCO de β es una función lineal de lasobservaciones de la variable endógena Y (Vble aleatoria)Si Y aumenta al doble, se multiplica por dos.YAYXXX ′=′′=β −1)(ˆβˆβˆA′ Es una matriz (kxT) deelementos constantes quecumple la siguientepropiedad: IXA =′TkTkkkTTTTyayayayayayayayaya+++=+++=+++=...ˆ...ˆ...ˆ22112222121212121111βββM5) Propiedades de los estimadores MCO delos parámetros de posición502) Insesgadez deUXXXUXXXXXXXUXXXXYXXX′′+=′′+′′=+′′=′′=−−−−−11111)()()()()()(ˆβββββ=β)ˆ(Eβˆ5- Propiedades del estimador MCODemostración)()(]ˆ[ 1UEXXXE ′′+= −ββββ =⇒= ]ˆ[0)( EuEsiSupuestos utilizados-S5. Parámetros constantes-S7. Las variables explicativasson deterministas-S9. E(U)=0Supuestos utilizados-S5. Parámetros constantes-S7. Las variables explicativasson deterministas-S9. E(U)=0Sesgo = 0)ˆ( =− ββE513) Óptimos: Mínima varianza[ ] 12)())ˆ(ˆ))(ˆ(ˆ()ˆvar( −′=′−−= XXEEE σβββββPropiedades del estimador MCOMatriz de varianzas y covarianzas del estimador MCODemostración:UXXXUXXX′′=−′′+=−−11)()ˆ()(ˆββββ[ ][ ][ ] 121111)()()()()()ˆ)(ˆ()ˆ(−−−−−′=′′′′=′′′′=′−−=XXXXXUUEXXXXXXUUXXXEEVarσβββββSupuestos utilizados- Todos los utilizados anteriormenteanteriores (S5, S6 , S9) +- S10.- S11.Supuestos utilizados- Todos los utilizados anteriormenteanteriores (S5, S6 , S9) +- S10.- S11.i)var( 2∀= σiuji0),cov( ≠∀=ji uuT2I)var( σ=U523) Óptimos: desarrollo de la matriz de varianzas y covarianzasdel estimador MCO12)()ˆvar( −′= XXσβ1jh2hj1jj2j )XX()ˆ,ˆcov(y)XX()ˆvar( −−′σ=ββ′σ=βMatriz de varianzas y covarinzasPropiedades del estimador MCO⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎝⎛=)ˆvar()ˆ,ˆcov()ˆ,ˆcov()ˆ,ˆcov()ˆvar()ˆ,ˆcov()ˆ,ˆcov()ˆ,ˆcov()ˆvar()ˆ(2122121211kkkkkVββββββββββββββββLMOMMLL
  • 533) Optimalidad de Mejor: mínima varianzaEn el sentido de que cualquier otro estimador lineal e insesgadotiene una matriz de varianzas y covarianzas “mayor”βˆCY=β~[ ] CVarVar =− )ˆ()~( ββC es una matriz semidefinida positivaPropiedades del estimador MCOββ =]~[EDado cualquier tal queSe cumple que:Demostración54DemostraciónDado que las estimaciones de los parámetros β porMCO son una combinación lineal de lasperturbaciones y las perturbaciones son Normales,entonces las estimaciones se distribuyen comoNormalesPropiedades del estimador MCO4- Distribuciones de los estimadores MCO( )12)(ˆ −′,Ν XXσββ ∼ Supuestos utilizados- S5.- Parámetros constantes- S7.- Variables explicativas sondeterministas- S9+S10+S11+S12.Supuestos utilizados- S5.- Parámetros constantes- S7.- Variables explicativas sondeterministas- S9+S10+S11+S12.)IN(0, T2σU ∼UAUXXX′+=′′+= −βββ )(ˆ 155Densidad)ˆ( if βiii EE βββ == )~()ˆ( iβˆ)ˆ( if β)~( if β)ˆ( if β)ˆ( if βDensidadiiE ββ =)ˆ( iβˆInsesgadezEficienciaPropiedades del estimador MCOInterpretación gráfica de las propiedadesPor tanto, β es un vector determinista,pero su estimador por MCO es unvector de variables aleatorias normales,centradas en el valor que se quiereestimar.La insesgadez significa que estamuestra probablemente saldrá delentorno del centro de ladistribución, que coincide con elverdadero valor.βˆ56CAT.1 Variables explicativas y residuos ortogonales entre si6. PROPIEDADES ALGEBRAICAS DE LA ESTIMACIÓN MCO0ˆ0)ˆ( =′⇒=−′ uXYYX0ˆˆˆˆ ==′ UXUY βDemostración:Se deriva del sistema de ecuaciones normalesCAR.2- La variable endógena estimada es ortogonal al residuo0ˆ =′−′ βXXYX 0)ˆ( =−′ βXYX∑ =⇒=′ 0uˆYˆ0uˆYˆii
  • 57CAR.3. La suma de los residuos MCO es igual a cero:Si en el modelo hay término constante⎟⎟⎟⎠⎞⎜⎜⎜⎝⎛=⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎝⎛=⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎝⎛⎟⎟⎟⎠⎞⎜⎜⎜⎝⎛=′∑∑∑000ˆˆˆˆˆˆ111UˆX 2212122221MMMKMOMMLLikiiiiTkTkkTuxuxuuuuxxxxxx0ˆ =∑ iuCAR.4. La media de las variables (endógena estima) y endógena es lamisma0ˆ)ˆ(ˆ =−=−= ∑ ∑∑∑ iiiii yyyyuYYyy iiˆˆ =⇒=∑ ∑6. PROPIEDADES ALGEBRAICAS DE LA ESTIMACIÓN MCO58CAR.5. Los residuos son combinación lineal de las perturbacionesaleatoriasEn todos los casosMUUXXXXXUXXUXXYU=′′−−+=−+=−=−1)(ˆ)(ˆˆβββββUXXX ′′+= −1)(ˆ ββDemostraciónMUU =ˆ XXXXIM ′′−= −1)(SimétricaIdempotenteSemi-D.P.CAR.6. Los residuos son combinación lineal de v. endógenaMYU =ˆMYYXXXXYXYU =′′−=−= −1)(ˆˆ βYXXX ′′= −1)(ˆβDemostración6. PROPIEDADES ALGEBRAICAS DE LA ESTIMACIÓN MCO59CAR.7 Los residuos se distribuyenEn todos los casos),0( 2MN σ6. PROPIEDADES ALGEBRAICAS DE LA ESTIMACIÓN MCO60Nota- calculo de la suma de los cuadrados de los residuosYXYYXYXYUUuSR i′′−′=−′−=′′== ∑ βββ ˆ)ˆ()ˆ(ˆˆ2βββββ ˆˆ)ˆˆ(ˆˆ XXYYUXXYYYXYYSR ′′−′=+′′−′=′′−′=YYYYXXYYSR ˆˆˆˆ ′−′=′′−′= βββˆˆ XY =0ˆ =′UXCAR .8 MYYMUUUUSR ′=′=′= ˆˆDemostraciónMUUMUMUUUMUU ′=′′=′⇒= ˆˆˆMYYMYMYUUMYU ′=′′=′⇒= ˆˆˆ6. PROPIEDADES ALGEBRAICAS DE LA ESTIMACIÓN MCO
  • 61222222222ˆˆˆˆ)ˆˆ()(YTYXYTYYYTYYySEYTYYYTYYySTiiii−′′=−=−=−=−=−=−=∑∑∑∑βCon T. const YY =ˆCAR 9. Si el modelo de regresión tiene término constante,entonces se cumple que:ST=SE+SRDemostraciónYYYYUUSR ˆˆˆ ′−′=′′=ˆˆˆˆˆˆ 22YTYYUUYTYYYYUUYY −′+′′=−′⇒′+′′=′DefinicionesRestanto 2YT6. PROPIEDADES ALGEBRAICAS DE LA ESTIMACIÓN MCO627) Estimación del parámetro de dispersión ypropiedades7-1) EstimaciónkTSRkTUUkTuu ii−=−′=−== ∑ ˆˆˆˆ)var(22σkTMYYkTMUUkTYXYY−′=−′=−′−′=βσˆˆ2637-2) PropiedadesA. En muestras finitas:1) Insesgado[ ] [ ] [ ] [ ][ ] )()()()()()()()ˆˆ(222kTMtrIMtrUUMEtrUMUEtrUMUtrEMUUtrEMUUEuuET −===′=′=′=′=′=′σσσ22ˆˆ)ˆ( σσ =⎥⎦⎤⎢⎣⎡−′=kTUUEE)()(ˆˆ)ˆ( 2kTMUUEkTMUUEkTUUEE−′=⎥⎦⎤⎢⎣⎡−′=⎥⎦⎤⎢⎣⎡−′=σPropiedades de la traza- tr(escalar)=escalar- tr(AB)=tr(BA)- E[tr(A)]=tr(E[A])- tr(In)=nkTItrItrXXXXtrItrXXXXtrItrXXXXItrMtrkTTTT−=−=′′−=′′−=′′−=−−−)()())(()())(()())(()(111MUUSR ′=Demostración642) No lineal3) No ELIOkTMYYkTuu−′=−′=σˆˆˆ 27-2) PROPIEDADES DEL PRÁMETRO DE DISPERSIÓNA. EN MUESTRAS FINITAS:
  • 65)I,0(NX N2σ≈),0(Nx 2i σ≈22 rAXXχσ≈′B. PROPIEDADE ASINTÓTICAS:Teorema: Sea X=(x1,x2,...,xN) un vector de N variablesaleatorias normales independientes con media cero y varianzaconstanteAdemás si tenemos una matriz A simétrica e idempotente de rango r66Aplicando este teorema a nuestro caso se obtiene:),0( 2TINU σ≈22 kTMUU−≈′χσ22ˆˆkTUU−≈′χσ2kT22ˆ)kT(−χ≈σσ−A partir de los supuestos s10+s11+s12kTMrango −=)(También tenemos una matriz M simétrica idempotente y de rango (T-k)XXXXIM ′′−= −1)(Entonces, aplicando el teorema anterior obtendremos:Demostración:kTMUUkTUU−′=−′=ˆˆˆ2σ2ˆ)( σkTMUU −=′67kT2)ˆvar(42−σ=σ-Asintóticamente insesgado-Consistente0kT2lim)var(lim4T2T=−σ=σ∞→∞→B. PROPIEDADE ASINTÓTICAS:Para demostrara la consistencia, tenemos que calcular primero lavarianza:Demostración:2kT22ˆ)kT(−χ≈σσ−Propiedades de)(2)()(22kTVkTEkTkT−=−=−−χχ)(2)ˆvar()(ˆ)(var 24222kTkTkT−=−=⎟⎟⎠⎞⎜⎜⎝⎛ −σσσσ68A modo de resumen, concluimos que el estimadorMCO de σ2 es asintóticamente insegado y consistente,si bien por lo que respecta a las propiedades paramuestras finitas solamente podemos afirmar que esun estimador insesgado
  • 69Finalmente sustituyendo por su estimador obtenemos losestimadores de las varianzas y covarianzas de los estimadoresMCO del vector β:2σ 2ˆσ12)(ˆ)ˆ(ˆ −′= XXV σβ⎪⎩⎪⎨⎧′==′==⇒ −−12ˆ,ˆ122ˆ)(ˆ)ˆ,ˆcov(ˆ)(ˆ)ˆvar(ˆijjijijjjXXXXjσββσσβσβββEs un estimador insesgado708- Estimación por Máxima Verosimilitud(MV) de los parámetros• El método de MV se basa en la función deverosimilitud de la muestra.• La función MV se define como la probabilidadde que se den las observaciones muestrales.• Intuitivamente viene a proporcionar laprobabilidad de que para unos determinadosparámetros de β y σ2 obtengamos una muestraen concreta.718- Estimación por Máxima Verosimilitud(MV) de los parámetros• El método de MV consiste en encontrar aquellosvalores de los parámetrosque maximizan la función de verosimilitud, esdecir la probabilidad conjunta de lasobservaciones de la variable endógena),,,( 2k21 σβββ KLa función de verosimilitud se puede expresar:),(),...,,( 221 σβ== fyyyfL T72• Sabemos que:• Por tanto la función de densidad conjunta del vector Userá:• Recordar que:U = Y-Xβ),0( 2TIN σU∼( ) ⎭⎬⎫⎩⎨⎧ ′σ−πσ= UUUf T 22/2 21exp21)(La estimación MV Requiere distribución del error(1)
  • 73En la función de verosimilitud (1) sustituyendo el vectorU como función de las variables observables obtenemosla función de verosimilitud de la muestra Y:( ) ⎭⎬⎫⎩⎨⎧β−′β−σ−πσ=σβ= XYXYYfL T()(21exp21),|( 22/22Los parámetros que maximizan L son los mismos quemaximizan Lln=l)()(21)ln(2)2ln(2ln 22ββσσπ XYXYTTL −′−−−−==lMaximizamos lnL con respecto a β y σ2)2(21)ln(2)2ln(2ln 22β′β′+β′−σ−σ−π−== XXXYYYTTLl74[ ])()(212)(2214222β−′β−σ+σ−=σ∂∂β−′−σ−=β∂∂XYXYTXYXllIgualando a cero (1 y 2) y llamamos los estimadoresmáxima verosimilitud de los parámetros, obtenemos2~y~σβ2~~~~2~σ=β′β′+′β′−′β′=′TXXYXYYXXYX1234YXXX ′′=β −1)(~A partir de 3 y 4 la estimación MV deTXXYXYY β′β′+′β−′=σ~~~2~2β=β ˆ~Tuu ˆˆ′=kTuu−′=σˆˆˆ 2 22 ~ˆ σ≠σCondiciones de primer ordenUXYYYU ˆ~~~ =−=−= β75Propiedad de los estimadores MV de losparámetros de posiciónDado que los estimadores MV de β son iguales a los MCO,cumplen las mismas propiedadesLinealesInsesgadosÓptimosELIOEficientes+Son los de menor varianza entre todos losestimadores insesgadosSu varianza alcanza el límite inferior de laCota de Cramer-Rao 76Propiedad del estimadores MV delparámetros de dispersión1) Para muestras pequeñasNo ELIOTkTkTTuuEE2222 )()ˆˆ()~(σ−σ=−σ=′=σ-No lineal:- Sesgado:Sesgo negativo: MV infraestima el parámetro de dispersiónTMYY′=2~σTkESesgo2222)~()~(σσσσ −=−=
  • 77Propiedad del estimadores MV del parámetrosde dispersión2) Propiedad asintóticasa) Insesgadez asintótica22)~(lim σσ =∞→ETb) Consistencia242 )(2)~var(TkT σ−=σ0)(2lim)~var(lim 242=σ−=σ∞→∞→ TkTTTRecordarBajo el supuesto denormalidad2k-T2χσMUU′Propiedades de)(2)()(22kTVkTEkTkT−−=−−χχ∼78Análisis de la eficiencia de los estimadoresMV:Cota de Cramer-RaoPara obtener la desigualdad de Cramer-Rao, partimosde la Matriz de Información, que el caso del MLG será⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎝⎛σ∂σ∂∂σ∂β∂∂σ∂β∂∂β′∂β∂∂−=22222222lnlnlnlnLLLLEMICota CR:menor varianza que pueda tener un estimadorinsesgado79A partir de las expresiones de las primeras derivadas de la lnL,obtenemos las segundas derivas:2422ln)σσσββXXXXLa′−=′−=′∂∂∂=−′−=∂∂∂422)(ln)σβσβXYXLb626422222)()(12ln)σσββσσσσUUTXYXYTLc′−=−′−−=∂∂∂80Aplicando la esperanza a cada uno de estos elementos(a,b y c):212)( σTuEUUETii =⎟⎠⎞⎜⎝⎛=′ ∑=22)()σσXXXXEa′−=′−0)()(E) 444=′−=⎥⎦⎤⎢⎣⎡ ′−=⎥⎦⎤⎢⎣⎡ −′−σσσβ UEXUXEXYXb462262622222)(222E)σσσσσσσσ TTTUUETUUTc−=−=′−=⎥⎦⎤⎢⎣⎡ ′−Demostración
  • 81Obtenemos la matriz de información:⎟⎟⎟⎟⎠⎞⎜⎜⎜⎜⎝⎛σσ′=42200TXXMILa cota de C-R es la inversa de la matriz de información:⎟⎟⎟⎠⎞⎜⎜⎜⎝⎛ ′==−−TXXMICR 4121200)(σσ82Denominamos ahora:)(2)()(2412σσβσCRTCRXX==′ −- Eficiencia del estimador de βTanto los estimadores MV como MCO tienen la varianza mínimaque puede alcanzar un estimador insesgado de :12)()()~()ˆ( −′=== XXCRVV σβββEficiencia del estimador de σ2)()(2)~var( 2242σσσ CRTkT<−=)()(2)ˆvar( 242σσσ CRkT>−=Menor que la cota de Cramer-Rao, pero es sesgado83Resumen• Estimación MV • Estimación MCOYXXX ′′=β −1)(~ YXXX ′′=β −1)(ˆβ=β ˆ~TUU ˆˆ~2 ′=σLineales, Insesgados, Óptimos (ELIO) y eficientesAsintóticamente insesgados y Consistentes22 ~ˆ σ≠σNo lineal, sesgado yno eficienteNo lineal, Insesgado, noeficienteNo ELIOAsintóticamente insesgados y Consistentesβˆ~ˆ XYY == UYYYYU ~~ˆˆ =−=−=kTUU−′=ˆˆˆ2σ849. Mediad de ajuste:DESCOMPOSICIÓN DE LA VARIANZA:Si entre las variables explicativas se tiene un términoconstante, La variación muestral de la variable endógena(ST) se puede descomponer en la variación debida a laregresión (SE) (influencia de X2, X3,...,Xk) y en variación debidaa los residuos (SR):ST=SE+SR
  • 85EXPRESIONES:YXYYUUuSRYTYXYTYSEYTYYYTYSTiii′β′−=′==−′β′=−=−=−=∑∑∑ˆˆˆˆˆ222222286El coeficiente de determinaciónEl coeficiente de determinación es una medida del poderexplicativo (bondad de ajuste del modelo).En el MLG con término independiente el R2 puede calcularse:El mide el porcentaje de la variación de Y quepuede atribuirse a las variaciones de todas lasexplicativas X.==STSER222ˆYTYYYTYX−−′β′22ˆ11YTYYYXYYSTSRR−′′−′−=−=βR287Yˆ0yˆ0i2i2=⇒=⇒= ∑YR0uˆ1 2i2=⇒= ∑REl aumenta de valor al aumentar el número de regresoressean estos relevantes o no. Para eliminar este fenómeno sedefine el ajustado de grados de libertad”Características:10 2≤≤ RR2R288El Coeficiente de determinación corregido )( 2R1/)(/ˆˆ11//1 22−−′−′−=−−−=TYTYYKTuuTSTKTSRR)1(11 22RKTTR −−−−=
  • 892) si k ↑ y las variables sonmuy explicativas SR ↓T-k↓SRT-k↓3)4) si k=15) el puede tomar valores negativos↓⇒↑−− 2R1//TSTkTSRCaracterísticas1) si k ↑ y las variables sonpocas explica22RR ≤22RR =2R↑⇒↓−− 2R1//TSTkTSR