SlideShare una empresa de Scribd logo
1 de 44
Descargar para leer sin conexión
Solucionario de problemas de Econometría I
Ec. Gonzalo Villa Cox M.Sc.
*
Sr. Freddy García Albán
Mayo 2014
1. Para estimar el modelo yi = βxi + ui se propone el estimador:
ˆβ =
n
i=1
xiyi
σ2
β2 +
n
i=1
x2
i
a) Pruebe que el estimador esta sesgado hacia 0.
b) Pruebe que:
E(ˆβ − β)2
=
σ2
σ2
β2 +
n
i=1
x2
i
c) Pruebe que su varianza es inferior a la del estimador MCO.
Respuesta:
a) El sesgo del estimador ˆβ se dene como: b( ˆβ, β) = E(ˆβ)−β . Por lo tanto el problema consiste
en demostrar que E(ˆβ) está entre 0 y β, o lo que es lo mismo, que b( ˆβ, β) sea de signo contrario
a β
Se empieza calculando
E(ˆβ) = E
n
i=1
xi(βxi + ui)
σ2
β2 +
n
i=1
x2
i
E(ˆβ) = E
n
i=1
(βx2
i + xiui)
σ2
β2 +
n
i=1
x2
i
E(ˆβ) = E
β
n
i=1
x2
i +
n
i=1
xiui
σ2
β2 +
n
i=1
x2
i
E(ˆβ) =
1
σ2
β2 +
n
i=1
x2
i
E[
n
i=1
βx2
i +
n
i=1
xiui]
E(ˆβ) =
1
σ2
β2 +
n
i=1
x2
i
[β
n
i=1
x2
i + E[
n
i=1
xiui]
0
]
*Cualquier duda o comentario escribir a gvilla@espol.edu.ec.
1
Esto último debido a que E[xiui] = 0.
Entonces
E(ˆβ) =
β
n
i=1
x2
i
σ2
β2 +
n
i=1
x2
i
Hasta aquí ya es posible observar que el valor esperado del estimador está entre 0 y β, sin
embargo se calculará el sesgo:
b(ˆβ, β) =
β
n
i=1
x2
i
σ2
β2 +
n
i=1
x2
i
− β = β
n
i=1
x2
i
σ2
β2 +
n
i=1
x2
i
− 1
Lo que está dentro del paréntesis es negativo, por lo tanto el sesgo es de signo contrario a β,
por lo que está sesgado hacia 0.
b)
E(ˆβ − β)2
= E
n
i=1
xiyi
σ2
β2 +
n
i=1
x2
i
− β
2
E(ˆβ − β)2
= E
n
i=1
xiyi − σ2
β − β
n
i=1
x2
i
σ2
β2 +
n
i=1
x2
i
2
E(ˆβ − β)2
= E
β
n
i=1
x2
i +
n
i=1
xiui − σ2
β − β
n
i=1
x2
i
σ2
β2 +
n
i=1
x2
i
2
E(ˆβ − β)2
=
E
n
i=1
xiui − σ2
β
2
σ2
β2 +
n
i=1
x2
i
2
E(ˆβ − β)2
=
E [
n
i=1
xiui]2
− 2σ2
β
n
i=1
xiui + [σ2
β ]2
σ2
β2 +
n
i=1
x2
i
2
Obteniendo el valor esperado de cada término del numerador y teniendo en cuenta que E[xiui] =
0, E[uiuj] = 0 la ecuación anterior se reduce a:
E(ˆβ − β)2
=
σ2
n
i=1
x2
i + [σ2
β ]2
σ2
β2 +
n
i=1
x2
i
2 =
σ2
n
i=1
x2
i + σ2
β2
σ2
β2 +
n
i=1
x2
i
2
E(ˆβ − β)2
=
σ2
σ2
β2 +
n
i=1
x2
i
2
c)
V ar(ˆβ) = E[ˆβ − E(ˆβ)]2
V ar(ˆβ) = E
β
n
i=1
x2
i +
n
i=1
xiui
σ2
β2 +
n
i=1
x2
i
−
β
n
i=1
x2
i
σ2
β2 +
n
i=1
x2
i
2
V ar(ˆβ) = E
β
n
i=1
x2
i +
n
i=1
xiui − β
n
i=1
x2
i
σ2
β2 +
n
i=1
x2
i
2
V ar(ˆβ) = E
n
i=1
xiui
σ2
β2 +
n
i=1
x2
i
2
=
E[
n
i=1
xiui]2
σ2
β2 +
n
i=1
x2
i
2
V ar(ˆβ) =
σ2
n
i=1
x2
i
σ2
β2 +
n
i=1
x2
i
2
Para probar que la varianza del estimador MCO es mayor basta con probar que la diferencia
entre la varianza del estimador MCO y la varianza del estimador propuesto es positiva.
V ar(ˆβMCO) − V ar(ˆβ) =
σ2
n
i=1
x2
i
−
σ2
n
i=1
x2
i
σ2
β2 +
n
i=1
x2
i
2
V ar(ˆβMCO) − V ar(ˆβ) =
σ2 σ2
β2 +
n
i=1
x2
i
2
− σ2
n
i=1
x2
i
2
σ2
β2 +
n
i=1
x2
i
2 n
i=1
x2
i
V ar(ˆβMCO) − V ar(ˆβ) =
σ2 σ2
β2 +
n
i=1
x2
i
2
−
n
i=1
x2
i
2
σ2
β2 +
n
i=1
x2
i
2 n
i=1
x2
i
V ar(ˆβMCO) − V ar(ˆβ) =
σ2 σ2
β2
2
+ 2σ2
β2
n
i=1
x2
i +
n
i=1
x2
i
2
−
n
i=1
x2
i
2
σ2
β2 +
n
i=1
x2
i
2 n
i=1
x2
i
V ar(ˆβMCO) − V ar(ˆβ) =
σ2 σ2
β2
2
+ 2σ2
β2
n
i=1
x2
i
σ2
β2 +
n
i=1
x2
i
2 n
i=1
x2
i
 0
Como se puede apreciar en la expresión anterior, el numerador y denominador serán positivos,
por lo tanto el ratio es positivo, con lo que queda demostrado que la varianza del estimador
propuesto es menor a la varianza del estimador MCO.
2. Con objeto de estimar el modelo de regresión lineal simple Yt = α + βXt + ut se han
propuesto los siguientes estimadores de β:
3
ˆβ1 = t Yt
t Xt
ˆβ4 = t yt
t xt
ˆβ2 = 1
T t
Yt
Xt
ˆβ5 = 1
T i
yt
xt
ˆβ3 = t XtYt
t X2
t
ˆβ6 = t xtyt
t x2
t
donde letras minúsculas indican diferencias entre los valores representados por las
mayúsculas y sus respectivos promedios muestrales. Todas las sumas anteriores son
desde t = 1 hasta t = T, donde T es el tamaño muestral. Calcular la esperanza y la
varianza de cada estimador y sugerir cuál de ellos debería utilizarse.
Respuesta:
E( ˆβ1):
E( ˆβ1) = E t Yt
t Xt
E( ˆβ1) = E t(α + βXt + ut)
t Xt
= E
Tα
t Xt
+ β + t ut
t Xt
E( ˆβ1) = E t(α + βXt + ut)
t Xt
=
Tα
t Xt
+ β +
t E(ut)
0
t Xt
V ar( ˆβ1):
V ar( ˆβ1) = V ar
Tα
t Xt
+ β + t ut
t Xt
= t V ar(ut)
t Xt
2
V ar( ˆβ1) =
Tσ2
t Xt
2
E( ˆβ2):
E( ˆβ2) =
1
T
E
t
Yt
Xt
=
1
T
E
t
(
α
Xt
+ β +
ut
Xt
)
E( ˆβ2) =
1
T
E α
t
1
Xt
+ Tβ +
t
ut
Xt
E( ˆβ2) =
α
T t
1
Xt
+ β +
1
T t
E(ut)
0
Xt
V ar( ˆβ2):
V ar( ˆβ2) =
1
T2
V ar
t
Yt
Xt
V ar( ˆβ2) =
1
T2
V ar α
t
1
Xt
+ Tβ +
t
ut
Xt
V ar( ˆβ2) =
1
T2
t
V ar(ut)
X2
t
V ar( ˆβ2) =
σ2
T2
t
1
X2
t
4
E( ˆβ3):
E( ˆβ3) = E t XtYt
t X2
t
= E
α t Xt
t X2
t
+
β t X2
t
t X2
t
+ t Xtut
t X2
t
E( ˆβ3) =
α t Xt
t X2
t
+ β +
t Xt E(ut)
0
t X2
t
V ar( ˆβ3):
V ar( ˆβ3) = V ar
α t Xt
t X2
t
+
β t X2
t
t X2
t
+ t Xtut
t X2
t
V ar( ˆβ3) = t X2
t V ar(ut)
( t X2
t )2
=
σ2
t X2
t
E( ˆβ4): No se puede obtener los momentos debido a que es una indeterminación.
E( ˆβ5):
E( ˆβ5) =
1
T
E
t
yt
xt
E( ˆβ5) =
1
T
E
t
α + βXt + ut − α − β ¯X − ¯u
xt
E( ˆβ5) =
1
T
E
t
α + βXt + ut − α − β ¯X − ¯u
xt
E( ˆβ5) =
1
T
E
t
β (Xt − ¯X)
xt
+ut − ¯u
xt
E( ˆβ5) =
1
T
E Tβ +
t
ut − ¯u
xt
=
1
T
Tβ +
t
E(ut − ¯u)
0
xt
E( ˆβ5) = β
V ar( ˆβ5):
V ar( ˆβ5) =
1
T2
V ar Tβ +
t
ut − ¯u
xt
V ar( ˆβ5) =
1
T2
t
(V ar
ut − ¯u
xt
) + 2
i t
it
1
xi
1
xt
Cov(ui − ¯u, ut − ¯u)
− σ2
T
=
1
T2
t
V ar(ut − ¯u)
x2
t
−
2σ2
T i t
it
1
xi
1
xt
V ar( ˆβ5) =
1
T2
t
V ar(ut) + V ar(¯u) − 2Cov(ut, ¯u)
x2
t
−
2σ2
T i t
it
1
xi
1
xt
V ar( ˆβ5) =
1
T2
t
σ2
+ σ2
T − 2σ2
T
x2
t
−
2σ2
T i t
it
1
xi
1
xt
5
V ar( ˆβ5) =
1
T2
(σ2
−
σ2
T
)
t
1
x2
t
−
2σ2
T i t
it
1
xi
1
xt
Los momentos de ˆβ6 son conocidos, debido a que es el estimador de mínimos cuadrados ordinarios.
E( ˆβ6) = β V ar( ˆβ6) = σ2
t x2
t
Una propiedad deseable de un estimador es que sea insesgado, así que se seleccionará entre los
estimadores insesgados. Si se comparan las varianzas de los dos estimadores insesgados ˆβ6 y ˆβ5 se
puede observar que la varianza de ˆβ6 es menor que la de ˆβ5. Esto también se sabe gracias al teorema
de Gauss-Markov.
3. Considere los siguientes modelos:
yi = β1 + β2xi + ui
y∗
i = α1 + α2x∗
i + ui
donde y∗
y x∗
son variables estandarizadas. Demuestre que ˆα2 = ˆβ2
Sx
Sy
, donde Sx y Sy
son las desviaciones estándar muestrales de x y y respectivamente.
Respuesta:
ˆα2 =
y∗
i x∗
i
(x∗
i )2
=
(yi−¯y)(xi−¯x)
SySx
(xi−¯x)2
S2
x
ˆα2 =
(yi − ¯y)(xi − ¯x)
(xi − ¯x)2
Sx
Sy
= ˆβ2
Sx
Sy
Este resultado muestra que a pesar de que los coecientes de pendiente son independientes de un
cambio en el origen, no lo son de un cambio de escala.
4. Sean ˆβyx y ˆβxy las pendientes de la regresión de y sobre x y de x sobre y, respectiva-
mente. Demuestre que:
ˆβyx
ˆβxy = R2
donde R2
es el coeciente de determinación de la regresión de y sobre x, o el cuadrado
del coeciente de correlación muestral entre y y x.
Respuesta:
Se sabe que el R2
puede ser escrito como:
R2
=
(ˆyi − ¯y)2
(yi − ¯y)2
=
(ˆα + ˆβxi − ¯y)2
(yi − ¯y)2
R2
=
(¯y − ˆβ¯x + ˆβxi − ¯y)2
(yi − ¯y)2
R2
=
(ˆβxi − ˆβ¯x)2
(yi − ¯y)2
=
(ˆβ(xi − ¯x))2
(yi − ¯y)2
R2
= ˆβ2
yx
(xi − ¯x)2
(yi − ¯y)2
Haciendo algunas manipulaciones algebráicas se llega a la expresión ˆβyx
ˆβxy:
6
R2
= ˆβyx
ˆβyx
(xi − ¯x)2
(yi − ¯y)2
= ˆβyx
(yi − ¯y)(xi − ¯x)
(xi − ¯x)2
×
(xi − ¯x)2
(yi − ¯y)2
R2
= ˆβyx
(yi − ¯y)(xi − ¯x)
(yi − ¯y)2
= ˆβyx
ˆβxy
5. Probar que la estimación MCO del coeciente β en el modelo yi = α + βx + ui es el
inverso del estimador MCO del coeciente δ del modelo xi = γ + δyi + vi sólo si el
coeciente de determinación del primer modelo(y del segundo) es igual a 1.
Respuesta:
Utilizando el resultado del ejercicio anterior se sabe que el coeciente de determinación R2
puede
ser escrito como:
R2
= ˆβˆδ
por lo tanto si ˆδ es el inverso de ˆβ, necesariamente el R2
debe ser 1.
R2
= ˆβˆδ = ˆβ
1
ˆβ
= 1
6. Considere los siguientes modelos:
ln y∗
i = α1 + α2 ln x∗
i + ui
ln yi = β1 + β2 ln xi + ui
donde y∗
i = w1yi y x∗
i = w2xi, con las w constantes.
a) Establezca las relaciones entre los dos conjuntos de coecientes de regresión y sus
errores estándar.
b) ¾Es diferente el R2
en los dos modelos?
Respuesta:
a) Se dene zi y z∗
i como:
zi = ln xi
z∗
i = ln x∗
i
Al simplicar la siguiente expresión z∗
i − ¯z∗
se obtiene un resultado importante:
z∗
i − ¯z∗
= ln w2 + zi −
ln w2
n
+ ¯zi = zi − ¯zi
Se puede hacer el mismo ejercicio para la variable dependiente y se llegará a un resultado
similar. Por lo tanto los coecientes de pendiente para ambos modelos serán los mismos y sus
errores estándar también.
El coeciente de intercepto del primer modelo será:1
ˆα1 = ln w1 + ¯ln yi − (ln w2 + ¯ln xi) ˆα2
1 ¯ln y ≡
ln yi
n
7
ˆα1 = ln w1 + ¯ln yi − ˆα2 ln w2 − ˆα2
¯ln xi
Como los coecientes de pendiente son los mismos, entonces:
ˆα1 = ¯ln yi − ˆβ2
¯ln x
ˆβ1
+ ln w1 − ˆβ2 ln w2
Al obtener la varianza:
V ar( ˆα1) = V ar( ˆβ1) + (ln w2)2
V ar( ˆβ2) − 2 ln w2Cov( ˆβ1, ˆβ2)
V ar( ˆα1) = V ar( ˆβ1) + (ln w2)2
V ar( ˆβ2) + 2 ¯ln x ln w2V ar( ˆβ2)
V ar( ˆα1) = V ar( ˆβ1) + ((ln w2)2
+ 2 ¯ln x ln w2)V ar( ˆβ2)
Se puede observar que el estimador del coeciente de intercepto no será igual, además su
error estándar también sera distinto como se aprecia en la ecuación anterior. La varianza del
estimador ˆα1 será igual a la varianza del estimador ˆβ1mas una constante multiplicada por la
varianza de ˆβ2.
b) El R2
en ambos modelos serán los mismos. Esto puede comprobarse mostrando que ˆln y∗
i −
¯ln y∗
i = ˆln yi − ¯ln yi o simplemente usando el resultado del ejercicio 5. Dado que los estimadores
de las pendientes son iguales en ambos modelos, el R2
será el mismo.
7. Suponga que las variables explicativas de un modelo de regresión lineal y = Xβ + µ
pueden dividirse en dos sub-matrices X1 y X2 con la propiedad que ambas son orto-
gonales entre sí. Demuestre que los estimadores MCO para los sub-vectores β1 y β2
para los modelos parciales:
y = X1β1 + µ1
y = X2β2 + µ2
coinciden con los estimadores MCO para el modelo y = Xβ + µ.
Respuesta:
El estimador MCO del modelo y = X1β1 + µ1 es ˆβ1 = (X1X1)−1
X1y.
Se puede escribir y como:
y = PXy + MXy = X1
ˆβ1 + X2
ˆβ2 + MXy (1)
donde PX es la matriz que proyecta sobre el espacio columna de X y MX es la matriz que proyecta
sobre el complemento ortogonal del espacio columna de X.
Si se multiplica (1) por X1 se obtiene:
X1y = X1X1
ˆβ1 + X1X2
ˆβ2 + X1MXy
X1y = X1X1
ˆβ1 + X1X2
O
ˆβ2 + X1MX
O
y (2)
donde O es una matriz de ceros. La primera se debe a que X1 es ortogonal a X2, y la segunda
matriz O se debe a que MXX1 = O , por lo tanto debido a la simetría de MX, se tiene que
X1MX = (MXX1) = (O) = O.
Premultiplicando (2) por (X1X1)−1
se obtiene:
8
(X1X1)−1
X1y = ˆβ1
el cual es el estimador MCO del modelo de regresión de y1 sobre X1.
Para demostrar que el estimador MCO de ˆβ2 es el mismo en ambos modelos se sigue el mismo
procedimiento.
8. Suponga el siguiente modelo de regresión: yt = α + β1xt1 + β2xt2 + ut, donde se tiene
X X =


33 0 0
0 40 20
0 20 60

 X y =


132
24
92

 ˆu ˆu = 150
Se pide:
a) El tamaño de la muestra, la media aritmética de x1, x2 e y.
b) Los estimadores de α, β1 y β2.
c) La varianza estimada del estimador β2 y plantee un estadístico de prueba para
testear la hipótesis que β2 = 0.
Respuesta:
a) El tamaño de la muestra es 33. Las medias aritméticas de x1 y x2 son iguales a 0, mientras
que la media de y es igual a 132/33 = 4.
X X =


n x1 x2
x1 x2
1 x1x2
x2 x1x2 x2
2

 X y =


y
x1y
x2y


b) Usando la fórmula del estimador MCO se obtienen los resultados:
ˆβ = (X X)−1
X Y =


4
−0,2
1,6


c) La varianza estimada del estimador ˆβ es:
V ar( ˆβ) = ˆσ2(X X)−1
=
ˆu ˆu
n − 3
(X X)−1
V ar( ˆβ) =


V ar(ˆα) Cov(ˆα, ˆβ1) Cov(ˆα, ˆβ2)
Cov(ˆα, ˆβ1) V ar( ˆβ1) Cov( ˆβ1, ˆβ2)
Cov(ˆα, ˆβ2) Cov( ˆβ1, ˆβ2) V ar( ˆβ2)


=
150
30


0,03030303 0 0
0 0,03 −0,01
0 −0,01 0,02


Para realizar el test de hipótesis es necesario calcular el estadístico t:
t =
ˆβ2
V ar( ˆβ2)
=
1,6
0,1
= 16
9. Suponga que ˆβ es el estimador MCO para el modelo de regresión entre un vector y y
una matriz X y c es un vector conformable cualquiera. Pruebe que la diferencia entre
las sumas de cuadrados:
(y − Xc) (y − Xc) − (y − X ˆβ) (y − X ˆβ) = (c − ˆβ) X X(c − ˆβ)
9
Respuesta:
Resolviendo el lado izquierdo de la ecuación obtenemos:
= (y − c X )(y − Xc) − (y − ˆβ X )(y − X ˆβ)
= y y − y Xc − c X y + c X Xc − y y + y X ˆβ + ˆβ X y − ˆβ X X ˆβ
= −y Xc − c X y + c X Xc + y X ˆβ + ˆβ X y − ˆβ X X ˆβ
Si usamos el hecho de que ˆβ = (X X)−1
X Y entonces:
= −y Xc − c X y + c X Xc + y X ˆβ + ˆβ X y − ˆβ X X(X X)−1
I
X y
= −y Xc − c X y
X X ˆβ
+c X Xc + y X ˆβ
= (c X X − y X)c − (c X X − y X)ˆβ
= (c X X− y X
ˆβ X X
)(c − ˆβ)
= (c − ˆβ )X X(c − ˆβ)
= (c − ˆβ) X X(c − ˆβ)
10. Para estudiar la relación entre 2 variables se han estimado los siguientes modelos:
a) yi = α + βxi + µi
b) ln yi = α + βxi + µi
c) yi = α + β ln xi + µi
d) ln yi = α + β ln xi + µi
Discutir la interpretación que tendria, en cada caso, el valor estimado para el coeciente
ˆβ.
Respuesta:
a) El coeciente ˆβ es el cambio que se produce en y cuando x aumenta en una unidad.
b) Si se multiplica el coeciente ˆβ por 100, entonces 100ˆβ representa el cambio porcentual en y
ocasionada por un cambio absoluto en x.
c) Si se divide ˆβ para 100, entonces 0,01ˆβ representa el cambio absoluto en y debido a un cambio
relativo en x.
d) El coeciente ˆβ mide el cambio porcentual en y ante pequeños cambios porcentuales en x, es
decir mide la elasticidad de y con respecto a x.
11. Utilice la siguiente regresión simple para contestar los literales justicando su respues-
ta:
yt = β0 + β1Xt + ut
Para el cual se conocen los siguientes resultados:
t Xt = 0 t Yt = 0 t X2
t = B t Y 2
t = E t XtYt = F
10
a) Las estimaciones de MCO para los parámetros β0 y β1 son (en ese orden):
1) E/F y B
2) 0 y F/B
3) E y B/F
4) F/B y 0
b) La suma de los cuadrados de los residuos es igual a:
1) B + E2
2) 0
3) (B2
/E) − F
4) E − (F2
/B)
Respuesta:
a) ii) 0 y F/B
ˆβ0 = ¯Y − ¯X ˆβ1 = 0 − 0( ˆβ1) = 0
ˆβ1 = t(Xt − ¯X)(Yt − ¯Y )
t(Xt − ¯X)2
= t XtYt
t X2
t
=
F
B
b) iv) E − (F2
/B)
ˆYt = 0 + (F/B)Xt
t
ˆu2
t =
t
(Yt − (F/B)Xt)2
=
t
(Y 2
t − 2(F/B)XtYt + (F2
/B2
)X2
t )
t
ˆu2
t =
t
Y 2
t − 2(F/B)
t
XtYt + (F2
/B2
)
t
X2
t
= E − 2F2
/B + F2
/B
= E − (F2
/B)
12. Sea el modelo y = Xβ + u. Se estima β por MCO y se obtienen los residuos de la
regresión ˆu = y − X ˆβ. Considere ahora la siguiente regresión: y = Xγ + δˆu + v.
a) Derive los estimadores MCO de γ y δ.
b) ¾Qué valores tendrán los residuos ˆv de la regresión anterior?
c) Calcule el R2
de la regresión.
Respuesta:
a) Dado que los regresores X y ˆu son ortogonales, los estimadores de γ y δ serán los mismos de
las regresiones:
y = Xγ + v1
y
y = δˆu + v2
Por lo tanto:
ˆγ = (X X)−1
X y
y
ˆδ = (ˆu ˆu)−1
ˆu y = (ˆu ˆu)−1
(MXy) y
= (ˆu ˆu)−1
y MXy
= (ˆu ˆu)−1
ˆu ˆu
= 1
11
b) Los residuos serán cero porque hemos incluido en los regresores la parte de y que no es explicada
por X de la regresión original.
ˆv = y − Xˆγ − ˆδˆu = y − X ˆβ − ˆu = ˆu − ˆu = 0
c) Por obvias razones el R2
será 1, debido a que el modelo se ajusta perfectamente, es decir la
variabilidad de y está explicada completamente por la variabilidad de los regresores.
R2
= 1 −
ˆv ˆv
(y − ¯y) (y − ¯y)
= 1 − 0 = 1
13. Considere el modelo de regresión
Yi = α + βXi + ui, ∀i : ui ∼ (0, σ2
) y ∀i, j : cov(ui, uj) = 0
a) Demuestre que el estimador de MCO ˆα = i λiYi, en donde λi = 1
n − wi
¯X y wi =
xi
i x2
i
.
xi es la variable Xi en desviaciones con respecto a su media muestral xi = Xi − ¯X.
b) Muestre que i λi = 1 y i λiXi = 0.
c) Pruebe que cualquier otro estimador lineal para α(de la forma ˜α(de la forma
˜α = i biYi) debe satisfacer tanto que i bi = 1 como i biXi = 0 para ser insesgado.
d) Si bi = λi + fi, muestre que i fi = 0 y i fiXi = 0.
e) Demuestre que V ar(˜α) ≥ V ar(ˆα).
Respuesta:
a)
ˆα =
i
λiYi =
i
(
1
n
− wi
¯X)Yi =
i
(
1
n
−
xi
i x2
i
¯X)Yi
ˆα =
i
yi
n
− ¯X i xiYi
i x2
i
= ¯Y − ¯X ˆβ
b)
i
λi =
i
(
1
n
− wi
¯X) =
n
n
− ¯X
i
wi = 1 − ¯X i xi
i x2
i
= 1 − ¯X
0
i x2
i
= 1
i
λiXi =
i
(
1
n
− wi
¯X)Xi = ¯X − ¯X
i
wiXi
i
λiXi = ¯X − ¯X i xiXi
i x2
i
= ¯X − ¯X i x2
i
i x2
i
= ¯X − ¯X = 0
c) ˜α = i biYi
E(˜α) = E( i biYi) = E[ i bi(α + βXi + ui)]
E(˜α) = E(α i bi) + E(β i biXi) + E( i biui)
E(˜α) = α i bi + β i biXi + bi i E(ui)
0
Para que ˜α sea insesgado se tiene que cumplir E(˜α) = α. Dado que β es distinto de 0, entonces
se debe cumplir i bi = 1 y i biXi = 0.
d) i fi = i(bi − λi) = i bi − i λi = 1 − 1 = 0
i fiXi = i biXi − i λiXi = 0 − 0 = 0
12
e)
V ar(˜α) = V ar(
i
biYi) =
i
b2
i σ2
V ar(˜α) = σ2
i
(λi + fi)2
= σ2
[
i
(λi)2
+ 2
i
λifi
0
+
i
f2
i ]
V ar(˜α) = σ2
i
λ2
i
V ar(ˆα)
+σ2
i
f2
i
El primer término es la varianza del estimador MCO y el segundo término es algún número
positivo. Por lo tanto:
V ar(˜α) ≥ V ar(ˆα)
14. Dado el modelo de regresión y = Xβ + u con u ∼ (0, σ2
I) y K regresores, pruebe que
E( ˆβ ˆβ) = β β + σ2
K
k=1
1
λk
donde λk es una raíz característica de X X.
Respuesta:
E( ˆβ ˆβ) = E[(β + (X X)−1
X u) (β + (X X)−1
X u)]
E( ˆβ ˆβ) = E[β β + u X(X X)−1
β + β (X X)−1
X u + u X(X X)−1
(X X)−1
X u]
E( ˆβ ˆβ) = E[β β] + E[u ]
0
X(X X)−1
β + β (X X)−1
X E[u]
0
+E[u X(X X)−1
(X X)−1
X u]
E( ˆβ ˆβ) = β β + E[u X(X X)−1
(X X)−1
X u]
La segunda parte del lado derecho de la ecuación anterior es una matriz de 1 × 1, por lo tanto es
igual a su traza.
E[u X(X X)−1
(X X)−1
X u] = E[tr(u X(X X)−1
(X X)−1
X u)]
Usando las propiedades de la traza se llega facilmente a la solución.
E[u X(X X)−1
(X X)−1
X u] = E[tr(X(X X)−1
(X X)−1
X uu )]
E[u X(X X)−1
(X X)−1
X u] = tr(X(X X)−1
(X X)−1
X E[uu ]
σ2I
)
E[u X(X X)−1
(X X)−1
X u] = σ2
tr(X(X X)−1
(X X)−1
X )
E[u X(X X)−1
(X X)−1
X u] = σ2
tr((X X)−1
(X X)−1
X X
I
)
13
Dado que X X es una matríz simétrica, esta se puede descomponer espectralmente como CΛC
donde C es la matriz con los vectores característicos correspondientes a las raices características de
X X y Λ es una matriz diagonal con las raíces características de X X . Usando este hecho y las
propiedades de la inversa de una matriz se obtiene:
(X X)−1
= (CΛC )−1
(X X)−1
= (C )−1
Λ−1
C−1
= CΛ−1
C−1
donde
Λ−1
=





1
λ1
0 · · · 0
0 1
λ2
· · · 0
...
...
...
...
0 0 · · · 1
λK





Otra vez, usando las propiedades de la traza,
tr(CΛ−1
C−1
) = tr(Λ−1
C−1
C
I
) = tr(Λ−1
)
En consecuencia la traza de Λ−1
es k
1
λk
y por lo tanto:
E( ˆβ ˆβ) = β β + σ2
tr(Λ−1
) = β β + σ2
K
k=1
1
λk
15. Conteste Verdadero o Falso y justique su respuesta.
a) Las ecuaciones normales del modelo de regresión lineal múltiple implican que el
vector de residuos MCO es ortogonal al vector de valores estimados ˆy.
b) Si las variables que intervienen en un modelo de regresión simple están en des-
viaciones con respecto a su propia media, entonces la línea de regresión estimada
debe pasar a través del origen.
Respuesta:
a) Verdadero. Las ecuaciones normales del modelo de regresión lineal múltiple pueden escribirse
como:
−2X y + 2X X ˆβ = 0
X y − X X ˆβ = 0
X (y − X ˆβ)
ˆu
= 0
Se puede observar que las ecuaciones normales implican que la matriz de información X sea
ortogonal al vector de residuos ˆu, y esto implica que el vector de residuos sea ortogonal al
vector de valores estomados ˆy.
(X ˆβ) ˆu = 0
ˆβ X ˆu
0
= 0
Esto último se da porque se asume que el vector ˆβ no puede ser 0.
14
b) Verdadero. El modelo de regresión simple con variables en desviaciones con respecto a su propia
media puede ser escrito como:
∀i : y∗
i = α + βx∗
i + ui,
donde y∗
i y x∗
i son las variables en desviaciones con respecto a su media.
Teniendo en cuenta que la media muestral de x∗
y y∗
son 0. Los estimadores MCO del modelo
son simplemente:
ˆβ = i x∗
i y∗
i
i x∗2
i
= i(xi − ¯x)(yi − ¯y)
i(xi − ¯x)2
ˆα = y∗ − x∗ ˆβ = 0 − 0ˆβ = 0
Como el término de intercepto estimado es 0, entonces la recta de regresión estimada debe
pasar a través del origen.
16. Suponga que un amigo que ignora sobre econometría básica le pide que estime un
modelo de regresión de la forma yi = α + βxi + ui armando que los errores no están
correlacionados y que además se distribuyen exponencialemente. Este le dice que aún
cuando los errores no siguen una distribución normal, usted puede hacer las pruebas
de hipótesis necesarias debido a que el tamaño de la muestra es 100000.
a) ¾Qué supuesto no cumple para poder estimar el modelo por MCO?
b) Muestre las consecuencias de estimar dicho modelo. (Compruebe si los estimadores
son insesgados)
Respuesta:
a) No se puede estimar porque si los errores siguen una distribución exponencial, entonces los
errores están restringidos a tomar valores positivos. Si todos los errores toman valores positivos
entonces no se cumple el supuesto E(u) = 0. Formalmente, la distribución exponencial es:
f(ui) =
1
λ
e
−
ui
λ
donde E(ui) = λ y λ no puede ser 0. De lo contrario no sería una función de probabilidad
válida.
b) Los estimadores MCO son:
ˆα = ¯y − ¯xˆβ
ˆβ = β + i(xi − ¯x)ui
i(xi − ¯x)2
Tomando el valor esperado de ˆβ :
E(ˆβ) = β + i(xi − ¯x)
i(xi − ¯x)2
E(ui)
λ
Dado que i(xi − ¯x) = 0, el estimador es insesgado.
Al tomar el valor esperado del estimador ˆα:
E(ˆα) = α + E[ i ui
n
] = α + i E(ui)
n
= α +
nλ
n
E(ˆα) = α + λ
A pesar de que el estimador MCO de β es insesgado, el estimador del intercepto α es sesgado.
15
17. Para el modelo de regresión sin término constante yi = βxi +ui pruebe que el estimador
¯y
¯x es insesgado, y demuestre que la varianza es mayor que la del estimador MCO.
Respuesta:
E
¯y
¯x
=
1
¯x
E i βxi + ui
n
E
¯y
¯x
=
1
¯x
E i(βxi + ui)
n
E
¯y
¯x
=
1
¯x
[β
i
xi
n
¯x
+E i ui
n
]
E
¯y
¯x
= β +
i E(ui)
0
¯xn
= β
La varianza del estimador es:
V ar
¯y
¯x
= V ar i ui
¯xn
=
1
¯x2n2
V ar(
i
ui)
V ar
¯y
¯x
=
1
¯x2n2
V ar(
i
ui) =
σ2
n
¯x2n2
=
σ2
¯x2n
La varianza del estimador MCO es:
V ar(ˆβMCO) =
σ2
i x2
i
Al restar la varianza del estimador MCO de la varianza de ¯y
¯x :
V ar
¯y
¯x
− V ar(ˆβMCO) =
σ2
¯x2n
−
σ2
i x2
i
= σ2
(
1
¯x2n
−
1
i x2
i
)
V ar
¯y
¯x
− V ar(ˆβMCO) = σ2
( i x2
i − n¯x2
n¯x2
i x2
i
)
Se sabe que i(xi − ¯x)2
= i x2
i − n¯x2
. En consecuencia:
V ar
¯y
¯x
− V ar(ˆβMCO) = σ2
( i(xi − ¯x)2
n¯x2
i x2
i
)
La expresión dentro del paréntesis siempres erá positiva, por lo tanto la varianza del estimador ¯y
¯x
es mayor que la del estimador MCO.
18. Reproduzca un razonamiento similar usado en la demostración del teorema de Gauss-
Markov para probar el siguiente resultado:
La combinación lineal c ˆβ, donde ˆβ es el estimador del MCO del parámetro β, es el
estimador insesgado de mímima varianza para la combinación lineal c β.
Respuesta:
Basta con demostrar que la diferencia entre la covarianza de c ˜β y c ˆβ es mayor o igual a 0, donde
˜β es cualquier estimador lineal insesgado de β, distinto del estimador MCO.
16
V ar(c ˜β) − V ar(c ˆβ) = c V ar( ˜β)c − c V ar( ˆβ)c
V ar(c ˜β) − V ar(c ˆβ) = c (V ar( ˜β)c − V ar( ˆβ)c)
V ar(c ˜β) − V ar(c ˆβ) = c [V ar( ˜β) − V ar( ˆβ)]c
Por el teorema de Gauss-Markov sabemos que el estimador MCO de ˆβ es el de mínima varianza
y por lo tanto la diferencia de las matrices de covarianzas es semidenida positiva. Llamemos a la
diferencia V ar( ˜β) − V ar( ˆβ), Z. Entonces:
V ar(c ˜β) − V ar(c ˆβ) = c [Z]c
Dado que Z es semidenida positiva, existe una matriz no-singular B tal que:
V ar(c ˜β) − V ar(c ˆβ) = c [B B]c
V ar(c ˜β) − V ar(c ˆβ) = (Bc) (Bc) = w w = w 2
La norma de cualquier vector es mayor o igual a 0, por lo tanto la varianza de c ˆβ es menor o a lo
mucho igual que la varianza de c ˜β.
19. Demuestre que el estimador MCO del vector β es independiente del estimador MCO
del parámetro σ2
, sabiendo que el vector de errores se distribuye N(0, σ2
I).
Respuesta:
Podemos escribir ˆβ como:
ˆβ = β + (X X)−1
X u
y ˆσ2 como:
ˆσ2 =
u MXu
n − k
ˆβ solo depende de la parte aleatoria u a través de (X X)−1
X
L
u, y ˆσ2 solo depende de la parte
aleatoria a través de u MXu = (MXu) MXu.
Cov(Lu, MXu) = E(Luu MX) = LE(uu )MX
Cov(Lu, MXu) = Lσ2
IMX = σ2
LMX
O
El producto matricial LMX da como resultado la matriz nula debido a que la matriz MX proyecta
al complemento ortogonal del espacio columna de X. Dado que los dos vectores son independientes,
entonces se puede concluir que los dos estimadores son independientes.
20. Considere el modelo de regresión múltiple y = Xβ + u, en donde u ∼ N(0, σ2
I) y X es
determinística.
a) Muestre que la condición X ˆu = 0 es una condición necesaria para obtener el
estimador MCO para β.
17
b) Dada la distribución del vector u demuestre que el estimador maximo verosímil ˜β
coincide con ˆβ solo si la condición X ˆu = 0 se cumple.
Respuesta:
a) Las ecuaciones normales en forma matricial se pueden escribir como:
−2X y + 2X X ˆβ = 0
X y − X X ˆβ = 0
X (y − X ˆβ)
ˆu
= 0
Por lo tanto, X ˆu = 0 es una condición necesaria para obtener el estimador MCO.
b) Dado que u ∼ N(0, σ2
I), se puede escribir la función de máxima verosimilitud en forma
matricial de la siguiente manera:
L =
i
f(ui; β) = (2πσ2
)(−n/2)
exp(−u u/(2σ2
))
ln L = −
n
2
ln 2πσ2
−
1
2σ2
u u
ln L = −
n
2
ln 2πσ2
−
1
2σ2
(y−Xβ) (y−Xβ) = −
n
2
ln 2πσ2
−
1
2σ2
(y y−β X y−y Xβ+β X Xβ)
∂ ln L
∂β
=
X y
σ2
−
X X ˜β
σ2
= 0
X y − X X ˜β = 0
X (y − X ˜β)
˜u
= 0
Por lo tanto, el estimador máximo verosimil y MCO de β solo coinciden cuando la condición
X ˜u se cumplen.
21. En el modelo yi = α+βxi+ui con ui ∼ N(0, σ2
), use las condiciones de segundo orden para
demostrar que los estimadores máximo verosímiles de α, β y σ2
en realidad maximizan
la función de máxima verosimilitud.
Respuesta:
Las primeras derivadas de la función de máxima verosimilitud son:
∂ ln L
∂α
=
1
σ2
i
(yi − α − βxi)
∂ ln L
∂β
=
1
σ2
i
(yi − α − βxi)xi
∂ ln L
∂σ2
= −
n
2σ2
+
1
2(σ2)2
i
(yi − α − βxi)2
Para probar la existencia de un máximo, es necesario plantear la matriz hessiana. Para esto nece-
sitamos obtener las segundas derivadas parciales:
18
∂2
ln L
∂α2
= −
n
σ2
∂2
ln L
∂β2
= − i x2
i
σ2
∂2
ln L
∂σ2
=
n
2(σ2)2
−
1
(σ2)3
i
(yi − α − βxi)2
∂2
ln L
∂α∂β
= − i xi
σ2
∂2
ln L
∂β∂σ2
= −
1
(σ2)2
i
(yi − α − βxi)xi
∂2
ln L
∂α∂σ2
= −
1
σ2
i
(yi − α − βxi)
Planteando la matriz hessiana y reemplazando el valor de los estimadores, se observa que el deter-
minante del primer menor es negativo, ya que el estimador de la varianza siempre será positivo..
H =



∂2
ln L
∂α2
∂2
ln L
∂α∂β
∂2
ln L
∂α∂σ2
∂2
ln L
∂β∂α
∂2
ln L
∂β2
∂2
ln L
∂β∂σ2
∂2
ln L
∂σ2∂α
∂2
ln L
∂σ2∂β
∂2
ln L
∂σ2



=




− n
ˆσ2
− i xi
ˆσ2
− 1
ˆσ2 i(yi − ˆα − ˆβxi)
− i xi
ˆσ2
− i x2
i
ˆσ2
− 1
( ˆσ2)2 i(yi − ˆα − ˆβxi)xi
− 1
ˆσ2 i(yi − ˆα − ˆβxi) − 1
( ˆσ2)2 i(yi − ˆα − ˆβxi)xi
n
2( ˆσ2)2
− 1
( ˆσ2)3 i(yi − ˆα − ˆβxi)2




Note que una vez evaluados los estimadores en la matriz hessiana ∂2
ln L
∂α∂σ2 = ∂2
ln L
∂β∂σ2 = 0.
H =




− n
ˆσ2
− i xi
ˆσ2
0
− i xi
ˆσ2
− i x2
i
ˆσ2
0
0 0 n
2( ˆσ2)2
− 1
( ˆσ2)3 i( ˆui)2




El determinante del segundo menor es:
− n
ˆσ2
− i xi
ˆσ2
− i xi
ˆσ2
− i x2
i
ˆσ2
=
n i x2
i
( ˆσ2)2
−
1
( ˆσ2)2
[
i
xi]2
=
n i x2
i − [ i xi]2
( ˆσ2)2
− n
ˆσ2
− i xi
ˆσ2
− i xi
ˆσ2
− i x2
i
ˆσ2
=
n( i x2
i − n¯x2
)
( ˆσ2)2
=
n i(xi − ¯x)2
( ˆσ2)2
Ya que el numerador siempre será positivo y el estimador de la varianza también, entonces el
determinante del segundo menor es positivo.
Solo falta probar que el determinante de la matriz hessiana es negativo.
H = −
n
ˆσ2
− i x2
i
ˆσ2
n
2( ˆσ2)2
−
1
( ˆσ2)3
i
( ˆui)2
+ i xi
ˆσ2
− i xi
ˆσ2
n
2( ˆσ2)2
−
1
( ˆσ2)3
i
( ˆui)2
19
H =
n
2( ˆσ2)3
−
1
( ˆσ2)4
i
( ˆui)2
n
i
x2
i − [
i
xi]2
) = −
n2
i(xi − ¯x)2
2( ˆσ2)3
Facilmente se puede observar que este último término es negativo. Por lo tanto, la matriz hessiana
es denida negativa y en consecuencia los estimadores de α, β y σ2
maximizan la función de
verosimilitud.
22. Probar que en el modelo de regresión yt = α + βxt + ut el contraste de hipótesis nula
Ho : β = β0 puede llevarse a cabo mediante un estadístico F.
Respuesta:
Un estadístico t con n grados de libetad, elevado al cuadrado sigue una distribución chi-cuadrado
con 1 grado de libertad en el numerador y n grados de libertad en el denominador.
t2
β0
=
ˆβ − β0
ˆσ2/ (xi − ¯x)2
2
t2
β0
=
(ˆβ − β0)2
(xi − ¯x)2
ˆσ2
=
(ˆβ − β0)2
(xi − ¯x)2
[ ˆu2
i ]/(n − 2)
Si se multiplica la ecuación por σ2
/σ2
entonces podemos observar que el numerador se distribuye
chi-cuadrado con 1 grado de libertad.
(ˆβ − β0)2
(xi − ¯x)2
σ2
∼ χ2
(1)
porque es simplemente una normal estandar elevada al cuadrado. Y
[ ˆu2
i ]/σ2
= (n − 2) ˆσ2/σ2
∼ χ2
(n−2)
2
Por lo tanto se tiene en el numerador una función de variable aleatoria que se distribuye χ2
(1) y en el
denominador una función de variable aleatoria que se distribuye χ2
(n−2) dividida para n − 2. Dado
esto, se tiene la forma del estadístico F. Esta sobreentendido que el numerador esta dividido para
1, es decir los grados de libertad.
t2
β0
=
(ˆβ − β0)2
(xi − ¯x)2
[ ˆu2
i ]/(n − 2)
= F(1,n−2)
23. Conteste brevemente:
a) Suponga el siguiente modelo de regresión
yi =
eβ1+β2xi
1 + eβ1+β2xi
¾Tal como se presenta es un modelo de regresión lineal? Si no es así, ¾Qué truco
usaría para convertirlo en un modelo de regresión lineal? Imponga restricciones
en la variable dependiente para que el modelo sea estimable.
b) Suponga que los ingresos anuales y el consumo de alcohol están determinados por
el sistema de ecuaciones simultáneas:
log(earnings) = β0 + β1alcohol + β2educ + u1
2La demostración se presentará más adelante en otro ejercicio.
20
alcohol = γ0 + γ1log(earnings) + γ2educ + γ3log(price) + u2
donde price es un índice local de precios del alcohol, que incluye los impuestos
estatales y locales. Suponga que educ y price son exógenos. Si β1, β2, γ1, γ2 y γ3
dieren todos de cero, ¾Qué ecuación está identicada?¾Cómo se podría estimar
la ecuación?
Respuesta:
a) Multiplicando ambos lados de la ecuación por 1 + eβ1+β2xi
y resolviendo se obtiene:
yi + yieβ1+β2xi
= eβ1+β2xi
yi = eβ1+β2xi
− yieβ1+β2xi
yi = eβ1+β2xi
(1 − yi)
yi
(1 − yi)
= eβ1+β2xi
Aplicando logaritmo natural a ambos lados:
ln
yi
(1 − yi)
= β1 + β2xi
Por lo que el modelo sería de la forma:
ln zi = β1 + β2xi + ui
donde zi = yi
(1−yi) .
La variable dependiente está restringida a ciertos valores.
∀i : 0  yi  1
Si yi = 1, entonces zi tiende a innito. Si 1  yi ≤ 0 entonces ln zi no está denido.
b) La ecuación identicada es
log(earnings) = β0 + β1alcohol + β2educ + u1
puesto que log(price) está excluida y aparece en la otra ecuación. log(price) sirve como instru-
mento para alcohol. La ecuación se estima usando mínimos cuadrados en dos estapas. Primero
regresando alcohol sobre educ y log(price), y luego regresando log(earnings) sobre ˆalcohol y
educ.
24. Demuestre que bajo los supuestos clásicos, en el modelo yi = β0 + β1xi + ui,
(n−2) ˆσ2
σ2 =
i ˆui
2
σ2 ∼ χ(n−2) .
Respuesta:
Se puede escribir i ˆui
2
como u MXu, donde MX = I − PX = I − X(X X)−1
X . Dada la
idempotencia de MX,
u MXu
σ2
= MX = (MX ) (MX )
donde = u
σ ∼ N(0, I).
21
Por lo tanto u Mxu
σ2 se distribuye chi-cuadrado con grados de libertad igual al rango de MX. Para
calcular el rango de la matriz MX se usa la propiedad de la traza y las propiedades de las matrices
idempotentes. El rango de una matriz simétrica e idempotente es igual a su traza.
rank(MX) = tr(MX) = tr(I − X(X X)−1
X ) = tr(I)
n
−tr(X(X X)−1
X )
Si se usa la propiedad de la traza entonces tr(X(X X)−1
X ) = tr((X X)−1
X X) = tr(I), donde
esta nueva matriz identidad es de tamaño k × k.
rank(MX) = n − tr(I) = n − k
Para este caso el número de regresores es 2, por lo tanto el rango de MX es 2.
25. Escoja una respuesta para cada uno de los siguientes literales (justicando su respues-
ta):
a) Cuál de las siguientes opciones contiene solamente condiciones necesarias para que
el estimador MCO ˆβ sea un estimador insesgado para el parámetro β en el modelo
de regresión múltiple y = Xβ + u con k regresores:
1) E[u u] = σ2
I y rank(X) = k
2) u ∼ N(0, σ2
I)
3) E[u] = 0 y rank(X) = k
4) Ninguna de las anteriores.
b) Cuál de las siguientes condiciones debe cumplir el estimador MCO ˆβ en el modelo
de regresión múltiple y = Xβ + u para garantizar que sea MELI(Mejor Estimador
Linealmente Insesgado):
1) E[ ˆβ] = β y V ar[ ˆβ] = σ2
(X X)−1
2) Cov( ˆβ, ˆu) = 0
3) ˆβ debe ser consistente.
4) Ninguna de las anteriores.
Respuesta:
a) iii. E[u] = 0 y rank(X) = k
En el momento de obtener el valor esperado de ˆβ la única condición necesaria para la insesgadez
es que el valor esperado de u sea 0. La condición de rango completo asegura que solo haya un
estimador que minimice la suma de los cuadrados de los errores.
E[ ˆβ] = β + (X X)−1
X E[u]
0
b) i. E[ ˆβ] = β y V ar[ ˆβ] = σ2
(X X)−1
La primera condición asegura que el estimador sea insesgado. La segunda condición asegura
que el estimador sea el de mínima varianza, como se prueba con el teorema de Gauss-Markov.
26. Conteste Verdadero o Falso y justique su respuesta.
a) El R2
ajustado no puede disminuir si se aumenta una variable en la regresión.
b) Para testear la presencia de un cambio estructural en el modelo lineal, la única
alternativa es recurrir al test de Chow.
Respuesta:
a) Falso. Si el poder explicativo del modelo es muy bajo al incluir un regresor más, entonces el R2
ajustado disminuirá, incluso puede llegar a ser negativo. Precisamente por esto, se lo considera
más able que el R2
sin ajustar.
22
b) Falso. Hay varias alternativas para testear la presencia de un cambio estructural por ejemplo
el test de Hansen. Un inconveniente del test de Chow es la arbitrariedad al escoger el punto
donde se sospecha que hubo un cambio estructural.
27. Una regresión usando datos trimestrales desde 1958 hasta 1976 inclusive, dió la si-
guiente ecuación estimada:
ˆy = 2,20 + 0,10x2 − 3,48x3 + 0,34x4
La suma explicada de los cuadrados fué 109.6, y la suma de residuos al cuadrado,
18.48. Cuando la ecuación fué reestimada con tres dummies estacionales añadidas a la
especicación, la suma explicada al cuadrado aumentó a 114.8.
Dos regresiones adicionales basadas en la especicación original se corrieron para los
subperiodos 1958:1 a 1968:4 y 1969:1 a 1976:4, dando las sumas de los residuos al
cuadrado 9.32 y 7.46, respectivamente. Se pide:
a) Hallar el valor del estadístico de prueba para testear la presencia de estacionalidad.
b) Hallar el valor del estadísico de prueba para testear la constancia en la relación
estimada sobre los dos subperiodos.
Respuesta:
a) Para testear la presencia de estacionalidad es necesario plantear la siguiente prueba de hipó-
tesis:
H0 : y = β1 + β2x2 + β3x3 + β4x4 + u (3)
H1 : y = β1 + β2x2 + β3x3 + β4x4 + β5x5 + β6x6 + β7x7 + u, (4)
donde x5, x6 y x7 representan las variables dummies estacionales.
Tal y como se vió en clases para relaizar una prueba de hipótesis sobre varias restricciones(en
este caso, 3) en los parámetros se plantea el estadístico F:
F =
(RSSR − USSR)/r
USSR/(n − k)
,
donde RSSR es la suma de los residuos al cuadrado del modelo restringido (3), y USSR es la
suma de los residuos al cuadrado del modelo sin restringir (4). r es el número de restriciones
y n − k son los grados de libertad del modelo sin restringir.
La suma de los cuadrados totales es la misma en ambas ecuaciones puesto que y no ha cam-
biado. A partir de esto podemos hallar la suma de los residuos al cuadrado del modelo sin
restringir que es el dato que falta para calcular F.
RTSS = RESS + RSSR = 109,6 + 18,48 = 128,08
USSR = UTSS
RT SS
−UESS = 128,08 − 114,8 = 13,28
El número de restricciones es 3 y los grados de libertad son 76 − 7 = 69, por lo tanto el
estadístico F es:
F =
(18,48 − 13,28)/3
13,28/69
= 9,006
23
b) Para testear la presencia de un quiebre estructural se usa el test de Chow para lo cuál se
calcula el estadístico F como sigue:
F =
(RSSR − SSR1 − SSR2)/k
(SSR1 + SSR2)/(n − 2k)
,
donde RSSR es la suma de los residuos al cuadrado del modelo original, SSR1 es la suma
de los residuos al cuadrados de la regresión para el primer periodo y SSR2 es la suma de los
residuos al cuadrado de la regresión para el segundo periodo.
F =
(18,48 − 9,32 − 7,46)/4
(9,32 + 7,46)/(76 − 8)
= 1,722
28. Escribiendo las sumas residuales del modelo restringido y = X1β1 + u y sin restringir
y = X1β1 + X2β2 + u como y M1y y y My respectivamente, probar que y (M1 − M)y =
ˆuR ˆuR − ˆu ˆu y que en consecuencia, el estadístico
y (M1−M)y/J
y My/(n−k−1)
sigue la distribución
FJ
n−k−1.
Respuesta:
y (M1 − M)y = y (M1y − My) = y M1y − y My
y (M1 − M)y = (M1y) M1y − (My) My = ˆuR ˆuR − ˆu ˆu
Se sabe que:
ˆuR ˆuR − ˆu ˆu = (D ˆβ − r) [D(X X)−1
D ]−1
(D ˆβ − r)
Por lo tanto si se divide para σ2
, el estadístico ˆuR ˆuR−ˆu ˆu
σ2 se distribuye χ2
J .
El estimador de la varianza del error dividido para σ2
se distribuye χ2
n−k−1. Como consecuencia de
esto:
y (M1 − M)y/J
y My/(n − k − 1)
∼ FJ
n−k−1
29. Para el modelo y = Xβ + u, donde la matriz E[u u] = σ2
I es conocida, derive un
estadístico de prueba para la hipótesis conjunta:
H0 : β1 = β2 = ... = βk = 0
Respuesta:
En general, si un vector aleatorio z de tamaño n × 1 está normalmente distribuido con media 0 y
matriz de covarianzas Σ, entonces la forma cuadrática z Σ−1
z se distribute χ2
n.
Dados los supuestos, clásicos el vector ˆβ−β ∼ N(0, σ2
(X X)−1
) y por lo tanto la forma cuadrática
( ˆβ − β) [σ2
(X X)−1
]−1
( ˆβ − β) = ( ˆβ − β) (X X)( ˆβ − β)/σ2
∼ χ2
k
es un buen estadístico de prueba para testear H0 : β1 = β2 = ... = βk = 0.
30. Suponga que el proceso generador de datos en un modelo de regresión es:
yt = α + βxt + ut (5)
donde el término de error cumple los supuestos clásicos y ∀t : xt es determinística. Sin
embargo se estimó por error el modelo:
yt = µ + ut (6)
24
a) ¾Cuál es el estimador MCO de µ?
b) ¾Es el estimador MCO de µ insesgado para α? Explique.
c) ¾La suma de los residuos de la regresión (6) será igual a 0?
d) Suponga que se quiere predecir yT +1, y para esto se usa la estimación por MCO
de (6):
ˆyT +1 = ˆµ
¾Es esta predicción insesgada? (Es decir E(ˆyT +1 − yT +1) = 0)
e) ¾Es posible que la varianza de la predicción usando los estimadores MCO del
verdadero modelo (5) sea mayor que la varianza de la predicción usando el(los)
estimador(es) del modelo mal especicado (6)? (Recuerde que se asume que en
las dos situaciones el verdadero proceso generador de datos es (5))
Respuesta:
a) Si se usa la forma general del estimador MCO ˆβ = (X X)−1
X y, donde en este caso X es
un vector de 1s, se tiene que el estimador de µ es:
ˆµ = (
t
1)−1
t
yt = t yt
n
= ¯y
b) Para saber si es insesgado para α, se reemplaza yt por el verdadero proceso generador de datos.
ˆµ = t yt
n
= t(α + βxt + ut)
n
ˆµ =
nα + β t xt + t ut)
n
= α + β¯x + ¯u
Al tomar el valor esperado:
E(ˆµ) = E(α + β¯x + ¯u) = α + β¯x + E(¯u)
0
E(ˆµ) = α + β¯x
En consecuencia el estimador ˆµ no es insesgado para α.
c) Si. Esto siempre se cumple para cualquier regresión lineal que incluya una constante, sin
importar que el modelo este mal especicado.
t
(yt − ˆµ) =
t
(yt − ¯y) = n¯y − n¯y = 0
d) Se sabe que ˆµ = α + β¯x + ¯u. Por otro lado la realización yT +1 es igual a α + βxT +1 + uT +1.
El error de predicción está dado por:
ˆyT +1 − yT +1 = α + β¯x + ¯u − (α + βxT +1 + uT +1)
ˆyT +1 − yT +1 = β(¯x − xT +1) + ¯u − uT +1
Al tomar el valor esperado se obtiene:
E(ˆyT +1 − yT +1) = E(β(¯x − xT +1) + ¯u − uT +1) = β(¯x − xT +1) + E(¯u)
0
− E(uT +1)
0
Como se puede observar, la predicción es insesgada si y solo si β = 0 o ¯x = xT +1, pero en
general la predicción es sesgada. Note que si β = 0 entonces el modelo (6) está bien especicado.
25
e) Suponga que primero se ajusta el modelo usando (5). La predicción de yT +1 será:
ˆyT +1 = ˆα + ˆβxT +1
mientras que el verdadero valor de yT +1 será:
yT +1 = α + βxT +1 + uT +1
La varianza del error de predicción es:
V ar(ˆyT +1 − yT +1) = V ar(ˆα + ˆβxT +1 − α − βxT +1 − uT +1)
V ar(ˆyT +1 − yT +1) = σ2
1 +
1
T
+
xT +1 − ¯x
t(xt − ¯x)2
(7)
Ahora considere el caso en el que el modelo está mal especicado. Como se demostró anterior-
mente el error de predicción viene dado por:
ˆyT +1 − yT +1 = β(¯x − xT +1) + ¯u − uT +1
mientras que su varianza está dada por:
V ar[ˆyT +1 − yT +1] = V ar[β(¯x − xT +1) + ¯u − uT +1]
Dado que los errores no están correlacionados la expresión anterior se simplica a:
V ar[ˆyT +1 − yT +1] = V ar[¯u] + V ar[uT +1]
V ar[ˆyT +1 − yT +1] =
σ2
T
+ σ2
= σ2
(1 +
1
T
) (8)
Comparando (7) y (8) se puede ver que mientras xT +1  ¯x, la varianza de la predicción del
modelo mal especicado será menor que la del verdadero modelo.3
31. Considere la regresión por mínimos cuadrados de y sobre k variables (una constante)
X. Considere otro conjunto de regresores Z = XA, donde A es una matriz no singular.
Entonces cada columna de Z es una combinación lineal de las columnas de X. Pruebe
que el vector de residuos de la regresión de y sobre Z y y sobre X, coinciden. ¾Qué
relevancia tiene esto al momento de cambiar las unidades de medida en las variables
independientes?
Respuesta:
Se sabe que la matriz de proyección al espacio columna de X es PX = X(X X)−1
X . La matriz
de proyección al espacio columna de Z es:
PZ = Z(Z Z)−1
Z = XA(A X XA)−1
A X
Usando las propiedades de la inversa de una matriz:
PZ = X AA−1
I
(X X)−1
(A )−1
A
I
X
PZ = X(X X)−1
X = PX
Esto se debe a que el subespacio generado por las columnas de X es idéntico al subespacio generado
por las columnas de Z. Esto resulta bastante obvio, ya que cada columna de Z es una combinación
3El hecho de que a veces la varianza de la predicción usando estimadores de un modelo subespecicado, sea menor que
la varianza de la predicción usando los estimadores del verdadero proceso generador de datos, se conoce en la literatura
como paradoja de Stein.
26
lineal de las columnas de X. Si PZ = PX entonces MZ = MX, así el vector de residuos MZy
será igual a MXy.
La importancia de esto es que al cambiar la unidad de medida de las variables explicativas no se
altera la predicción ni los residuos,a pesar de que el estimador ˆβ si cambia.
32. En el modelo yt = α+βxt +µt, con E(ut) = 0, E(u2
t ) = σ2
t , E(µtµs) = 0, obtener la expresión
analítica de los estimadores ˆαMCG y ˆβMCG, y particularizarlas a los casos:
a) σ2
t = σ2
para todo t
b) σ2
t = kxt, k dado.
Respuesta:
min
α, β
s =
t
1
σ2
t
(yt − α − xtβ)2
Las condiciones de primer orden son:
∂s
∂α
=
t
−
2
σ2
t
(yt − ˆα − xt
ˆβ) = 0
∂s
∂β
=
t
−
2xt
σ2
t
(yt − ˆα − xt
ˆβ) = 0
Despejando ˆα de la primera ecuación se obtiene:
ˆα =
t
yt
σ2
t
− ˆβ t
xt
σ2
t
t
1
σ2
t
Reemplazando ˆα en la segunda ecuación y despejando ˆβ se obtiene:
ˆβ =
t
1
σ2
t
t
xtyt
σ2
t
− t
yt
σ2
t
t
xt
σ2
t
t
x2
t
σ2
t
t
1
σ2
t
− t
xt
σ2
t
2
a) Si se reemplaza σ2
t por σ2
, se obtiene el estimador MCO.
ˆβ =
n
σ4 t xtyt − 1
σ4 t yt t xt
n
σ4 t x2
t − 1
σ4 t xt
2
ˆβ = t xtyt − n¯x¯y
t x2
t − n¯x2
= t(xt − ¯x)(yt − ¯y)
t(xt − ¯x)2
El estimador ˆα una vez que se rremplaza ˆβ y σ2
es el estimador MCO:
ˆα =
1
σ2 t yt − 1
σ2
ˆβ t xt
1
σ2 n
= t yt
n
− ˆβ t xt
n
ˆα = ¯y − ˆβ¯x
b) Si σ2
t = kxt, entonces:
ˆβ =
1
k2 t
1
xt t
xtyt
xt
− 1
k2 t
yt
xt t
xt
xt
1
k2 t
x2
t
xt t
1
xt
− 1
k2 t
xt
xt
2
27
ˆβ =
t
1
xt t yt − n t
yt
xt
t xt t
1
xt
− n2
ˆβ =
n¯y t
1
xt
− n t
yt
xt
n¯x t
1
xt
− n2
ˆβ =
¯y t
1
xt
− t
yt
xt
¯x t
1
xt
− n
Al reemplazar ˆβ en ˆα, y kxt en σ2
t se obtiene:
ˆα =
t
yt
kxt
−
¯y t
1
xt
− t
yt
xt
¯x t
1
xt
−n t
xt
kxt
t
1
kxt
ˆα =
t
yt
xt
−
¯y t
1
xt
− t
yt
xt
¯x t
1
xt
−n
n
t
1
xt
ˆα =
(¯x t
1
xt
−n) t
yt
xt
−n¯y t
1
xt
+n t
yt
xt
¯x t
1
xt
−n
t
1
xt
ˆα =
¯x t
1
xt t
yt
xt
−n t
yt
xt
−n¯y t
1
xt
+n t
yt
xt
¯x t
1
xt
−n
t
1
xt
ˆα =
t
1
xt
(¯x t
yt
xt
−n¯y)
¯x t
1
xt
−n
t
1
xt
=
¯x t
yt
xt
− n¯y
¯x t
1
xt
− n
33. ¾Cuál de los siguientes casos puede provocar sesgo en los estimadores MCO? Justique
su respuesta (Si o no, y por qué).
a) Heteroscedasticidad.
b) Omitir una variable relevante.
c) Un coeciente de correlación muestral de 0.95 entre 2 variables independientes
incluidas en el modelo.
Respuesta:
a) No.
E( ˆβ) = β + (X X)−1
X E(u)
Dado que u ∼ (0, σ2
I), entonces ˆβ es insesgado:
E( ˆβ) = β
b) Si. Suponga que el verdadero proceso generador de datos es:
y = X1β1 + x2β2 + u
y en su lugar se estima el modelo:
y = X1β1 + u
El valor esperado del estimador MCO será:
28
E( ˆβ1) = E[(X1X1)−1
X1y]
E( ˆβ1) = E[(X1X1)−1
X1X1β1]
β1
+E[(X1X1)−1
X1x2β2] + E[(X1X1)−1
X1u]
0
E( ˆβ1) = β1 + (X1X1)−1
X1x2β2
Por lo tanto el estimador MCO es sesgado.
c) No. Un coeciente de correlación muestral alto entre las variables explicativas solo eleva la
varianza del estimador MCO.
34. Sea el modelo yt = βxt + ut, con ut ∼ NID(0, σ2
t ), donde σ2
t = σ2
t, y t = 1, 2, ...., T.
a) Demuestre que el estimador MCO es insesgado y que su varianza está dada por:
V ar(ˆβMCO) = σ2 t x2
t t
( t x2
t )2
b) Obtenga el estimador de MCG.
c) Muestre que la varianza del estimador de MCG es:
V ar(ˆβMCG) =
σ2
t
x2
t
t
Respuesta:
a) El estimador MCO cuando no hay intercepto es:
ˆβ = t ytxt
t x2
t
=
β t x2
t + t utxt
t x2
t
= β + t utxt
t x2
t
Y su valor esperado:
E(ˆβ) = β +
1
t x2
t t
xtE(ut)
0
En consecuencia el estimador MCO es insesgado.
Si se supone que los errores no están correlacionados entonces la varianza del estimador MCO
esta dada por:
V ar(ˆβ) =
1
( t x2
t )2
t
x2
t V ar(ut) =
1
( t x2
t )2
t
x2
t σ2
t
V ar(ˆβ) =
σ2
( t x2
t )2
t
x2
t t
b) Para obetener el estimador de MCG se minimiza la suma de los residuos al cuadrado, pero
esta vez ponderada por la inversa de la parte variable de la varianza de ut.
min
β
s =
t
1
t
(yt − xtβ)2
La condición de primer orden es:
29
∂s
∂ ˆβ
= −2
t
ytxt
t
+ 2ˆβ
t
x2
t
t
= 0
Resolviendo se obtiene el estimador MCG de β.
ˆβ
t
x2
t
t
=
t
ytxt
t
ˆβMCG = t
ytxt
t
t
x2
t
t
c) El estimador ˆβMCG puede escribirse como:
ˆβMCG = t
(xtβ+ut)xt
t
t
x2
t
t
= t
x2
t β+utxt
t
t
x2
t
t
ˆβMCG =
β t
x2
t
t + t
utxt
t
t
x2
t
t
= β + t
utxt
t
t
x2
t
t
Como los errores no están correlacionados la varianza del estimador puede escribirse como:
V ar(ˆβMCG) =
1
t
x2
t
t
2
t
x2
t
t2
V ar(ut) =
σ2
t
x2
t
t
2
t
x2
t t
t2
V ar(ˆβMCG) =
σ2
t
x2
t
t
35. Considere el siguiente modelo de regresión simple:
y = α + βx + u
y sea z una variable instrumental binaria para x. Utilizar ˆβ = i(yi−¯y)(zi−¯z)
i(xi−¯x)(zi−¯z) para de-
mostrar que el estimador de variables instrumentales(IV) puede escribirse como:
ˆβIV =
¯y1 − ¯y0
¯x1 − ¯x0
donde ¯y0 y ¯x0 son las medias muestrales de yi y xi para aquellas observaciones con zi = 0,
y donde ¯y1 y ¯x1 son las medias muestrales de yi y xi para aquellas observaciones con
zi = 1. Este estimador, conocido como estimador de grupo fue propuesto por primera
vez por Wald(1940).
Respuesta:
Suponga que existen k observaciones con zi = 1, por lo tanto el número de observaciones con zi = 0
es n − k. La medias muestrales para las observaciones con zi = 1 son ¯y1 = i yizi
k y ¯x1 = i xizi
k ,
mientras que para zi = 0 son ¯y0 = i yi(1−zi)
n−k y ¯x0 = i xi(1−zi)
n−k . Entonces el estimador por grupos
sugerido por Wald es:
ˆβIV =
i yizi
k − i yi(1−zi)
n−k
i xizi
k − i xi(1−zi)
n−k
ˆβIV =
(n−k) i yizi−k i yi(1−zi)
k(n−k)
(n−k) i xizi−k i xi(1−zi)
k(n−k)
30
ˆβIV =
(n − k) i yizi − k i yi(1 − zi)
(n − k) i xizi − k i xi(1 − zi)
ˆβIV =
n i yizi − k i yizi − k i yi + k i yizi
n i xizi − k i xizi − k i xi + k i xizi
ˆβIV =
n i yizi − k i yi
n i xizi − k i xi
Multiplicando por n
n se obtiene:
ˆβIV = i yizi − k¯y
i xizi − k¯x
= i yizi − ¯y i zi
i xizi − ¯x i zi
ˆβIV = i(yi − ¯y)zi
i(xi − ¯x)zi
= i(yi − ¯y)(zi − ¯z)
i(xi − ¯x)(zi − ¯z)
36. Dado el modelo de regresión yt = µ + t, donde E( t) = 0, V ar( t) = σ2
xt, con xt  0:
a) ¾Cuál es el estimador lineal más eciente del parámetro µ? ¾Cuál es su varianza?
b) ¾Cuál es el estimador MCO de µ y cuál es su varianza?
Respuesta:
a) El estimador lineal más eciente es el estimador de mínimos cuadrados generalizados MCG:
min
µ
s =
t
1
xt
(yt − µ)2
Al derivar y obtener la condición d eprimer orden se tiene que:
∂s
∂ˆµ
= −2
t
yt
xt
+ 2ˆµ
t
1
xt
= 0
Despejando ˆµ se obtiene:
ˆµ
t
1
xt
=
t
yt
xt
ˆµ =
t
yt
xt
t
1
xt
La varianza del estimador MCG de µ es:
V ar(ˆµ) = V ar(
t
µ+ t
xt
t
1
xt
) = V ar(
t
µ
xt
+ t
t
xt
t
1
xt
)
V ar(ˆµ) = V ar(
t
µ
xt
t
1
xt
+
t
t
xt
t
1
xt
) = V ar(
µ t
1
xt
t
1
xt
+
t
t
xt
t
1
xt
)
V ar(ˆµ) = V ar(µ +
t
t
xt
t
1
xt
) =
1
[ t
1
xt
]2
V ar(
t
t
xt
)
Bajo el supuesto de independencia de los errores, las covarianza entre los errores de todas las
observaciones son 0.
V ar(ˆµ) =
1
[ t
1
xt
]2
t
V ar[
t
xt
] =
1
[ t
1
xt
]2
t
σ2
xt
x2
t
V ar(ˆµ) =
σ2
t
1
xt
[ t
1
xt
]2
=
σ2
t
1
xt
31
b) Tal y como se ha visto en clase, el estimador MCO de µ es:
ˆµ = ¯y = t yt
n
ˆµ = t µ + t t
n
= t µ
n
+ t t
n
ˆµ = µ + t t
n
Y su varianza es:
V ar(ˆµ) =
1
n2
t
V ar( t) =
σ2
n2
t
xt
37. Dado el modelo lineal sin término constante y un solo regresor:
yi = βxi + ui
Donde E(ui) = 0, E(u2
i ) = σ2
i suponiendo que las varianzas cambian con el esquema
σ2
i = σ2
zi donde zi es una variable conocida.
a) Obtenga la expresión analítica para el estimador MCG, así como su varianza.
b) Utilice la desigualdad de Cauchy-Scwarthz para comparar la varianza del estima-
dor obtenido en el literal anterior con el estimador MCO.
c) ¾Qué ocurriría si a pesar de la heteroscedasticidad se utilizase σ2
(X X)−1
como
matriz de varianza-covarianza para el estimador MCO.
Nota: La desigualdad de Cauchy-Schwarz garantiza que para dos variables cualquiera
se cumple la expresión: [ i viwi]2
≤ [ i v2
i ][ i w2
i ].
Respuesta:
a) Si la matriz de varianzas-covarianzas de u es Ω, entonces el estimador MCG de β expresado
en forma matricial es:
ˆβMCG = (x Ω−1
x)−1
x Ω−1
y
y su varianza:
V ar(ˆβMCG) = σ2
(x Ω−1
x)−1
Teniendo en cuenta que
Ω =








z1 0 0 · · · 0
0 z2 0 · · · 0
0 0
... · · · 0
...
...
... zn−1
...
0 0 0 0 zn








el estimador MCG es:
ˆβMCG =
i
xiyi
zi
i
x2
i
zi
y su varianza:
V ar(ˆβMCG) =
σ2
i
x2
i
zi
32
b) Usando la desigualdad de Cauchy-Schwarz [ i viwi]2
≤ [ i v2
i ][ i w2
i ], donde vi = xi√
zi
y
wi = xi
√
zi.
[
i
xi
√
zi
xi
√
zi]2
≤ [
i
x2
i
zi
][
i
x2
i zi]
[
i
x2
i ]2
≤ [
i
x2
i
zi
][
i
x2
i zi]
Al manipular la desigualdad se obtiene:
1
i
x2
i
zi
≤ i x2
i zi
[ i x2
i ]2
Si se multiplica ambos lados de la inecuación por σ2
entonces:
σ2
i
x2
i
zi
≤
σ2
i x2
i zi
[ i x2
i ]2
var(ˆβMCG) ≤ V ar(ˆβMCO)
38. Considere un modelo simple para estimar el efecto de tener un computador personal
(PC) sobre el promedio de calicaciones de los estudiantes de una universidad pública:
GPA = β0 + β1PC + u
Responda lo siguiente:
a) ¾Por qué debería estar correlacionada PC con el error u?
b) Explicar por qué PC debe de estar correlacionada con el nivel de renta de los
padres. ¾Es suciente esto para concluir que el nivel de renta de los padres es una
buena variable instrumental para PC? Justique su respuesta.
c) Supongamos que hace 4 años, la universidad concedió becas para comprar compu-
tadoras a aproximadamente la mitad de sus estudiantes que recién ingresan y
que, además los alumnos que las recibieron fueron elegidos al azar. Explique como
podría utilizar esta información para construir una variable instraumental para
PC.
Respuesta:
a) Porque hay otros factores en el error que posiblemente inuyan sobre el promedio de calica-
ciones y esten correlacionados con PC. Un ejemplo es el gasto en educación de los estudiantes
que realizan sus padres. Esta variable está claramente correlacionada con PC.
b) PC está correlacionada con el nivel de renta de los padres porque es más probable que los
estudiantes con padres de mayores ingresos tengan computadoras y los de menos ingresos no.
Esto no es suciente para concluir que el nivel de renta de los padres es una buena variable
instrumental ya que el nivel de ingresos de los padres puede estar correlacionado con el error.
Por ejemplo está correlacionado con el gasto en educación.
c) Se puede usar una variable dummy que indique 1 si el estudiante recibió beca y 0 en caso
contrario. Esta variable está claramente correlacionada con PC y dado que los estudiantes que
recibieron las becas fueron escogidos al azar(la variable es exógena en el modelo), entonces no
está correlacionada con el error.
33
39. Supongamos que queremos contrastar si las chicas que asisten a institutos femeninos
de educación secundaria son mejores en matemáticas que las chicas que van a institutos
mixtos. Se dispone de una muestra aleatoria de adolescentes femeninas que estudian los
últimos años de la secundaria en un estado de Estados Unidos, y score es la calicación
en un determinado examen de matemáticas. Sea girlhs una variable cticia que indica
si una estudiante asiste a instituto femenino, conteste:
a) ¾Qué otras variables se podrían incluir en la ecuación? (Debe ser posible recopilar
datos sobre estas variables.)
b) Escribir una ecuación que relacione score con girlhs y las otras variables indicadas
en el apartado (a).
c) Supongamos que el apoyo y la motivación que ofrecen los padres son factores
no observables que se encuentran en el término de error del apartado (b). ¾Es
probable que éstos estén correlacionados con girlhs? Explicar por qué.
d) Discutir los supuestos necesarios para que el número de institutos femeninos en un
radio de veinte millas de la casa de las estudiantes sea una variable instrumental
válida para girlhs.
Respuesta:
a) Se puede incluir el ingreso familiar, ya que se esperaría que quienes tienen padres con me-
jores ingresos rindan mejor en los estudios. Se puede incluir una variable proxy del nivel de
inteligencia como el IQ. Otra variable importante que se debería incluir son las horas que la
estudiante dedica a estudiar matemáticas.
b)
score = α + β1girlhs + β2ing + β3IQ + β4time + u
donde:
girlhs =variable cticia que indica si una estudiante asiste a instituto femenino.
ing =ingreso familiar.
IQ =nivel de IQ.
time =tiempo que la estudiante dedica a estudiar matemáticas medido en horas promedio
semanales.
score =calicación en el examen de matemáticas.
c) Si es probable que esté correlacionado porque los padres que ofrecen menos apoyo y motivación
tienden a enviar a sus hijas a instututos femeninos. Note que también se puede argumentar
lo contrario. Más alla de la justicación lo que se busca es encontrar un sustento teórico que
permita hacer suspuestos sobre un modelo de regresión, en especial aquellos supuestos que no
se pueden testear.
d) Para que sea una variable instrumental válida debe estar correlacionada con la variable girlhs.
Obviamente las dos variables están correlacionadas. Mientras haya más institutos femeninos
en un radio de veinte millas de la casa, es más probable que los padres decidas que sus hijas
deben estudiar en institutos femeninos.
La otra condición necesaria es que esta variable no debe estar correlacionada con el error. En el
error se encuentran factores no observables como el apoyo y motivación que los padres ofrecen
a sus hijas. Estos factores no tienen relación alguna con el número de institutos femeninos que
hay cerca de la casa. En resumen, dicha variable cumple con las dos condiciones que hacen que
sea una variable instrumemntal válida.
Sea num el número de institutos femeninos en un radio de veinte millas de las casas de los
estudiantes. Entonces:
Cov(num, girhs) = 0
Cov(num, u) = 0
34
40. Comente las siguientes armaciones:
a) Si los errores en una regresión simple no se distribuyen de forma normal, los
estimadores MCO dejan de ser los Mejores Estimadores Lineales (MELI), pero
siguen siendo insesgados.
b) Se desea realizar un estudio que tenga como variable dependiente al ahorro agre-
gado para explicarlo por medio de las tasas de interés, en una economía. Un
investigador aún no dene los años de análisis para el estudio. Para procurar que
las estimaciones de mínimos cuadrados ordinarias sean más precisas, ¾el investiga-
dor debe escoger un periodo en el cual las tasas de interés hayan uctuado mucho
o es preferible poca uctuación?
c) Un investigador plantea una regresión con datos anuales, desde 1981 hasta 1999,
sobre los niveles de consumo agregados explicados por los ingresos, en cierta eco-
nomía. Analiza la siguiente relación:
consumo = α + βingreso + ut
Adicionalmente conoce que el coeciente de correlación entre las variables consumo
e ingreso es igual a 0,7. Al 95 % de conanza es signicativo el coeciente de la
pendiente que se estima?
Respuesta:
a) Falso. Aún cuando los errores no se distribuyan normal, los estimadores MCO siguen siendo
los mejores estimadores linealmente insesgados. El teorema de Gauss-Markov solo requiere que
E(ui|xi) = 0 , V ar(ui) = σ2
y Cov(ui, uj) = 0.
b) El investigador debe escoger un período en el que las tasas de interés hayan uctuado poco.
Si utiliza el resto de períodos es probable que el modelo presente heterocedasticidad.
c) Falso. Hace falta más información para concluir algo así. Una correlación lineal fuerte entre
dos variables no necesariamente implica que los coecientes de la regresión entre los dos sean
signicativos.
41. Considere el modelo microeconómico de demanda y oferta:
Demanda: Q = α1P + β1Z1 + u1
Oferta: Q = α2P + β2Z2 + u2
donde Q(= cantidad demandada u ofertada) y P(= precio). Las variables exógenas, Z1(=
ingreso) y Z2(= precio de las materias primas), son independientes de las perturbaciones
estructurales u1 y u2. Estas perturbaciones tienen esperanza 0. En lo siguiente, respecto
a la estimación, supondremos que disponemos de una muestra de observaciones de Q,
P, Z1 y Z2.
a) Muestre que si α1 = 0 o α2 = 0, existe al menos una forma reducida para Q.
b) Si α1 = 0 y α2 = 0, obtener la forma reducida de P.
c) Si α1 = 0, α2 = 0 y α1 = α2, encuentre las formas reducidas para P y Q.
Respuesta:
a) Despejando P de la ecuación de oferta:
P =
Q
α2
−
β2
α2
Z2 −
u2
α2
(9)
Como se puede apreciar hasta ahora, es necesario que α2 = 0 para poder despejar P, y por
lo tanto que la forma reducida de Q exista. Reemplazando (9) en la ecuación de demanda se
obtiene:
35
Q = α1(
Q
α2
−
β2
α2
Z2 −
u2
α2
) + β1Z1 + u1
Q(1 −
α1
α2
) = β1Z1 −
α1β2
α2
Z2 −
α1u2
α2
+ u1
Q =
β1
(1 − α1
α2
)
π1
Z1 −
α1β2
(1 − α1
α2
)α2
π2
Z2 + −
α1u2
(1 − α1
α2
)α2
+
u1
(1 − α1
α2
)
v1
Si al principio se despeja P de la ecuación de demanda, entonces la condición α1 = 0 será
necesaria.
b) Como α2 = 0 al momento de igualar las dos ecuaciones se obtiene:
α1P + β1Z1 + u1 = β2Z2 + u2
P =
β2
α1
π3
Z2 −
β1
α1
π4
Z1 +
u2
α1
−
u1
α1
v2
c) La forma reducida para Q es la misma que la del literal (a). La forma reducida para P
será distinta. La condición α1 = α2 garantiza que la forma reducida exista como se verá a
continuación. Se pueden escribir las dos ecuaciones en forma matricial.
1 −α1
1 −α2
B
Q
P
=
β1 0
0 β2
Z1
Z2
+
u1
u2
(10)
Para que la forma reducida exista, la inversa de la matriz B tiene que existir. Si α1 = α2,
entonces el determinante de la matriz es 0 y por lo tanto no tiene inversa. Usando la condición
del ejercicio la matriz inversa existe y es igual a:
B−1
=
1
α1 − α2
−α2 α1
−1 1
Premultiplicando (10) por B−1
se obtiene la forma reducida:
Q
P
y
=
− α2β1
α1−α2
α1β2
α1−α2
− β1
α1−α2
β2
α1−α2
π
Z1
Z2
z
+
α1u2
α1−α2
− α2u1
α1−α2
u2
α1−α2
− u1
α1−α2
v
42. Construya el estimador VI y su varianza para el vector de parámetros β a partir del
modelo:
y = Xβ + u
X = Zγ +
Respuesta:
Primero se regresa X sobre Z para obtener el mejor instrumento para X. Luego en la primera
ecuación se sustituye X por la predicción de la segunda. Es decir:
y = PZXβ + u
36
Se obtiene el estimador de β de la forma común:
ˆβV I = (X PZX)−1
X PZy
La varianza del estimador es
V ar( ˆβ) = V ar((X PZX)−1
X PZu)
V ar( ˆβ) = (X PZX)−1
X PZ V ar(u)
σ2I
PZX(X PZX)−1
V ar( ˆβ) = σ2
(X PZX)−1
X PZX(X PZX)−1
I
= σ2
(X PZX)−1
43. Suponga que se quiere determinar la relación entre la cantidad que contribuye un
empleado a su plan de pensiones en función de la generosidad del plan. Para ello se
plantea el siguiente modelo:
yi,e = β0 + β1xi,e,1 + β2xi,e,2 + β3xi,3 + ui,e
donde yi,e es la contribución anual del empleado e que trabaja en la empresa i, xi,e,1 es
el ingreso anual de esta persona y xi,e,2 es su edad. xi,3 es la cantidad que la empresa
aporta a la cuenta de un empleado por cada dólar con que éste contribuye.
Suponga que para este modelo se cumplen los supuestos de Gauss-Markov. Sin embargo
usted no cuenta con datos para cada empleado, pero en su lugar cuenta con datos
promedio por empresa, asi como con el número de empleados por empresa. Se plantea
el siguiente modelo para las empresas usando datos promedio:
¯yi = α0 + α1 ¯xi,1 + α2 ¯xi,2 + α3xi,k + ¯ui (11)
donde ¯ui = m−1
i
mi
e ui,e es el error promedio de todos los empleados de la empresa i.
Si para todo e, V ar(ui,e) = σ2
y los errores no están correlacionados entre empleados,
conteste:
a) Calcular V ar(¯ui) . ¾Es correcto usar el estimador MCO? ¾Por qué?
b) ¾Qué ponderador de la suma residual, usaría para estimar el modelo por mínimos
cuadrados ponderados y por qué? (No solo de una explicación matemática, sino
también una breve explicación intuitiva).
Respuesta:
a)
V ar(¯ui) = V ar(m−1
i
mi
e
ui,e)
V ar(¯ui) =
1
m2
i
mi
e
V ar(ui,e) =
1
m2
i
mi
e
σ2
V ar(¯ui) =
mi
m2
i
σ2
=
σ2
mi
No es correcto usar MCO debido a que la varianza del error será más pequeña a medida que el
número de empleados aumente y por lo tanto el supuesto de homocedasticidad no se cumple.
37
b) El ponderador de la suma residual que hace cumplir el supuesto de homocedasticidad es el
número de empleados de la empresa. Es decir, si se multiplica el modelo (11) por
√
mi, el
modelo cumple todos los supuestos necesarios para estimar por MCO.
V ar(¯ui
√
m1) =
σ2
mi
mi = σ2
Al hacer esto, se le está asignando más peso a las empresas con mayor número de empleados.
De esta manera se compensa la reducción de la varianza de ¯ui a medida que el número de
empleados es mayor.4
44. Considere un modelo para los empleados de varias empresas.
yi,e = β0 + β1xi,e,1 + β2xi,e,2 + .. + βkxi,e,k + fi + vi,e
donde la variable inobservada fi es un efecto de la empresa para cada empleado en
una empresa dada i. El término de error vi,e es especíco para cada empleado e de la
empresa i. El error compuesto es ui,e = fi + vi,e.
a) Suponga que V ar(fi) = σ2
f , V ar(vi,e) = σ2
v, y que fi y vi,e no están correlacionadas.
Muestre que V ar(ui,e) = σ2
f + σ2
v; llame a esto σ2
.
b) Ahora suponga que para e = g, vi,e y vi,g no están correlacionadas. Muestre que
Cov(ui,e, ui,g) = σ2
f .
c) Sea ¯ui = m−1
i
mi
e ui,e, el promedio de errores compuestos dentro de una empresa.
mi es el número total de empleados de la empresa i. Muestre que V ar(¯ui) = σ2
f +
σ2
v
mi
.
d) Analice la relevancia del inciso (c) para la estimación por mínimos cuadrados
ponderados empleando datos promediados a nivel de las empresas, donde el pon-
derador empleado para la observación i es el tamaño de la rma.
Respuesta:
a)
V ar(ui,e) = V ar(fi + vi,e) = V ar(fi) + V ar(vi,e)
V ar(ui,e) = σ2
f + σ2
v = σ2
La varianza de ui,e es simplemente la suma de las varianzas de fi y vi,e porque estas variables
no estan correlacionadas y por ende tienen covarianza 0.
b)
Cov(ui,e, ui,g) = E[ui,eui,g] − E[ui,e]E[ui,g]
Cov(ui,e, ui,g) = E[(fi + vi,e)(fi + vi,g)] − E[fi + vi,e]E[fi + vi,g]
Cov(ui,e, ui,g) = E[f2
i + fivi,g + fivi,e + vi,evi,g] − E[fi]E[fi] + E[fi]E[vi,g]
+E[vi,e]E[vi,g] + E[fi]E[vi,e]
Cov(ui,e, ui,g) = E[f2
i ] − E[fi]E[fi]
V ar(fi)
+ E[fivi,g] − E[fi]E[vi,g]
Cov(fi,vi,g)
+ E[fivi,e] − E[fi]E[vi,e]
Cov(fi,vi,e)
+ E[vi,evi,g] − E[vi,e]E[vi,g]
Cov(vi,e,vi,g)
4Como se vió en clase, los ponderadores muchas veces se escogen arbitrariamente. Este ejercicio ilustra como algunas
veces pueden surgir de forma natural.
38
Dado es supuesto de correlación 0 entre fi y vi,g, y correlación 0 entre vi,e y vi,g, los últimos
tres términos del lado derecho de la ecuación anterior son 0.
Cov(ui,e, ui,g) = E[f2
i ] − E[fi]E[fi]
V ar(fi)
= σ2
f
c)
V ar( ¯ui) = V ar(m−1
i
mi
e
ui,e)
V ar( ¯ui) =
1
m2
i
V ar(
mi
e
ui,e) =
1
m2
i
mi
e
V ar(ui,e) + 2
e g
Cov(ui,e, ui,g)
V ar( ¯ui) =
1
m2
i
miσ2
+ 2
e
(mi − 1)σ2
f =
1
m2
i
miσ2
+ 2
mi
2
(mi − 1)σ2
f
V ar( ¯ui) =
1
m2
i
miσ2
f + miσ2
v + m2
i σ2
f − miσ2
f =
σ2
f
mi
+
σ2
v
mi
+ σ2
f −
σ2
f
mi
V ar(¯ui) = σ2
f +
σ2
v
mi
d) El problema de usar el tamaño de la rma como ponderador es que aun así la varianza del
nuevo error dependerá del tamaño de la rma. La varianza del nuevo modelo será:
V ar(¯u∗
i ) = miσ2
f + σ2
v
45. Proponga un estadístico para el contraste de hipótesis nula H0 : β2 = 0 en el modelo:
yt = β1 + β2xt + ut, V ar(ut) = σ2
t = σ2
ux2
t
Respuesta:
Se estima el modelo por MCO asumiendo homocedasticidad, sin embargo la varianza del estimador
cambia. En su lugar se construye la varianza usando el estimador de White.
V ar( ˆβ) = (X X)−1
t
ˆut
2
(xtxt) (X X)−1
Para el caso de ˆβ2, se tiene:
V ar( ˆβ2) = t(xt − ¯x) ˆut
2
[ t(xt − ¯x)2]2
Luego se usa el estadístico t habitual pero usando la nueva varianza. Es decir:
t =
ˆβ2
t(xt−¯x) ˆut
2
[ t(xt−¯x)2]2
46. Considere el modelo yt = βxt + ut, con σ2
t = k(βxt)2
, donde las variables se hallan en
diferencias respecto a sus medias muestrales.
a) Pruebe que el estimador de MCG de β es igual al promedio muestral del cociente
yt
xt
. Halle su varianza.
b) ¾Qué tipo de problemas surgirían en esta estimación si xt = 0 para algún t? ¾Qué
inferencia obtendríamos del resultado?
39
Respuesta:
a) El estimador de MCG puede escribirse como:
ˆβ = (x Ω−1
x)−1
x Ω−1
y
donde
Ω−1
=






1
k(βx1)2 0 · · · 0
0 1
k(βx2)2 · · · 0
...
...
...
...
0 0 0 1
k(βxT )2






Resolviendo se obtiene:
ˆβ =
T
kβ2
−1 1
kβ2
t
yt
xt
=
t
yt
xt
T
La varianza del estimador MCG es:
V ar(ˆβ) = (x Ω−1
x)−1
=
T
kβ2
−1
=
kβ2
T
b) Si xt = 0 para algún t, entonces se obtendrá un ˆβ innito.
47. Suponga el modelo:
y1 = β0 + β1y2 + β2z1 + u1 (12)
donde y2 es endógena y z1 es exógena. Se cuenta con una variable z2 que sirve como
instrumento para y2. Al tomar la forma reducida de y2 y sustituirla en el modelo (12)
se obtiene la forma reducida para y1:
y1 = α0 + α1z1 + α2z2 + v1
a) Obtener los coecientes αj en función de los coecientes de la forma reducida de
y2 y los βj.
b) Obtener el error de forma reducida , v1, en función de u1, v2 y los parámetros.
c) ¾Cómo estimaríamos consistentemente los αj?
Respuesta:
a) La forma reducida de y2 es:
y2 = π0 + π1z1 + π2z2 + v2 (13)
Sustituyendo (13) en (12) se obtiene:
y1 = β0 + β1(π0 + π1z1 + π2z2 + v2) + β2z1 + u1
y1 = β0 + β1π0 + β1π1z1 + β1π2z2 + β1v2 + β2z1 + u1
y1 = β0 + β1π0
α0
+ (β1π1 + β2)
α1
z1 + β1π2
α2
z2 + β1v2 + u1
v1
Por lo tanto, α0 = β0 + β1π0, α1 = β1π1 + β2 y α2 = β1π2.
b) Del resultado anterior se tiene que v1 = β1v2 + u1.
40
c) Los αj pueden estimarse por MCO debido a que las variables z1y z2 son exógenas en el modelo,
sin embargo no se podrá recuperar los coecientes βj y πj debido a que habrán más incógnitas
que ecuaciones.
48. Considere el modelo simple de series temporales donde la variable explicativa tiene un
error de medida clásico:
yt = β0 + β1x ∗t +ut (14)
xt = x∗
t + et
donde ut tiene media cero y no está correlacionado con x∗
t y et. Solamente se observan
las variables yt y xt. Suponga que et tiene media cero y no está correlacionado con x∗
t
y que x∗
t tiene también media cero (este último supuesto se hace sólo para simplicar
el álgebra)
a) Sustituir x∗
t = xt − et y sustituirlo en la ecuación (14). Demostrar que el término
de error en la nueva ecuación, digamos vt, tiene correlación con negativa con xt si
β1  0. ¾Qué implica esto para el estimador MCO de β1 en la regresión de yt sobre
xt?
b) Además de los supuestos anteriores, suponga que ut y et no están correlacionados
con todos los valores pasados de x∗
t y e∗
t ; en particular, con x∗
t−1 y et−1. Demostrar
que E(xt−1vt) = 0, donde vt es el término de error en el modelo del apartado (a).
c) ¾Es probable que las variables xt y xt−1 están correlacionadas? Explicar por qué.
d) ¾Qué estrategia sugieren los apartados (b) y (c) para estimar consistentemente β0
y β1?
Respuesta:
a) Al sustituir x∗
t = xt − et en (14) se obtiene:
yt = β0 + β1xt + ut − β1et
vt
Dado que xt tiene media cero la covarianza entre xt y vt puede escribirse como:
Cov(xt, vt) = E(xtvt)
Cov(xt, vt) = E[(x∗
t + et)(ut − β1et)]
Cov(xt, vt) = E(x∗
t ut − β1etx∗
t + etut − β1e2
t )
Cov(xt, vt) = E(x∗
t ut)
0
−β1 E(etx∗
t )
0
+ E(etut)
0
−β1E(e2
t )
donde E(e2
t ) es la varianza de et, y siempre será positiva. Si β1  0 , entonces la covarianza
y por ende la correlación será negativa. En consecuencia el estimador de β1 será sesgado e
inconsistente.
41
b)
E(xt−1vt) = E[(x∗
t−1 + et−1)(ut − β1et)]
E(xt−1vt) = E(x∗
t−1ut + et−1ut − β1etx∗
t−1 − β1etet−1)
E(xt−1vt) = E(x∗
t−1ut)
0
+ E(et−1ut)
0
−β1 E(etx∗
t−1)
0
−β1 E(etet−1)
0
E(xt−1vt) = 0
c) Al obtener la covarianza
Cov(xt, xt−1) = E(xtxt−1)
Cov(xt, xt−1) = E(x∗
t x∗
t−1 + etx∗
t−1 + x∗
t et−1 + etet−1)
Cov(xt, xt−1) = E(x∗
t x∗
t−1) + E(etx∗
t−1)
0
+E(x∗
t et−1) + E(etet−1)
0
es probable que si esten correlacionados debido a que no se conocen la correlación entre x∗
t y
x∗
t−1, y la correlación entre x∗
t y et−1.
d) La manera de estimar consistentemente los parámetros del modelo (14) es por el método
de variables instrumentales. Un buen instrumento es xt−1 debido a que Cov(xt−1 xt) = 0 y
Cov(xt−1 vt) = 0.
49. Considere este modelo microeconómico de demanda y oferta de trabajo:
Demanda: y1 = α1 + α2y2 + α3x1 + α4x2 + u1
Oferta: y1 = α5 + α6y2 + u2
Aquí, y1(=horas de trabajo) e y2(=salario) son las variables endógenas. Las variables
exógenas, x1(=tipo de interés) y x2(=precio de las materias primas), son independien-
tes de las perturbaciones estructurales u1 y u2. Estas perturbaciones tienen esperanza
cero. En lo siguiente, respecto a la estimación, supondremos que disponemos de una
muestra de observaciones de y1, y2, x1 y x2de tamaño moderado, y que las regresiones
lineales a efectuar incluyen una constante.
a) Derive la forma reducida.
b) ¾Está identicada la ecuación de oferta? ¾Debe estimarse a partir de la regresión
lineal mínimo-cuadrática de y1 sobre y2? Explicar.
c) ¾Está identicada la ecuación de demanda? ¾Debe estimarse a partir de la regre-
sión lineal mínimo-cuadrática de y1 sobre y2, x1 y x2? Explicar.
d) Se le pide que estime la ecuación de oferta por mínimos cuadrados en dos estapas.
¾Qué pasos seguiría? Sea breve pero explícito.
e) Se le pide que estime la ecuación de demanda por mínimos cuadrados en dos
estapas. ¾Qué pasos seguiría? Sea breve pero explícito.
Respuesta:
42
a) Al igualar la oferta y demanda se despeja y2.
α1 + α2y2 + α3x1 + α4x2 + u1 = α5 + α6y2 + u2
α2y2 − α6y2 = α5 − α1 − α3x1 − α4x2 + u2 − u1
(α2 − α6)y2 = α5 − α1 − α3x1 − α4x2 + u2 − u1
Si se asume que α2 = α6 se puede dividir ambos lados de la ecuación anterior para α2 − α6.
y2 =
α5 − α1
α2 − α6
π1
+
−α3
α2 − α6
π2
x1 +
−α4
α2 − α6
π3
x2 +
u2 − u1
α2 − α6
v1
Para obtener la forma reducida de y1, se reemplaza la ecuación anterior en la ecuación de
oferta.
y1 = α5 + α6
α5 − α1
α2 − α6
+
−α3
α2 − α6
x1 +
−α4
α2 − α6
x2 +
u2 − u1
α2 − α6
+ u2
y1 = α5 +
α6(α5 − α1)
α2 − α6
+
−α6α3
α2 − α6
x1 +
−α6α4
α2 − α6
x2 +
α6(u2 − u1)
α2 − α6
+ u2
y1 =
α5α2 − α1α6
α2 − α6
π4
+
−α6α3
α2 − α6
π5
x1 +
−α6α4
α2 − α6
π6
x2 +
α2u2 − α6u1
α2 − α6
v2
b) La ecuación de oferta si está identicada, sin embargo no se debe estimar por mínimos cuadra-
dos ordinarios debido a que y2 es endógena y causa un sesgo de simultaneidad en el estimador,
además de la inconsistencia.
c) La ecuación de demanda no está identicada, y tampoco debe estimarse por mínimos cuadrados
ordinarios por la misma razón (el estimador es sesgado e inconsistente).
d) Primero se regresa y2 sobre x1 y x2. Mediante una prueba de hiótesis se testea si los coecientes
que acompañan estas variables son signicativos. De ser así, el segundo paso es regresar y1
sobre ˆy2, donde ˆy2 es la predicción de la regresión de y2 sobre x1 y x2.
e) No se puede estimar por mínimos cuadrados en dos etapas debido a que la ecuación no está
identicada.
50. En el modelo lineal
yi = xiβ + ui
E(ui) = 0
Suponga que los términos de error no están correlacionados, sin embargo no se cumple
el supuesto de homocedasticidad. Suponga que la estructura de la varianza del error
cambia en función de xi y además es conocida. Muestre que el estimador de mínimos
cuadrados generalizados de β puede ser escrito como un estimador de variable instru-
mental usando algún instrumento zi. (Encuentre una expresión para zi en función de
xi)
Respuesta:
Expresando la matriz de varianzas-covarianzas de u como Ω, el estimador de mínimos cuadrados
generalizados es:
43
ˆβMCG = (X Ω−1
X)−1
X Ω−1
y
Al compararlo con el estimador de variable instrumental
ˆβIV = (Z X)−1
Z y
se puede notar que es necesario que Z sea igual a X Ω−1
. Debido a la simetría de Ω−1
, la matriz
de instrumentos Z puede ser escrita como:
Z = Ω−1
X
Z =






1
σ2
1
0 · · · 0
0 1
σ2
2
· · · 0
...
...
...
...
0 0 · · · 1
σ2
n











x11 x21 · · · xk1
x12 x22 · · · xk2
...
...
...
...
x1n x2n · · · xkn





Por lo tanto, el instrumento zi puede ser escrito como
zi =
1
σ2
i
xi
Referencias
[1] Novales (1993); Econometría.
[2] Wooldridge (2008); Introductory Econometrics: A Modern Approach.
[3] Greene (2005); Econometric Analysis.
[4] Gujarati  Porter (2010); Econometría.
[5] B. Hansen (2012); Econometrics.
[6] Johnston and Dinardo (1996); Econometric Methods.
44

Más contenido relacionado

La actualidad más candente

S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptxS16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
YeferQuion
 

La actualidad más candente (20)

MICROECONOMIA I-EJERCICIOS RESUELTOS
MICROECONOMIA I-EJERCICIOS RESUELTOSMICROECONOMIA I-EJERCICIOS RESUELTOS
MICROECONOMIA I-EJERCICIOS RESUELTOS
 
Preguntas tipo test_macroeconomia_i_ade
Preguntas tipo test_macroeconomia_i_adePreguntas tipo test_macroeconomia_i_ade
Preguntas tipo test_macroeconomia_i_ade
 
Clase10 Endogeneidad y estimación por variables instrumentales
Clase10 Endogeneidad y estimación por variables instrumentalesClase10 Endogeneidad y estimación por variables instrumentales
Clase10 Endogeneidad y estimación por variables instrumentales
 
Ejercicios econometria ii
Ejercicios econometria iiEjercicios econometria ii
Ejercicios econometria ii
 
25 ejercicios de teoria y politica monetaria
25 ejercicios de teoria y politica monetaria25 ejercicios de teoria y politica monetaria
25 ejercicios de teoria y politica monetaria
 
56581501 tareas-resueltas-de-macroeconomia
56581501 tareas-resueltas-de-macroeconomia56581501 tareas-resueltas-de-macroeconomia
56581501 tareas-resueltas-de-macroeconomia
 
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptxS16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
S16.s1 Regresion Lineal Multiple.Matriz de varianzas-covarianzas.pptx
 
Sesion 4 curvas de indiferencia
Sesion 4 curvas de indiferenciaSesion 4 curvas de indiferencia
Sesion 4 curvas de indiferencia
 
Cálculo Integral para Empresariales
Cálculo Integral para EmpresarialesCálculo Integral para Empresariales
Cálculo Integral para Empresariales
 
Clase4 Test de hipótesis en el modelo de regresión
Clase4 Test de hipótesis en el modelo de regresiónClase4 Test de hipótesis en el modelo de regresión
Clase4 Test de hipótesis en el modelo de regresión
 
Ejercicios resueltos monopolio
Ejercicios resueltos monopolioEjercicios resueltos monopolio
Ejercicios resueltos monopolio
 
Econometría ii-cap 16 datos de panel
Econometría ii-cap 16 datos de panelEconometría ii-cap 16 datos de panel
Econometría ii-cap 16 datos de panel
 
Modelacion ARIMA
Modelacion ARIMAModelacion ARIMA
Modelacion ARIMA
 
Ejercicios y problemas_resueltos_macroeconomia
Ejercicios y problemas_resueltos_macroeconomiaEjercicios y problemas_resueltos_macroeconomia
Ejercicios y problemas_resueltos_macroeconomia
 
Manual de uso de eviews vf
Manual de uso de eviews vfManual de uso de eviews vf
Manual de uso de eviews vf
 
Trabajo de micro lema de shepard identidad de roy
Trabajo de micro lema de shepard identidad de royTrabajo de micro lema de shepard identidad de roy
Trabajo de micro lema de shepard identidad de roy
 
Clase12 heterocedasticidad
Clase12 heterocedasticidadClase12 heterocedasticidad
Clase12 heterocedasticidad
 
Ejercicios Microeconomia
Ejercicios MicroeconomiaEjercicios Microeconomia
Ejercicios Microeconomia
 
Capítulo iii modelos univariados de series de tiempo
Capítulo iii modelos univariados de series de tiempoCapítulo iii modelos univariados de series de tiempo
Capítulo iii modelos univariados de series de tiempo
 
Clase5 Formas funcionales
Clase5 Formas funcionalesClase5 Formas funcionales
Clase5 Formas funcionales
 

Destacado (8)

EJERCICIOS ECONOMETRIA 1
EJERCICIOS ECONOMETRIA 1EJERCICIOS ECONOMETRIA 1
EJERCICIOS ECONOMETRIA 1
 
Ejercicio econometría 7.18 gujarati
Ejercicio econometría 7.18 gujaratiEjercicio econometría 7.18 gujarati
Ejercicio econometría 7.18 gujarati
 
Ejercicios de econometría (1)
Ejercicios de econometría (1)Ejercicios de econometría (1)
Ejercicios de econometría (1)
 
Ejercicio econometría 4.24 novales
Ejercicio econometría 4.24 novalesEjercicio econometría 4.24 novales
Ejercicio econometría 4.24 novales
 
Ejercicios econometria i
Ejercicios econometria iEjercicios econometria i
Ejercicios econometria i
 
Estadística II
Estadística IIEstadística II
Estadística II
 
Cien ejercicios de econometria resueltos
Cien ejercicios de econometria resueltosCien ejercicios de econometria resueltos
Cien ejercicios de econometria resueltos
 
Regresión y correlación estadística aplicada
Regresión y correlación estadística aplicadaRegresión y correlación estadística aplicada
Regresión y correlación estadística aplicada
 

Similar a Ejercicios econometría1

solucion-de-examen-de-ecuaciones-diferenciales-espol
 solucion-de-examen-de-ecuaciones-diferenciales-espol  solucion-de-examen-de-ecuaciones-diferenciales-espol
solucion-de-examen-de-ecuaciones-diferenciales-espol
Frank Fernandez
 
Matriz Asociada a la Aplicacion
Matriz Asociada a la AplicacionMatriz Asociada a la Aplicacion
Matriz Asociada a la Aplicacion
algebragr4
 
Solucionario ecuaciones diferenciales
Solucionario ecuaciones diferencialesSolucionario ecuaciones diferenciales
Solucionario ecuaciones diferenciales
Daniel Mg
 

Similar a Ejercicios econometría1 (20)

Ejercicios detallados del obj 6 mat iii 733
Ejercicios detallados del obj 6 mat iii  733 Ejercicios detallados del obj 6 mat iii  733
Ejercicios detallados del obj 6 mat iii 733
 
304solbol6fmimec0304
304solbol6fmimec0304304solbol6fmimec0304
304solbol6fmimec0304
 
Metodos de la fisica 2
Metodos de la fisica 2Metodos de la fisica 2
Metodos de la fisica 2
 
solucion-de-examen-de-ecuaciones-diferenciales-espol
 solucion-de-examen-de-ecuaciones-diferenciales-espol  solucion-de-examen-de-ecuaciones-diferenciales-espol
solucion-de-examen-de-ecuaciones-diferenciales-espol
 
05 CAMBIO DE INTEGRALES EN INTEGRAL DOBLE
05 CAMBIO DE INTEGRALES EN INTEGRAL DOBLE05 CAMBIO DE INTEGRALES EN INTEGRAL DOBLE
05 CAMBIO DE INTEGRALES EN INTEGRAL DOBLE
 
Transformaciones en regresion
Transformaciones en regresionTransformaciones en regresion
Transformaciones en regresion
 
1. Tema Nº 2 (Apuntes).pptx simplex regresion
1. Tema Nº 2 (Apuntes).pptx simplex regresion1. Tema Nº 2 (Apuntes).pptx simplex regresion
1. Tema Nº 2 (Apuntes).pptx simplex regresion
 
Calculo 3 ejer 1
Calculo 3 ejer 1Calculo 3 ejer 1
Calculo 3 ejer 1
 
Archivo con demostraciones de espacios vectoriales
Archivo con demostraciones de espacios vectorialesArchivo con demostraciones de espacios vectoriales
Archivo con demostraciones de espacios vectoriales
 
Al ap 02
Al ap 02Al ap 02
Al ap 02
 
Matriz Asociada a la Aplicacion
Matriz Asociada a la AplicacionMatriz Asociada a la Aplicacion
Matriz Asociada a la Aplicacion
 
12 rectas
12 rectas12 rectas
12 rectas
 
Clase 4
Clase 4Clase 4
Clase 4
 
Combinatorios con numerador fraccionario o negativo y binomio de newton (Repa...
Combinatorios con numerador fraccionario o negativo y binomio de newton (Repa...Combinatorios con numerador fraccionario o negativo y binomio de newton (Repa...
Combinatorios con numerador fraccionario o negativo y binomio de newton (Repa...
 
Clase 6 Análisis de regresión.pdf
Clase 6 Análisis de regresión.pdfClase 6 Análisis de regresión.pdf
Clase 6 Análisis de regresión.pdf
 
Pec compleja enero2019_def_soluciones
Pec compleja enero2019_def_solucionesPec compleja enero2019_def_soluciones
Pec compleja enero2019_def_soluciones
 
Espacios vectoriales euclideos
Espacios vectoriales euclideosEspacios vectoriales euclideos
Espacios vectoriales euclideos
 
Metodos numericos capitulo 4
Metodos numericos capitulo 4Metodos numericos capitulo 4
Metodos numericos capitulo 4
 
Algebra lineal 27 exactas e ingenieria
Algebra lineal 27 exactas e ingenieriaAlgebra lineal 27 exactas e ingenieria
Algebra lineal 27 exactas e ingenieria
 
Solucionario ecuaciones diferenciales
Solucionario ecuaciones diferencialesSolucionario ecuaciones diferenciales
Solucionario ecuaciones diferenciales
 

Último

Fichas de Letras para nivel primario buenísimo
Fichas de Letras para nivel primario buenísimoFichas de Letras para nivel primario buenísimo
Fichas de Letras para nivel primario buenísimo
ValentinaMolero
 
Doctrina y Filosofía contable - Epistemología contable, fundamentos, conceptu...
Doctrina y Filosofía contable - Epistemología contable, fundamentos, conceptu...Doctrina y Filosofía contable - Epistemología contable, fundamentos, conceptu...
Doctrina y Filosofía contable - Epistemología contable, fundamentos, conceptu...
lucerito39
 
tad22.pdf sggwhqhqt1vbwju2u2u1jwy2jjqy1j2jqu
tad22.pdf sggwhqhqt1vbwju2u2u1jwy2jjqy1j2jqutad22.pdf sggwhqhqt1vbwju2u2u1jwy2jjqy1j2jqu
tad22.pdf sggwhqhqt1vbwju2u2u1jwy2jjqy1j2jqu
iceokey158
 

Último (20)

CHARLA SOBRE CONTROL INTERNO - COSO III.pptx
CHARLA SOBRE CONTROL INTERNO - COSO III.pptxCHARLA SOBRE CONTROL INTERNO - COSO III.pptx
CHARLA SOBRE CONTROL INTERNO - COSO III.pptx
 
Marco conceptual para la información financiera.pdf
Marco conceptual para la información financiera.pdfMarco conceptual para la información financiera.pdf
Marco conceptual para la información financiera.pdf
 
EL PROCESO DE FISCALIZACION TRIBUTARIA .pptx
EL PROCESO DE FISCALIZACION TRIBUTARIA .pptxEL PROCESO DE FISCALIZACION TRIBUTARIA .pptx
EL PROCESO DE FISCALIZACION TRIBUTARIA .pptx
 
Que son y los tipos de costos predeterminados
Que son y los tipos de costos predeterminadosQue son y los tipos de costos predeterminados
Que son y los tipos de costos predeterminados
 
Fichas de Letras para nivel primario buenísimo
Fichas de Letras para nivel primario buenísimoFichas de Letras para nivel primario buenísimo
Fichas de Letras para nivel primario buenísimo
 
Doctrina y Filosofía contable - Epistemología contable, fundamentos, conceptu...
Doctrina y Filosofía contable - Epistemología contable, fundamentos, conceptu...Doctrina y Filosofía contable - Epistemología contable, fundamentos, conceptu...
Doctrina y Filosofía contable - Epistemología contable, fundamentos, conceptu...
 
Presentación Seccion 6 - Estado de cambios en el patrimonio y estado de resul...
Presentación Seccion 6 - Estado de cambios en el patrimonio y estado de resul...Presentación Seccion 6 - Estado de cambios en el patrimonio y estado de resul...
Presentación Seccion 6 - Estado de cambios en el patrimonio y estado de resul...
 
AUDITORÍA FINANCIERAS AL ELEMENTO 5 DEL PCGE
AUDITORÍA FINANCIERAS AL ELEMENTO 5 DEL PCGEAUDITORÍA FINANCIERAS AL ELEMENTO 5 DEL PCGE
AUDITORÍA FINANCIERAS AL ELEMENTO 5 DEL PCGE
 
DIAPOSITIVAS TEMA 13 COMERCIO INTERNACIONAL I.pdf
DIAPOSITIVAS TEMA 13 COMERCIO INTERNACIONAL I.pdfDIAPOSITIVAS TEMA 13 COMERCIO INTERNACIONAL I.pdf
DIAPOSITIVAS TEMA 13 COMERCIO INTERNACIONAL I.pdf
 
Cuadro Comparativo selección proveedores
Cuadro Comparativo selección proveedoresCuadro Comparativo selección proveedores
Cuadro Comparativo selección proveedores
 
tad22.pdf sggwhqhqt1vbwju2u2u1jwy2jjqy1j2jqu
tad22.pdf sggwhqhqt1vbwju2u2u1jwy2jjqy1j2jqutad22.pdf sggwhqhqt1vbwju2u2u1jwy2jjqy1j2jqu
tad22.pdf sggwhqhqt1vbwju2u2u1jwy2jjqy1j2jqu
 
Seguridad Ciudadana.pptx situación actual del país
Seguridad Ciudadana.pptx situación actual del paísSeguridad Ciudadana.pptx situación actual del país
Seguridad Ciudadana.pptx situación actual del país
 
JOSE URBINA - Presentacion Sistema Endeudamiento.pptx
JOSE URBINA - Presentacion Sistema Endeudamiento.pptxJOSE URBINA - Presentacion Sistema Endeudamiento.pptx
JOSE URBINA - Presentacion Sistema Endeudamiento.pptx
 
TEMA: LA DEMANDA , LA OFERTA Y EL PUNTO DE EQUILIBRIO.pdf
TEMA: LA DEMANDA , LA OFERTA Y  EL PUNTO DE EQUILIBRIO.pdfTEMA: LA DEMANDA , LA OFERTA Y  EL PUNTO DE EQUILIBRIO.pdf
TEMA: LA DEMANDA , LA OFERTA Y EL PUNTO DE EQUILIBRIO.pdf
 
Procedimiento no contencioso tributario no vinculado
Procedimiento no contencioso tributario no vinculadoProcedimiento no contencioso tributario no vinculado
Procedimiento no contencioso tributario no vinculado
 
El rey que no amaba a los elefantes. Vida y caida de Juan Carlos I, el ultimo...
El rey que no amaba a los elefantes. Vida y caida de Juan Carlos I, el ultimo...El rey que no amaba a los elefantes. Vida y caida de Juan Carlos I, el ultimo...
El rey que no amaba a los elefantes. Vida y caida de Juan Carlos I, el ultimo...
 
Tratados de libre comercio de Ecuador con México
Tratados de libre comercio de Ecuador con MéxicoTratados de libre comercio de Ecuador con México
Tratados de libre comercio de Ecuador con México
 
TEORIA DEL CONSUMIDOR.pptxxxxxxxxxxxxxxxxxxxxxxxx
TEORIA DEL CONSUMIDOR.pptxxxxxxxxxxxxxxxxxxxxxxxxTEORIA DEL CONSUMIDOR.pptxxxxxxxxxxxxxxxxxxxxxxxx
TEORIA DEL CONSUMIDOR.pptxxxxxxxxxxxxxxxxxxxxxxxx
 
Guia appto bancor para creditos inmobiliarios en Cordoba
Guia appto bancor para creditos inmobiliarios en CordobaGuia appto bancor para creditos inmobiliarios en Cordoba
Guia appto bancor para creditos inmobiliarios en Cordoba
 
Procedimientos Concursales y Disoluciones
Procedimientos Concursales y DisolucionesProcedimientos Concursales y Disoluciones
Procedimientos Concursales y Disoluciones
 

Ejercicios econometría1

  • 1. Solucionario de problemas de Econometría I Ec. Gonzalo Villa Cox M.Sc. * Sr. Freddy García Albán Mayo 2014 1. Para estimar el modelo yi = βxi + ui se propone el estimador: ˆβ = n i=1 xiyi σ2 β2 + n i=1 x2 i a) Pruebe que el estimador esta sesgado hacia 0. b) Pruebe que: E(ˆβ − β)2 = σ2 σ2 β2 + n i=1 x2 i c) Pruebe que su varianza es inferior a la del estimador MCO. Respuesta: a) El sesgo del estimador ˆβ se dene como: b( ˆβ, β) = E(ˆβ)−β . Por lo tanto el problema consiste en demostrar que E(ˆβ) está entre 0 y β, o lo que es lo mismo, que b( ˆβ, β) sea de signo contrario a β Se empieza calculando E(ˆβ) = E n i=1 xi(βxi + ui) σ2 β2 + n i=1 x2 i E(ˆβ) = E n i=1 (βx2 i + xiui) σ2 β2 + n i=1 x2 i E(ˆβ) = E β n i=1 x2 i + n i=1 xiui σ2 β2 + n i=1 x2 i E(ˆβ) = 1 σ2 β2 + n i=1 x2 i E[ n i=1 βx2 i + n i=1 xiui] E(ˆβ) = 1 σ2 β2 + n i=1 x2 i [β n i=1 x2 i + E[ n i=1 xiui] 0 ] *Cualquier duda o comentario escribir a gvilla@espol.edu.ec. 1
  • 2. Esto último debido a que E[xiui] = 0. Entonces E(ˆβ) = β n i=1 x2 i σ2 β2 + n i=1 x2 i Hasta aquí ya es posible observar que el valor esperado del estimador está entre 0 y β, sin embargo se calculará el sesgo: b(ˆβ, β) = β n i=1 x2 i σ2 β2 + n i=1 x2 i − β = β n i=1 x2 i σ2 β2 + n i=1 x2 i − 1 Lo que está dentro del paréntesis es negativo, por lo tanto el sesgo es de signo contrario a β, por lo que está sesgado hacia 0. b) E(ˆβ − β)2 = E n i=1 xiyi σ2 β2 + n i=1 x2 i − β 2 E(ˆβ − β)2 = E n i=1 xiyi − σ2 β − β n i=1 x2 i σ2 β2 + n i=1 x2 i 2 E(ˆβ − β)2 = E β n i=1 x2 i + n i=1 xiui − σ2 β − β n i=1 x2 i σ2 β2 + n i=1 x2 i 2 E(ˆβ − β)2 = E n i=1 xiui − σ2 β 2 σ2 β2 + n i=1 x2 i 2 E(ˆβ − β)2 = E [ n i=1 xiui]2 − 2σ2 β n i=1 xiui + [σ2 β ]2 σ2 β2 + n i=1 x2 i 2 Obteniendo el valor esperado de cada término del numerador y teniendo en cuenta que E[xiui] = 0, E[uiuj] = 0 la ecuación anterior se reduce a: E(ˆβ − β)2 = σ2 n i=1 x2 i + [σ2 β ]2 σ2 β2 + n i=1 x2 i 2 = σ2 n i=1 x2 i + σ2 β2 σ2 β2 + n i=1 x2 i 2 E(ˆβ − β)2 = σ2 σ2 β2 + n i=1 x2 i 2
  • 3. c) V ar(ˆβ) = E[ˆβ − E(ˆβ)]2 V ar(ˆβ) = E β n i=1 x2 i + n i=1 xiui σ2 β2 + n i=1 x2 i − β n i=1 x2 i σ2 β2 + n i=1 x2 i 2 V ar(ˆβ) = E β n i=1 x2 i + n i=1 xiui − β n i=1 x2 i σ2 β2 + n i=1 x2 i 2 V ar(ˆβ) = E n i=1 xiui σ2 β2 + n i=1 x2 i 2 = E[ n i=1 xiui]2 σ2 β2 + n i=1 x2 i 2 V ar(ˆβ) = σ2 n i=1 x2 i σ2 β2 + n i=1 x2 i 2 Para probar que la varianza del estimador MCO es mayor basta con probar que la diferencia entre la varianza del estimador MCO y la varianza del estimador propuesto es positiva. V ar(ˆβMCO) − V ar(ˆβ) = σ2 n i=1 x2 i − σ2 n i=1 x2 i σ2 β2 + n i=1 x2 i 2 V ar(ˆβMCO) − V ar(ˆβ) = σ2 σ2 β2 + n i=1 x2 i 2 − σ2 n i=1 x2 i 2 σ2 β2 + n i=1 x2 i 2 n i=1 x2 i V ar(ˆβMCO) − V ar(ˆβ) = σ2 σ2 β2 + n i=1 x2 i 2 − n i=1 x2 i 2 σ2 β2 + n i=1 x2 i 2 n i=1 x2 i V ar(ˆβMCO) − V ar(ˆβ) = σ2 σ2 β2 2 + 2σ2 β2 n i=1 x2 i + n i=1 x2 i 2 − n i=1 x2 i 2 σ2 β2 + n i=1 x2 i 2 n i=1 x2 i V ar(ˆβMCO) − V ar(ˆβ) = σ2 σ2 β2 2 + 2σ2 β2 n i=1 x2 i σ2 β2 + n i=1 x2 i 2 n i=1 x2 i 0 Como se puede apreciar en la expresión anterior, el numerador y denominador serán positivos, por lo tanto el ratio es positivo, con lo que queda demostrado que la varianza del estimador propuesto es menor a la varianza del estimador MCO. 2. Con objeto de estimar el modelo de regresión lineal simple Yt = α + βXt + ut se han propuesto los siguientes estimadores de β: 3
  • 4. ˆβ1 = t Yt t Xt ˆβ4 = t yt t xt ˆβ2 = 1 T t Yt Xt ˆβ5 = 1 T i yt xt ˆβ3 = t XtYt t X2 t ˆβ6 = t xtyt t x2 t donde letras minúsculas indican diferencias entre los valores representados por las mayúsculas y sus respectivos promedios muestrales. Todas las sumas anteriores son desde t = 1 hasta t = T, donde T es el tamaño muestral. Calcular la esperanza y la varianza de cada estimador y sugerir cuál de ellos debería utilizarse. Respuesta: E( ˆβ1): E( ˆβ1) = E t Yt t Xt E( ˆβ1) = E t(α + βXt + ut) t Xt = E Tα t Xt + β + t ut t Xt E( ˆβ1) = E t(α + βXt + ut) t Xt = Tα t Xt + β + t E(ut) 0 t Xt V ar( ˆβ1): V ar( ˆβ1) = V ar Tα t Xt + β + t ut t Xt = t V ar(ut) t Xt 2 V ar( ˆβ1) = Tσ2 t Xt 2 E( ˆβ2): E( ˆβ2) = 1 T E t Yt Xt = 1 T E t ( α Xt + β + ut Xt ) E( ˆβ2) = 1 T E α t 1 Xt + Tβ + t ut Xt E( ˆβ2) = α T t 1 Xt + β + 1 T t E(ut) 0 Xt V ar( ˆβ2): V ar( ˆβ2) = 1 T2 V ar t Yt Xt V ar( ˆβ2) = 1 T2 V ar α t 1 Xt + Tβ + t ut Xt V ar( ˆβ2) = 1 T2 t V ar(ut) X2 t V ar( ˆβ2) = σ2 T2 t 1 X2 t 4
  • 5. E( ˆβ3): E( ˆβ3) = E t XtYt t X2 t = E α t Xt t X2 t + β t X2 t t X2 t + t Xtut t X2 t E( ˆβ3) = α t Xt t X2 t + β + t Xt E(ut) 0 t X2 t V ar( ˆβ3): V ar( ˆβ3) = V ar α t Xt t X2 t + β t X2 t t X2 t + t Xtut t X2 t V ar( ˆβ3) = t X2 t V ar(ut) ( t X2 t )2 = σ2 t X2 t E( ˆβ4): No se puede obtener los momentos debido a que es una indeterminación. E( ˆβ5): E( ˆβ5) = 1 T E t yt xt E( ˆβ5) = 1 T E t α + βXt + ut − α − β ¯X − ¯u xt E( ˆβ5) = 1 T E t α + βXt + ut − α − β ¯X − ¯u xt E( ˆβ5) = 1 T E t β (Xt − ¯X) xt +ut − ¯u xt E( ˆβ5) = 1 T E Tβ + t ut − ¯u xt = 1 T Tβ + t E(ut − ¯u) 0 xt E( ˆβ5) = β V ar( ˆβ5): V ar( ˆβ5) = 1 T2 V ar Tβ + t ut − ¯u xt V ar( ˆβ5) = 1 T2 t (V ar ut − ¯u xt ) + 2 i t it 1 xi 1 xt Cov(ui − ¯u, ut − ¯u) − σ2 T = 1 T2 t V ar(ut − ¯u) x2 t − 2σ2 T i t it 1 xi 1 xt V ar( ˆβ5) = 1 T2 t V ar(ut) + V ar(¯u) − 2Cov(ut, ¯u) x2 t − 2σ2 T i t it 1 xi 1 xt V ar( ˆβ5) = 1 T2 t σ2 + σ2 T − 2σ2 T x2 t − 2σ2 T i t it 1 xi 1 xt 5
  • 6. V ar( ˆβ5) = 1 T2 (σ2 − σ2 T ) t 1 x2 t − 2σ2 T i t it 1 xi 1 xt Los momentos de ˆβ6 son conocidos, debido a que es el estimador de mínimos cuadrados ordinarios. E( ˆβ6) = β V ar( ˆβ6) = σ2 t x2 t Una propiedad deseable de un estimador es que sea insesgado, así que se seleccionará entre los estimadores insesgados. Si se comparan las varianzas de los dos estimadores insesgados ˆβ6 y ˆβ5 se puede observar que la varianza de ˆβ6 es menor que la de ˆβ5. Esto también se sabe gracias al teorema de Gauss-Markov. 3. Considere los siguientes modelos: yi = β1 + β2xi + ui y∗ i = α1 + α2x∗ i + ui donde y∗ y x∗ son variables estandarizadas. Demuestre que ˆα2 = ˆβ2 Sx Sy , donde Sx y Sy son las desviaciones estándar muestrales de x y y respectivamente. Respuesta: ˆα2 = y∗ i x∗ i (x∗ i )2 = (yi−¯y)(xi−¯x) SySx (xi−¯x)2 S2 x ˆα2 = (yi − ¯y)(xi − ¯x) (xi − ¯x)2 Sx Sy = ˆβ2 Sx Sy Este resultado muestra que a pesar de que los coecientes de pendiente son independientes de un cambio en el origen, no lo son de un cambio de escala. 4. Sean ˆβyx y ˆβxy las pendientes de la regresión de y sobre x y de x sobre y, respectiva- mente. Demuestre que: ˆβyx ˆβxy = R2 donde R2 es el coeciente de determinación de la regresión de y sobre x, o el cuadrado del coeciente de correlación muestral entre y y x. Respuesta: Se sabe que el R2 puede ser escrito como: R2 = (ˆyi − ¯y)2 (yi − ¯y)2 = (ˆα + ˆβxi − ¯y)2 (yi − ¯y)2 R2 = (¯y − ˆβ¯x + ˆβxi − ¯y)2 (yi − ¯y)2 R2 = (ˆβxi − ˆβ¯x)2 (yi − ¯y)2 = (ˆβ(xi − ¯x))2 (yi − ¯y)2 R2 = ˆβ2 yx (xi − ¯x)2 (yi − ¯y)2 Haciendo algunas manipulaciones algebráicas se llega a la expresión ˆβyx ˆβxy: 6
  • 7. R2 = ˆβyx ˆβyx (xi − ¯x)2 (yi − ¯y)2 = ˆβyx (yi − ¯y)(xi − ¯x) (xi − ¯x)2 × (xi − ¯x)2 (yi − ¯y)2 R2 = ˆβyx (yi − ¯y)(xi − ¯x) (yi − ¯y)2 = ˆβyx ˆβxy 5. Probar que la estimación MCO del coeciente β en el modelo yi = α + βx + ui es el inverso del estimador MCO del coeciente δ del modelo xi = γ + δyi + vi sólo si el coeciente de determinación del primer modelo(y del segundo) es igual a 1. Respuesta: Utilizando el resultado del ejercicio anterior se sabe que el coeciente de determinación R2 puede ser escrito como: R2 = ˆβˆδ por lo tanto si ˆδ es el inverso de ˆβ, necesariamente el R2 debe ser 1. R2 = ˆβˆδ = ˆβ 1 ˆβ = 1 6. Considere los siguientes modelos: ln y∗ i = α1 + α2 ln x∗ i + ui ln yi = β1 + β2 ln xi + ui donde y∗ i = w1yi y x∗ i = w2xi, con las w constantes. a) Establezca las relaciones entre los dos conjuntos de coecientes de regresión y sus errores estándar. b) ¾Es diferente el R2 en los dos modelos? Respuesta: a) Se dene zi y z∗ i como: zi = ln xi z∗ i = ln x∗ i Al simplicar la siguiente expresión z∗ i − ¯z∗ se obtiene un resultado importante: z∗ i − ¯z∗ = ln w2 + zi − ln w2 n + ¯zi = zi − ¯zi Se puede hacer el mismo ejercicio para la variable dependiente y se llegará a un resultado similar. Por lo tanto los coecientes de pendiente para ambos modelos serán los mismos y sus errores estándar también. El coeciente de intercepto del primer modelo será:1 ˆα1 = ln w1 + ¯ln yi − (ln w2 + ¯ln xi) ˆα2 1 ¯ln y ≡ ln yi n 7
  • 8. ˆα1 = ln w1 + ¯ln yi − ˆα2 ln w2 − ˆα2 ¯ln xi Como los coecientes de pendiente son los mismos, entonces: ˆα1 = ¯ln yi − ˆβ2 ¯ln x ˆβ1 + ln w1 − ˆβ2 ln w2 Al obtener la varianza: V ar( ˆα1) = V ar( ˆβ1) + (ln w2)2 V ar( ˆβ2) − 2 ln w2Cov( ˆβ1, ˆβ2) V ar( ˆα1) = V ar( ˆβ1) + (ln w2)2 V ar( ˆβ2) + 2 ¯ln x ln w2V ar( ˆβ2) V ar( ˆα1) = V ar( ˆβ1) + ((ln w2)2 + 2 ¯ln x ln w2)V ar( ˆβ2) Se puede observar que el estimador del coeciente de intercepto no será igual, además su error estándar también sera distinto como se aprecia en la ecuación anterior. La varianza del estimador ˆα1 será igual a la varianza del estimador ˆβ1mas una constante multiplicada por la varianza de ˆβ2. b) El R2 en ambos modelos serán los mismos. Esto puede comprobarse mostrando que ˆln y∗ i − ¯ln y∗ i = ˆln yi − ¯ln yi o simplemente usando el resultado del ejercicio 5. Dado que los estimadores de las pendientes son iguales en ambos modelos, el R2 será el mismo. 7. Suponga que las variables explicativas de un modelo de regresión lineal y = Xβ + µ pueden dividirse en dos sub-matrices X1 y X2 con la propiedad que ambas son orto- gonales entre sí. Demuestre que los estimadores MCO para los sub-vectores β1 y β2 para los modelos parciales: y = X1β1 + µ1 y = X2β2 + µ2 coinciden con los estimadores MCO para el modelo y = Xβ + µ. Respuesta: El estimador MCO del modelo y = X1β1 + µ1 es ˆβ1 = (X1X1)−1 X1y. Se puede escribir y como: y = PXy + MXy = X1 ˆβ1 + X2 ˆβ2 + MXy (1) donde PX es la matriz que proyecta sobre el espacio columna de X y MX es la matriz que proyecta sobre el complemento ortogonal del espacio columna de X. Si se multiplica (1) por X1 se obtiene: X1y = X1X1 ˆβ1 + X1X2 ˆβ2 + X1MXy X1y = X1X1 ˆβ1 + X1X2 O ˆβ2 + X1MX O y (2) donde O es una matriz de ceros. La primera se debe a que X1 es ortogonal a X2, y la segunda matriz O se debe a que MXX1 = O , por lo tanto debido a la simetría de MX, se tiene que X1MX = (MXX1) = (O) = O. Premultiplicando (2) por (X1X1)−1 se obtiene: 8
  • 9. (X1X1)−1 X1y = ˆβ1 el cual es el estimador MCO del modelo de regresión de y1 sobre X1. Para demostrar que el estimador MCO de ˆβ2 es el mismo en ambos modelos se sigue el mismo procedimiento. 8. Suponga el siguiente modelo de regresión: yt = α + β1xt1 + β2xt2 + ut, donde se tiene X X =   33 0 0 0 40 20 0 20 60   X y =   132 24 92   ˆu ˆu = 150 Se pide: a) El tamaño de la muestra, la media aritmética de x1, x2 e y. b) Los estimadores de α, β1 y β2. c) La varianza estimada del estimador β2 y plantee un estadístico de prueba para testear la hipótesis que β2 = 0. Respuesta: a) El tamaño de la muestra es 33. Las medias aritméticas de x1 y x2 son iguales a 0, mientras que la media de y es igual a 132/33 = 4. X X =   n x1 x2 x1 x2 1 x1x2 x2 x1x2 x2 2   X y =   y x1y x2y   b) Usando la fórmula del estimador MCO se obtienen los resultados: ˆβ = (X X)−1 X Y =   4 −0,2 1,6   c) La varianza estimada del estimador ˆβ es: V ar( ˆβ) = ˆσ2(X X)−1 = ˆu ˆu n − 3 (X X)−1 V ar( ˆβ) =   V ar(ˆα) Cov(ˆα, ˆβ1) Cov(ˆα, ˆβ2) Cov(ˆα, ˆβ1) V ar( ˆβ1) Cov( ˆβ1, ˆβ2) Cov(ˆα, ˆβ2) Cov( ˆβ1, ˆβ2) V ar( ˆβ2)   = 150 30   0,03030303 0 0 0 0,03 −0,01 0 −0,01 0,02   Para realizar el test de hipótesis es necesario calcular el estadístico t: t = ˆβ2 V ar( ˆβ2) = 1,6 0,1 = 16 9. Suponga que ˆβ es el estimador MCO para el modelo de regresión entre un vector y y una matriz X y c es un vector conformable cualquiera. Pruebe que la diferencia entre las sumas de cuadrados: (y − Xc) (y − Xc) − (y − X ˆβ) (y − X ˆβ) = (c − ˆβ) X X(c − ˆβ) 9
  • 10. Respuesta: Resolviendo el lado izquierdo de la ecuación obtenemos: = (y − c X )(y − Xc) − (y − ˆβ X )(y − X ˆβ) = y y − y Xc − c X y + c X Xc − y y + y X ˆβ + ˆβ X y − ˆβ X X ˆβ = −y Xc − c X y + c X Xc + y X ˆβ + ˆβ X y − ˆβ X X ˆβ Si usamos el hecho de que ˆβ = (X X)−1 X Y entonces: = −y Xc − c X y + c X Xc + y X ˆβ + ˆβ X y − ˆβ X X(X X)−1 I X y = −y Xc − c X y X X ˆβ +c X Xc + y X ˆβ = (c X X − y X)c − (c X X − y X)ˆβ = (c X X− y X ˆβ X X )(c − ˆβ) = (c − ˆβ )X X(c − ˆβ) = (c − ˆβ) X X(c − ˆβ) 10. Para estudiar la relación entre 2 variables se han estimado los siguientes modelos: a) yi = α + βxi + µi b) ln yi = α + βxi + µi c) yi = α + β ln xi + µi d) ln yi = α + β ln xi + µi Discutir la interpretación que tendria, en cada caso, el valor estimado para el coeciente ˆβ. Respuesta: a) El coeciente ˆβ es el cambio que se produce en y cuando x aumenta en una unidad. b) Si se multiplica el coeciente ˆβ por 100, entonces 100ˆβ representa el cambio porcentual en y ocasionada por un cambio absoluto en x. c) Si se divide ˆβ para 100, entonces 0,01ˆβ representa el cambio absoluto en y debido a un cambio relativo en x. d) El coeciente ˆβ mide el cambio porcentual en y ante pequeños cambios porcentuales en x, es decir mide la elasticidad de y con respecto a x. 11. Utilice la siguiente regresión simple para contestar los literales justicando su respues- ta: yt = β0 + β1Xt + ut Para el cual se conocen los siguientes resultados: t Xt = 0 t Yt = 0 t X2 t = B t Y 2 t = E t XtYt = F 10
  • 11. a) Las estimaciones de MCO para los parámetros β0 y β1 son (en ese orden): 1) E/F y B 2) 0 y F/B 3) E y B/F 4) F/B y 0 b) La suma de los cuadrados de los residuos es igual a: 1) B + E2 2) 0 3) (B2 /E) − F 4) E − (F2 /B) Respuesta: a) ii) 0 y F/B ˆβ0 = ¯Y − ¯X ˆβ1 = 0 − 0( ˆβ1) = 0 ˆβ1 = t(Xt − ¯X)(Yt − ¯Y ) t(Xt − ¯X)2 = t XtYt t X2 t = F B b) iv) E − (F2 /B) ˆYt = 0 + (F/B)Xt t ˆu2 t = t (Yt − (F/B)Xt)2 = t (Y 2 t − 2(F/B)XtYt + (F2 /B2 )X2 t ) t ˆu2 t = t Y 2 t − 2(F/B) t XtYt + (F2 /B2 ) t X2 t = E − 2F2 /B + F2 /B = E − (F2 /B) 12. Sea el modelo y = Xβ + u. Se estima β por MCO y se obtienen los residuos de la regresión ˆu = y − X ˆβ. Considere ahora la siguiente regresión: y = Xγ + δˆu + v. a) Derive los estimadores MCO de γ y δ. b) ¾Qué valores tendrán los residuos ˆv de la regresión anterior? c) Calcule el R2 de la regresión. Respuesta: a) Dado que los regresores X y ˆu son ortogonales, los estimadores de γ y δ serán los mismos de las regresiones: y = Xγ + v1 y y = δˆu + v2 Por lo tanto: ˆγ = (X X)−1 X y y ˆδ = (ˆu ˆu)−1 ˆu y = (ˆu ˆu)−1 (MXy) y = (ˆu ˆu)−1 y MXy = (ˆu ˆu)−1 ˆu ˆu = 1 11
  • 12. b) Los residuos serán cero porque hemos incluido en los regresores la parte de y que no es explicada por X de la regresión original. ˆv = y − Xˆγ − ˆδˆu = y − X ˆβ − ˆu = ˆu − ˆu = 0 c) Por obvias razones el R2 será 1, debido a que el modelo se ajusta perfectamente, es decir la variabilidad de y está explicada completamente por la variabilidad de los regresores. R2 = 1 − ˆv ˆv (y − ¯y) (y − ¯y) = 1 − 0 = 1 13. Considere el modelo de regresión Yi = α + βXi + ui, ∀i : ui ∼ (0, σ2 ) y ∀i, j : cov(ui, uj) = 0 a) Demuestre que el estimador de MCO ˆα = i λiYi, en donde λi = 1 n − wi ¯X y wi = xi i x2 i . xi es la variable Xi en desviaciones con respecto a su media muestral xi = Xi − ¯X. b) Muestre que i λi = 1 y i λiXi = 0. c) Pruebe que cualquier otro estimador lineal para α(de la forma ˜α(de la forma ˜α = i biYi) debe satisfacer tanto que i bi = 1 como i biXi = 0 para ser insesgado. d) Si bi = λi + fi, muestre que i fi = 0 y i fiXi = 0. e) Demuestre que V ar(˜α) ≥ V ar(ˆα). Respuesta: a) ˆα = i λiYi = i ( 1 n − wi ¯X)Yi = i ( 1 n − xi i x2 i ¯X)Yi ˆα = i yi n − ¯X i xiYi i x2 i = ¯Y − ¯X ˆβ b) i λi = i ( 1 n − wi ¯X) = n n − ¯X i wi = 1 − ¯X i xi i x2 i = 1 − ¯X 0 i x2 i = 1 i λiXi = i ( 1 n − wi ¯X)Xi = ¯X − ¯X i wiXi i λiXi = ¯X − ¯X i xiXi i x2 i = ¯X − ¯X i x2 i i x2 i = ¯X − ¯X = 0 c) ˜α = i biYi E(˜α) = E( i biYi) = E[ i bi(α + βXi + ui)] E(˜α) = E(α i bi) + E(β i biXi) + E( i biui) E(˜α) = α i bi + β i biXi + bi i E(ui) 0 Para que ˜α sea insesgado se tiene que cumplir E(˜α) = α. Dado que β es distinto de 0, entonces se debe cumplir i bi = 1 y i biXi = 0. d) i fi = i(bi − λi) = i bi − i λi = 1 − 1 = 0 i fiXi = i biXi − i λiXi = 0 − 0 = 0 12
  • 13. e) V ar(˜α) = V ar( i biYi) = i b2 i σ2 V ar(˜α) = σ2 i (λi + fi)2 = σ2 [ i (λi)2 + 2 i λifi 0 + i f2 i ] V ar(˜α) = σ2 i λ2 i V ar(ˆα) +σ2 i f2 i El primer término es la varianza del estimador MCO y el segundo término es algún número positivo. Por lo tanto: V ar(˜α) ≥ V ar(ˆα) 14. Dado el modelo de regresión y = Xβ + u con u ∼ (0, σ2 I) y K regresores, pruebe que E( ˆβ ˆβ) = β β + σ2 K k=1 1 λk donde λk es una raíz característica de X X. Respuesta: E( ˆβ ˆβ) = E[(β + (X X)−1 X u) (β + (X X)−1 X u)] E( ˆβ ˆβ) = E[β β + u X(X X)−1 β + β (X X)−1 X u + u X(X X)−1 (X X)−1 X u] E( ˆβ ˆβ) = E[β β] + E[u ] 0 X(X X)−1 β + β (X X)−1 X E[u] 0 +E[u X(X X)−1 (X X)−1 X u] E( ˆβ ˆβ) = β β + E[u X(X X)−1 (X X)−1 X u] La segunda parte del lado derecho de la ecuación anterior es una matriz de 1 × 1, por lo tanto es igual a su traza. E[u X(X X)−1 (X X)−1 X u] = E[tr(u X(X X)−1 (X X)−1 X u)] Usando las propiedades de la traza se llega facilmente a la solución. E[u X(X X)−1 (X X)−1 X u] = E[tr(X(X X)−1 (X X)−1 X uu )] E[u X(X X)−1 (X X)−1 X u] = tr(X(X X)−1 (X X)−1 X E[uu ] σ2I ) E[u X(X X)−1 (X X)−1 X u] = σ2 tr(X(X X)−1 (X X)−1 X ) E[u X(X X)−1 (X X)−1 X u] = σ2 tr((X X)−1 (X X)−1 X X I ) 13
  • 14. Dado que X X es una matríz simétrica, esta se puede descomponer espectralmente como CΛC donde C es la matriz con los vectores característicos correspondientes a las raices características de X X y Λ es una matriz diagonal con las raíces características de X X . Usando este hecho y las propiedades de la inversa de una matriz se obtiene: (X X)−1 = (CΛC )−1 (X X)−1 = (C )−1 Λ−1 C−1 = CΛ−1 C−1 donde Λ−1 =      1 λ1 0 · · · 0 0 1 λ2 · · · 0 ... ... ... ... 0 0 · · · 1 λK      Otra vez, usando las propiedades de la traza, tr(CΛ−1 C−1 ) = tr(Λ−1 C−1 C I ) = tr(Λ−1 ) En consecuencia la traza de Λ−1 es k 1 λk y por lo tanto: E( ˆβ ˆβ) = β β + σ2 tr(Λ−1 ) = β β + σ2 K k=1 1 λk 15. Conteste Verdadero o Falso y justique su respuesta. a) Las ecuaciones normales del modelo de regresión lineal múltiple implican que el vector de residuos MCO es ortogonal al vector de valores estimados ˆy. b) Si las variables que intervienen en un modelo de regresión simple están en des- viaciones con respecto a su propia media, entonces la línea de regresión estimada debe pasar a través del origen. Respuesta: a) Verdadero. Las ecuaciones normales del modelo de regresión lineal múltiple pueden escribirse como: −2X y + 2X X ˆβ = 0 X y − X X ˆβ = 0 X (y − X ˆβ) ˆu = 0 Se puede observar que las ecuaciones normales implican que la matriz de información X sea ortogonal al vector de residuos ˆu, y esto implica que el vector de residuos sea ortogonal al vector de valores estomados ˆy. (X ˆβ) ˆu = 0 ˆβ X ˆu 0 = 0 Esto último se da porque se asume que el vector ˆβ no puede ser 0. 14
  • 15. b) Verdadero. El modelo de regresión simple con variables en desviaciones con respecto a su propia media puede ser escrito como: ∀i : y∗ i = α + βx∗ i + ui, donde y∗ i y x∗ i son las variables en desviaciones con respecto a su media. Teniendo en cuenta que la media muestral de x∗ y y∗ son 0. Los estimadores MCO del modelo son simplemente: ˆβ = i x∗ i y∗ i i x∗2 i = i(xi − ¯x)(yi − ¯y) i(xi − ¯x)2 ˆα = y∗ − x∗ ˆβ = 0 − 0ˆβ = 0 Como el término de intercepto estimado es 0, entonces la recta de regresión estimada debe pasar a través del origen. 16. Suponga que un amigo que ignora sobre econometría básica le pide que estime un modelo de regresión de la forma yi = α + βxi + ui armando que los errores no están correlacionados y que además se distribuyen exponencialemente. Este le dice que aún cuando los errores no siguen una distribución normal, usted puede hacer las pruebas de hipótesis necesarias debido a que el tamaño de la muestra es 100000. a) ¾Qué supuesto no cumple para poder estimar el modelo por MCO? b) Muestre las consecuencias de estimar dicho modelo. (Compruebe si los estimadores son insesgados) Respuesta: a) No se puede estimar porque si los errores siguen una distribución exponencial, entonces los errores están restringidos a tomar valores positivos. Si todos los errores toman valores positivos entonces no se cumple el supuesto E(u) = 0. Formalmente, la distribución exponencial es: f(ui) = 1 λ e − ui λ donde E(ui) = λ y λ no puede ser 0. De lo contrario no sería una función de probabilidad válida. b) Los estimadores MCO son: ˆα = ¯y − ¯xˆβ ˆβ = β + i(xi − ¯x)ui i(xi − ¯x)2 Tomando el valor esperado de ˆβ : E(ˆβ) = β + i(xi − ¯x) i(xi − ¯x)2 E(ui) λ Dado que i(xi − ¯x) = 0, el estimador es insesgado. Al tomar el valor esperado del estimador ˆα: E(ˆα) = α + E[ i ui n ] = α + i E(ui) n = α + nλ n E(ˆα) = α + λ A pesar de que el estimador MCO de β es insesgado, el estimador del intercepto α es sesgado. 15
  • 16. 17. Para el modelo de regresión sin término constante yi = βxi +ui pruebe que el estimador ¯y ¯x es insesgado, y demuestre que la varianza es mayor que la del estimador MCO. Respuesta: E ¯y ¯x = 1 ¯x E i βxi + ui n E ¯y ¯x = 1 ¯x E i(βxi + ui) n E ¯y ¯x = 1 ¯x [β i xi n ¯x +E i ui n ] E ¯y ¯x = β + i E(ui) 0 ¯xn = β La varianza del estimador es: V ar ¯y ¯x = V ar i ui ¯xn = 1 ¯x2n2 V ar( i ui) V ar ¯y ¯x = 1 ¯x2n2 V ar( i ui) = σ2 n ¯x2n2 = σ2 ¯x2n La varianza del estimador MCO es: V ar(ˆβMCO) = σ2 i x2 i Al restar la varianza del estimador MCO de la varianza de ¯y ¯x : V ar ¯y ¯x − V ar(ˆβMCO) = σ2 ¯x2n − σ2 i x2 i = σ2 ( 1 ¯x2n − 1 i x2 i ) V ar ¯y ¯x − V ar(ˆβMCO) = σ2 ( i x2 i − n¯x2 n¯x2 i x2 i ) Se sabe que i(xi − ¯x)2 = i x2 i − n¯x2 . En consecuencia: V ar ¯y ¯x − V ar(ˆβMCO) = σ2 ( i(xi − ¯x)2 n¯x2 i x2 i ) La expresión dentro del paréntesis siempres erá positiva, por lo tanto la varianza del estimador ¯y ¯x es mayor que la del estimador MCO. 18. Reproduzca un razonamiento similar usado en la demostración del teorema de Gauss- Markov para probar el siguiente resultado: La combinación lineal c ˆβ, donde ˆβ es el estimador del MCO del parámetro β, es el estimador insesgado de mímima varianza para la combinación lineal c β. Respuesta: Basta con demostrar que la diferencia entre la covarianza de c ˜β y c ˆβ es mayor o igual a 0, donde ˜β es cualquier estimador lineal insesgado de β, distinto del estimador MCO. 16
  • 17. V ar(c ˜β) − V ar(c ˆβ) = c V ar( ˜β)c − c V ar( ˆβ)c V ar(c ˜β) − V ar(c ˆβ) = c (V ar( ˜β)c − V ar( ˆβ)c) V ar(c ˜β) − V ar(c ˆβ) = c [V ar( ˜β) − V ar( ˆβ)]c Por el teorema de Gauss-Markov sabemos que el estimador MCO de ˆβ es el de mínima varianza y por lo tanto la diferencia de las matrices de covarianzas es semidenida positiva. Llamemos a la diferencia V ar( ˜β) − V ar( ˆβ), Z. Entonces: V ar(c ˜β) − V ar(c ˆβ) = c [Z]c Dado que Z es semidenida positiva, existe una matriz no-singular B tal que: V ar(c ˜β) − V ar(c ˆβ) = c [B B]c V ar(c ˜β) − V ar(c ˆβ) = (Bc) (Bc) = w w = w 2 La norma de cualquier vector es mayor o igual a 0, por lo tanto la varianza de c ˆβ es menor o a lo mucho igual que la varianza de c ˜β. 19. Demuestre que el estimador MCO del vector β es independiente del estimador MCO del parámetro σ2 , sabiendo que el vector de errores se distribuye N(0, σ2 I). Respuesta: Podemos escribir ˆβ como: ˆβ = β + (X X)−1 X u y ˆσ2 como: ˆσ2 = u MXu n − k ˆβ solo depende de la parte aleatoria u a través de (X X)−1 X L u, y ˆσ2 solo depende de la parte aleatoria a través de u MXu = (MXu) MXu. Cov(Lu, MXu) = E(Luu MX) = LE(uu )MX Cov(Lu, MXu) = Lσ2 IMX = σ2 LMX O El producto matricial LMX da como resultado la matriz nula debido a que la matriz MX proyecta al complemento ortogonal del espacio columna de X. Dado que los dos vectores son independientes, entonces se puede concluir que los dos estimadores son independientes. 20. Considere el modelo de regresión múltiple y = Xβ + u, en donde u ∼ N(0, σ2 I) y X es determinística. a) Muestre que la condición X ˆu = 0 es una condición necesaria para obtener el estimador MCO para β. 17
  • 18. b) Dada la distribución del vector u demuestre que el estimador maximo verosímil ˜β coincide con ˆβ solo si la condición X ˆu = 0 se cumple. Respuesta: a) Las ecuaciones normales en forma matricial se pueden escribir como: −2X y + 2X X ˆβ = 0 X y − X X ˆβ = 0 X (y − X ˆβ) ˆu = 0 Por lo tanto, X ˆu = 0 es una condición necesaria para obtener el estimador MCO. b) Dado que u ∼ N(0, σ2 I), se puede escribir la función de máxima verosimilitud en forma matricial de la siguiente manera: L = i f(ui; β) = (2πσ2 )(−n/2) exp(−u u/(2σ2 )) ln L = − n 2 ln 2πσ2 − 1 2σ2 u u ln L = − n 2 ln 2πσ2 − 1 2σ2 (y−Xβ) (y−Xβ) = − n 2 ln 2πσ2 − 1 2σ2 (y y−β X y−y Xβ+β X Xβ) ∂ ln L ∂β = X y σ2 − X X ˜β σ2 = 0 X y − X X ˜β = 0 X (y − X ˜β) ˜u = 0 Por lo tanto, el estimador máximo verosimil y MCO de β solo coinciden cuando la condición X ˜u se cumplen. 21. En el modelo yi = α+βxi+ui con ui ∼ N(0, σ2 ), use las condiciones de segundo orden para demostrar que los estimadores máximo verosímiles de α, β y σ2 en realidad maximizan la función de máxima verosimilitud. Respuesta: Las primeras derivadas de la función de máxima verosimilitud son: ∂ ln L ∂α = 1 σ2 i (yi − α − βxi) ∂ ln L ∂β = 1 σ2 i (yi − α − βxi)xi ∂ ln L ∂σ2 = − n 2σ2 + 1 2(σ2)2 i (yi − α − βxi)2 Para probar la existencia de un máximo, es necesario plantear la matriz hessiana. Para esto nece- sitamos obtener las segundas derivadas parciales: 18
  • 19. ∂2 ln L ∂α2 = − n σ2 ∂2 ln L ∂β2 = − i x2 i σ2 ∂2 ln L ∂σ2 = n 2(σ2)2 − 1 (σ2)3 i (yi − α − βxi)2 ∂2 ln L ∂α∂β = − i xi σ2 ∂2 ln L ∂β∂σ2 = − 1 (σ2)2 i (yi − α − βxi)xi ∂2 ln L ∂α∂σ2 = − 1 σ2 i (yi − α − βxi) Planteando la matriz hessiana y reemplazando el valor de los estimadores, se observa que el deter- minante del primer menor es negativo, ya que el estimador de la varianza siempre será positivo.. H =    ∂2 ln L ∂α2 ∂2 ln L ∂α∂β ∂2 ln L ∂α∂σ2 ∂2 ln L ∂β∂α ∂2 ln L ∂β2 ∂2 ln L ∂β∂σ2 ∂2 ln L ∂σ2∂α ∂2 ln L ∂σ2∂β ∂2 ln L ∂σ2    =     − n ˆσ2 − i xi ˆσ2 − 1 ˆσ2 i(yi − ˆα − ˆβxi) − i xi ˆσ2 − i x2 i ˆσ2 − 1 ( ˆσ2)2 i(yi − ˆα − ˆβxi)xi − 1 ˆσ2 i(yi − ˆα − ˆβxi) − 1 ( ˆσ2)2 i(yi − ˆα − ˆβxi)xi n 2( ˆσ2)2 − 1 ( ˆσ2)3 i(yi − ˆα − ˆβxi)2     Note que una vez evaluados los estimadores en la matriz hessiana ∂2 ln L ∂α∂σ2 = ∂2 ln L ∂β∂σ2 = 0. H =     − n ˆσ2 − i xi ˆσ2 0 − i xi ˆσ2 − i x2 i ˆσ2 0 0 0 n 2( ˆσ2)2 − 1 ( ˆσ2)3 i( ˆui)2     El determinante del segundo menor es: − n ˆσ2 − i xi ˆσ2 − i xi ˆσ2 − i x2 i ˆσ2 = n i x2 i ( ˆσ2)2 − 1 ( ˆσ2)2 [ i xi]2 = n i x2 i − [ i xi]2 ( ˆσ2)2 − n ˆσ2 − i xi ˆσ2 − i xi ˆσ2 − i x2 i ˆσ2 = n( i x2 i − n¯x2 ) ( ˆσ2)2 = n i(xi − ¯x)2 ( ˆσ2)2 Ya que el numerador siempre será positivo y el estimador de la varianza también, entonces el determinante del segundo menor es positivo. Solo falta probar que el determinante de la matriz hessiana es negativo. H = − n ˆσ2 − i x2 i ˆσ2 n 2( ˆσ2)2 − 1 ( ˆσ2)3 i ( ˆui)2 + i xi ˆσ2 − i xi ˆσ2 n 2( ˆσ2)2 − 1 ( ˆσ2)3 i ( ˆui)2 19
  • 20. H = n 2( ˆσ2)3 − 1 ( ˆσ2)4 i ( ˆui)2 n i x2 i − [ i xi]2 ) = − n2 i(xi − ¯x)2 2( ˆσ2)3 Facilmente se puede observar que este último término es negativo. Por lo tanto, la matriz hessiana es denida negativa y en consecuencia los estimadores de α, β y σ2 maximizan la función de verosimilitud. 22. Probar que en el modelo de regresión yt = α + βxt + ut el contraste de hipótesis nula Ho : β = β0 puede llevarse a cabo mediante un estadístico F. Respuesta: Un estadístico t con n grados de libetad, elevado al cuadrado sigue una distribución chi-cuadrado con 1 grado de libertad en el numerador y n grados de libertad en el denominador. t2 β0 = ˆβ − β0 ˆσ2/ (xi − ¯x)2 2 t2 β0 = (ˆβ − β0)2 (xi − ¯x)2 ˆσ2 = (ˆβ − β0)2 (xi − ¯x)2 [ ˆu2 i ]/(n − 2) Si se multiplica la ecuación por σ2 /σ2 entonces podemos observar que el numerador se distribuye chi-cuadrado con 1 grado de libertad. (ˆβ − β0)2 (xi − ¯x)2 σ2 ∼ χ2 (1) porque es simplemente una normal estandar elevada al cuadrado. Y [ ˆu2 i ]/σ2 = (n − 2) ˆσ2/σ2 ∼ χ2 (n−2) 2 Por lo tanto se tiene en el numerador una función de variable aleatoria que se distribuye χ2 (1) y en el denominador una función de variable aleatoria que se distribuye χ2 (n−2) dividida para n − 2. Dado esto, se tiene la forma del estadístico F. Esta sobreentendido que el numerador esta dividido para 1, es decir los grados de libertad. t2 β0 = (ˆβ − β0)2 (xi − ¯x)2 [ ˆu2 i ]/(n − 2) = F(1,n−2) 23. Conteste brevemente: a) Suponga el siguiente modelo de regresión yi = eβ1+β2xi 1 + eβ1+β2xi ¾Tal como se presenta es un modelo de regresión lineal? Si no es así, ¾Qué truco usaría para convertirlo en un modelo de regresión lineal? Imponga restricciones en la variable dependiente para que el modelo sea estimable. b) Suponga que los ingresos anuales y el consumo de alcohol están determinados por el sistema de ecuaciones simultáneas: log(earnings) = β0 + β1alcohol + β2educ + u1 2La demostración se presentará más adelante en otro ejercicio. 20
  • 21. alcohol = γ0 + γ1log(earnings) + γ2educ + γ3log(price) + u2 donde price es un índice local de precios del alcohol, que incluye los impuestos estatales y locales. Suponga que educ y price son exógenos. Si β1, β2, γ1, γ2 y γ3 dieren todos de cero, ¾Qué ecuación está identicada?¾Cómo se podría estimar la ecuación? Respuesta: a) Multiplicando ambos lados de la ecuación por 1 + eβ1+β2xi y resolviendo se obtiene: yi + yieβ1+β2xi = eβ1+β2xi yi = eβ1+β2xi − yieβ1+β2xi yi = eβ1+β2xi (1 − yi) yi (1 − yi) = eβ1+β2xi Aplicando logaritmo natural a ambos lados: ln yi (1 − yi) = β1 + β2xi Por lo que el modelo sería de la forma: ln zi = β1 + β2xi + ui donde zi = yi (1−yi) . La variable dependiente está restringida a ciertos valores. ∀i : 0 yi 1 Si yi = 1, entonces zi tiende a innito. Si 1 yi ≤ 0 entonces ln zi no está denido. b) La ecuación identicada es log(earnings) = β0 + β1alcohol + β2educ + u1 puesto que log(price) está excluida y aparece en la otra ecuación. log(price) sirve como instru- mento para alcohol. La ecuación se estima usando mínimos cuadrados en dos estapas. Primero regresando alcohol sobre educ y log(price), y luego regresando log(earnings) sobre ˆalcohol y educ. 24. Demuestre que bajo los supuestos clásicos, en el modelo yi = β0 + β1xi + ui, (n−2) ˆσ2 σ2 = i ˆui 2 σ2 ∼ χ(n−2) . Respuesta: Se puede escribir i ˆui 2 como u MXu, donde MX = I − PX = I − X(X X)−1 X . Dada la idempotencia de MX, u MXu σ2 = MX = (MX ) (MX ) donde = u σ ∼ N(0, I). 21
  • 22. Por lo tanto u Mxu σ2 se distribuye chi-cuadrado con grados de libertad igual al rango de MX. Para calcular el rango de la matriz MX se usa la propiedad de la traza y las propiedades de las matrices idempotentes. El rango de una matriz simétrica e idempotente es igual a su traza. rank(MX) = tr(MX) = tr(I − X(X X)−1 X ) = tr(I) n −tr(X(X X)−1 X ) Si se usa la propiedad de la traza entonces tr(X(X X)−1 X ) = tr((X X)−1 X X) = tr(I), donde esta nueva matriz identidad es de tamaño k × k. rank(MX) = n − tr(I) = n − k Para este caso el número de regresores es 2, por lo tanto el rango de MX es 2. 25. Escoja una respuesta para cada uno de los siguientes literales (justicando su respues- ta): a) Cuál de las siguientes opciones contiene solamente condiciones necesarias para que el estimador MCO ˆβ sea un estimador insesgado para el parámetro β en el modelo de regresión múltiple y = Xβ + u con k regresores: 1) E[u u] = σ2 I y rank(X) = k 2) u ∼ N(0, σ2 I) 3) E[u] = 0 y rank(X) = k 4) Ninguna de las anteriores. b) Cuál de las siguientes condiciones debe cumplir el estimador MCO ˆβ en el modelo de regresión múltiple y = Xβ + u para garantizar que sea MELI(Mejor Estimador Linealmente Insesgado): 1) E[ ˆβ] = β y V ar[ ˆβ] = σ2 (X X)−1 2) Cov( ˆβ, ˆu) = 0 3) ˆβ debe ser consistente. 4) Ninguna de las anteriores. Respuesta: a) iii. E[u] = 0 y rank(X) = k En el momento de obtener el valor esperado de ˆβ la única condición necesaria para la insesgadez es que el valor esperado de u sea 0. La condición de rango completo asegura que solo haya un estimador que minimice la suma de los cuadrados de los errores. E[ ˆβ] = β + (X X)−1 X E[u] 0 b) i. E[ ˆβ] = β y V ar[ ˆβ] = σ2 (X X)−1 La primera condición asegura que el estimador sea insesgado. La segunda condición asegura que el estimador sea el de mínima varianza, como se prueba con el teorema de Gauss-Markov. 26. Conteste Verdadero o Falso y justique su respuesta. a) El R2 ajustado no puede disminuir si se aumenta una variable en la regresión. b) Para testear la presencia de un cambio estructural en el modelo lineal, la única alternativa es recurrir al test de Chow. Respuesta: a) Falso. Si el poder explicativo del modelo es muy bajo al incluir un regresor más, entonces el R2 ajustado disminuirá, incluso puede llegar a ser negativo. Precisamente por esto, se lo considera más able que el R2 sin ajustar. 22
  • 23. b) Falso. Hay varias alternativas para testear la presencia de un cambio estructural por ejemplo el test de Hansen. Un inconveniente del test de Chow es la arbitrariedad al escoger el punto donde se sospecha que hubo un cambio estructural. 27. Una regresión usando datos trimestrales desde 1958 hasta 1976 inclusive, dió la si- guiente ecuación estimada: ˆy = 2,20 + 0,10x2 − 3,48x3 + 0,34x4 La suma explicada de los cuadrados fué 109.6, y la suma de residuos al cuadrado, 18.48. Cuando la ecuación fué reestimada con tres dummies estacionales añadidas a la especicación, la suma explicada al cuadrado aumentó a 114.8. Dos regresiones adicionales basadas en la especicación original se corrieron para los subperiodos 1958:1 a 1968:4 y 1969:1 a 1976:4, dando las sumas de los residuos al cuadrado 9.32 y 7.46, respectivamente. Se pide: a) Hallar el valor del estadístico de prueba para testear la presencia de estacionalidad. b) Hallar el valor del estadísico de prueba para testear la constancia en la relación estimada sobre los dos subperiodos. Respuesta: a) Para testear la presencia de estacionalidad es necesario plantear la siguiente prueba de hipó- tesis: H0 : y = β1 + β2x2 + β3x3 + β4x4 + u (3) H1 : y = β1 + β2x2 + β3x3 + β4x4 + β5x5 + β6x6 + β7x7 + u, (4) donde x5, x6 y x7 representan las variables dummies estacionales. Tal y como se vió en clases para relaizar una prueba de hipótesis sobre varias restricciones(en este caso, 3) en los parámetros se plantea el estadístico F: F = (RSSR − USSR)/r USSR/(n − k) , donde RSSR es la suma de los residuos al cuadrado del modelo restringido (3), y USSR es la suma de los residuos al cuadrado del modelo sin restringir (4). r es el número de restriciones y n − k son los grados de libertad del modelo sin restringir. La suma de los cuadrados totales es la misma en ambas ecuaciones puesto que y no ha cam- biado. A partir de esto podemos hallar la suma de los residuos al cuadrado del modelo sin restringir que es el dato que falta para calcular F. RTSS = RESS + RSSR = 109,6 + 18,48 = 128,08 USSR = UTSS RT SS −UESS = 128,08 − 114,8 = 13,28 El número de restricciones es 3 y los grados de libertad son 76 − 7 = 69, por lo tanto el estadístico F es: F = (18,48 − 13,28)/3 13,28/69 = 9,006 23
  • 24. b) Para testear la presencia de un quiebre estructural se usa el test de Chow para lo cuál se calcula el estadístico F como sigue: F = (RSSR − SSR1 − SSR2)/k (SSR1 + SSR2)/(n − 2k) , donde RSSR es la suma de los residuos al cuadrado del modelo original, SSR1 es la suma de los residuos al cuadrados de la regresión para el primer periodo y SSR2 es la suma de los residuos al cuadrado de la regresión para el segundo periodo. F = (18,48 − 9,32 − 7,46)/4 (9,32 + 7,46)/(76 − 8) = 1,722 28. Escribiendo las sumas residuales del modelo restringido y = X1β1 + u y sin restringir y = X1β1 + X2β2 + u como y M1y y y My respectivamente, probar que y (M1 − M)y = ˆuR ˆuR − ˆu ˆu y que en consecuencia, el estadístico y (M1−M)y/J y My/(n−k−1) sigue la distribución FJ n−k−1. Respuesta: y (M1 − M)y = y (M1y − My) = y M1y − y My y (M1 − M)y = (M1y) M1y − (My) My = ˆuR ˆuR − ˆu ˆu Se sabe que: ˆuR ˆuR − ˆu ˆu = (D ˆβ − r) [D(X X)−1 D ]−1 (D ˆβ − r) Por lo tanto si se divide para σ2 , el estadístico ˆuR ˆuR−ˆu ˆu σ2 se distribuye χ2 J . El estimador de la varianza del error dividido para σ2 se distribuye χ2 n−k−1. Como consecuencia de esto: y (M1 − M)y/J y My/(n − k − 1) ∼ FJ n−k−1 29. Para el modelo y = Xβ + u, donde la matriz E[u u] = σ2 I es conocida, derive un estadístico de prueba para la hipótesis conjunta: H0 : β1 = β2 = ... = βk = 0 Respuesta: En general, si un vector aleatorio z de tamaño n × 1 está normalmente distribuido con media 0 y matriz de covarianzas Σ, entonces la forma cuadrática z Σ−1 z se distribute χ2 n. Dados los supuestos, clásicos el vector ˆβ−β ∼ N(0, σ2 (X X)−1 ) y por lo tanto la forma cuadrática ( ˆβ − β) [σ2 (X X)−1 ]−1 ( ˆβ − β) = ( ˆβ − β) (X X)( ˆβ − β)/σ2 ∼ χ2 k es un buen estadístico de prueba para testear H0 : β1 = β2 = ... = βk = 0. 30. Suponga que el proceso generador de datos en un modelo de regresión es: yt = α + βxt + ut (5) donde el término de error cumple los supuestos clásicos y ∀t : xt es determinística. Sin embargo se estimó por error el modelo: yt = µ + ut (6) 24
  • 25. a) ¾Cuál es el estimador MCO de µ? b) ¾Es el estimador MCO de µ insesgado para α? Explique. c) ¾La suma de los residuos de la regresión (6) será igual a 0? d) Suponga que se quiere predecir yT +1, y para esto se usa la estimación por MCO de (6): ˆyT +1 = ˆµ ¾Es esta predicción insesgada? (Es decir E(ˆyT +1 − yT +1) = 0) e) ¾Es posible que la varianza de la predicción usando los estimadores MCO del verdadero modelo (5) sea mayor que la varianza de la predicción usando el(los) estimador(es) del modelo mal especicado (6)? (Recuerde que se asume que en las dos situaciones el verdadero proceso generador de datos es (5)) Respuesta: a) Si se usa la forma general del estimador MCO ˆβ = (X X)−1 X y, donde en este caso X es un vector de 1s, se tiene que el estimador de µ es: ˆµ = ( t 1)−1 t yt = t yt n = ¯y b) Para saber si es insesgado para α, se reemplaza yt por el verdadero proceso generador de datos. ˆµ = t yt n = t(α + βxt + ut) n ˆµ = nα + β t xt + t ut) n = α + β¯x + ¯u Al tomar el valor esperado: E(ˆµ) = E(α + β¯x + ¯u) = α + β¯x + E(¯u) 0 E(ˆµ) = α + β¯x En consecuencia el estimador ˆµ no es insesgado para α. c) Si. Esto siempre se cumple para cualquier regresión lineal que incluya una constante, sin importar que el modelo este mal especicado. t (yt − ˆµ) = t (yt − ¯y) = n¯y − n¯y = 0 d) Se sabe que ˆµ = α + β¯x + ¯u. Por otro lado la realización yT +1 es igual a α + βxT +1 + uT +1. El error de predicción está dado por: ˆyT +1 − yT +1 = α + β¯x + ¯u − (α + βxT +1 + uT +1) ˆyT +1 − yT +1 = β(¯x − xT +1) + ¯u − uT +1 Al tomar el valor esperado se obtiene: E(ˆyT +1 − yT +1) = E(β(¯x − xT +1) + ¯u − uT +1) = β(¯x − xT +1) + E(¯u) 0 − E(uT +1) 0 Como se puede observar, la predicción es insesgada si y solo si β = 0 o ¯x = xT +1, pero en general la predicción es sesgada. Note que si β = 0 entonces el modelo (6) está bien especicado. 25
  • 26. e) Suponga que primero se ajusta el modelo usando (5). La predicción de yT +1 será: ˆyT +1 = ˆα + ˆβxT +1 mientras que el verdadero valor de yT +1 será: yT +1 = α + βxT +1 + uT +1 La varianza del error de predicción es: V ar(ˆyT +1 − yT +1) = V ar(ˆα + ˆβxT +1 − α − βxT +1 − uT +1) V ar(ˆyT +1 − yT +1) = σ2 1 + 1 T + xT +1 − ¯x t(xt − ¯x)2 (7) Ahora considere el caso en el que el modelo está mal especicado. Como se demostró anterior- mente el error de predicción viene dado por: ˆyT +1 − yT +1 = β(¯x − xT +1) + ¯u − uT +1 mientras que su varianza está dada por: V ar[ˆyT +1 − yT +1] = V ar[β(¯x − xT +1) + ¯u − uT +1] Dado que los errores no están correlacionados la expresión anterior se simplica a: V ar[ˆyT +1 − yT +1] = V ar[¯u] + V ar[uT +1] V ar[ˆyT +1 − yT +1] = σ2 T + σ2 = σ2 (1 + 1 T ) (8) Comparando (7) y (8) se puede ver que mientras xT +1 ¯x, la varianza de la predicción del modelo mal especicado será menor que la del verdadero modelo.3 31. Considere la regresión por mínimos cuadrados de y sobre k variables (una constante) X. Considere otro conjunto de regresores Z = XA, donde A es una matriz no singular. Entonces cada columna de Z es una combinación lineal de las columnas de X. Pruebe que el vector de residuos de la regresión de y sobre Z y y sobre X, coinciden. ¾Qué relevancia tiene esto al momento de cambiar las unidades de medida en las variables independientes? Respuesta: Se sabe que la matriz de proyección al espacio columna de X es PX = X(X X)−1 X . La matriz de proyección al espacio columna de Z es: PZ = Z(Z Z)−1 Z = XA(A X XA)−1 A X Usando las propiedades de la inversa de una matriz: PZ = X AA−1 I (X X)−1 (A )−1 A I X PZ = X(X X)−1 X = PX Esto se debe a que el subespacio generado por las columnas de X es idéntico al subespacio generado por las columnas de Z. Esto resulta bastante obvio, ya que cada columna de Z es una combinación 3El hecho de que a veces la varianza de la predicción usando estimadores de un modelo subespecicado, sea menor que la varianza de la predicción usando los estimadores del verdadero proceso generador de datos, se conoce en la literatura como paradoja de Stein. 26
  • 27. lineal de las columnas de X. Si PZ = PX entonces MZ = MX, así el vector de residuos MZy será igual a MXy. La importancia de esto es que al cambiar la unidad de medida de las variables explicativas no se altera la predicción ni los residuos,a pesar de que el estimador ˆβ si cambia. 32. En el modelo yt = α+βxt +µt, con E(ut) = 0, E(u2 t ) = σ2 t , E(µtµs) = 0, obtener la expresión analítica de los estimadores ˆαMCG y ˆβMCG, y particularizarlas a los casos: a) σ2 t = σ2 para todo t b) σ2 t = kxt, k dado. Respuesta: min α, β s = t 1 σ2 t (yt − α − xtβ)2 Las condiciones de primer orden son: ∂s ∂α = t − 2 σ2 t (yt − ˆα − xt ˆβ) = 0 ∂s ∂β = t − 2xt σ2 t (yt − ˆα − xt ˆβ) = 0 Despejando ˆα de la primera ecuación se obtiene: ˆα = t yt σ2 t − ˆβ t xt σ2 t t 1 σ2 t Reemplazando ˆα en la segunda ecuación y despejando ˆβ se obtiene: ˆβ = t 1 σ2 t t xtyt σ2 t − t yt σ2 t t xt σ2 t t x2 t σ2 t t 1 σ2 t − t xt σ2 t 2 a) Si se reemplaza σ2 t por σ2 , se obtiene el estimador MCO. ˆβ = n σ4 t xtyt − 1 σ4 t yt t xt n σ4 t x2 t − 1 σ4 t xt 2 ˆβ = t xtyt − n¯x¯y t x2 t − n¯x2 = t(xt − ¯x)(yt − ¯y) t(xt − ¯x)2 El estimador ˆα una vez que se rremplaza ˆβ y σ2 es el estimador MCO: ˆα = 1 σ2 t yt − 1 σ2 ˆβ t xt 1 σ2 n = t yt n − ˆβ t xt n ˆα = ¯y − ˆβ¯x b) Si σ2 t = kxt, entonces: ˆβ = 1 k2 t 1 xt t xtyt xt − 1 k2 t yt xt t xt xt 1 k2 t x2 t xt t 1 xt − 1 k2 t xt xt 2 27
  • 28. ˆβ = t 1 xt t yt − n t yt xt t xt t 1 xt − n2 ˆβ = n¯y t 1 xt − n t yt xt n¯x t 1 xt − n2 ˆβ = ¯y t 1 xt − t yt xt ¯x t 1 xt − n Al reemplazar ˆβ en ˆα, y kxt en σ2 t se obtiene: ˆα = t yt kxt − ¯y t 1 xt − t yt xt ¯x t 1 xt −n t xt kxt t 1 kxt ˆα = t yt xt − ¯y t 1 xt − t yt xt ¯x t 1 xt −n n t 1 xt ˆα = (¯x t 1 xt −n) t yt xt −n¯y t 1 xt +n t yt xt ¯x t 1 xt −n t 1 xt ˆα = ¯x t 1 xt t yt xt −n t yt xt −n¯y t 1 xt +n t yt xt ¯x t 1 xt −n t 1 xt ˆα = t 1 xt (¯x t yt xt −n¯y) ¯x t 1 xt −n t 1 xt = ¯x t yt xt − n¯y ¯x t 1 xt − n 33. ¾Cuál de los siguientes casos puede provocar sesgo en los estimadores MCO? Justique su respuesta (Si o no, y por qué). a) Heteroscedasticidad. b) Omitir una variable relevante. c) Un coeciente de correlación muestral de 0.95 entre 2 variables independientes incluidas en el modelo. Respuesta: a) No. E( ˆβ) = β + (X X)−1 X E(u) Dado que u ∼ (0, σ2 I), entonces ˆβ es insesgado: E( ˆβ) = β b) Si. Suponga que el verdadero proceso generador de datos es: y = X1β1 + x2β2 + u y en su lugar se estima el modelo: y = X1β1 + u El valor esperado del estimador MCO será: 28
  • 29. E( ˆβ1) = E[(X1X1)−1 X1y] E( ˆβ1) = E[(X1X1)−1 X1X1β1] β1 +E[(X1X1)−1 X1x2β2] + E[(X1X1)−1 X1u] 0 E( ˆβ1) = β1 + (X1X1)−1 X1x2β2 Por lo tanto el estimador MCO es sesgado. c) No. Un coeciente de correlación muestral alto entre las variables explicativas solo eleva la varianza del estimador MCO. 34. Sea el modelo yt = βxt + ut, con ut ∼ NID(0, σ2 t ), donde σ2 t = σ2 t, y t = 1, 2, ...., T. a) Demuestre que el estimador MCO es insesgado y que su varianza está dada por: V ar(ˆβMCO) = σ2 t x2 t t ( t x2 t )2 b) Obtenga el estimador de MCG. c) Muestre que la varianza del estimador de MCG es: V ar(ˆβMCG) = σ2 t x2 t t Respuesta: a) El estimador MCO cuando no hay intercepto es: ˆβ = t ytxt t x2 t = β t x2 t + t utxt t x2 t = β + t utxt t x2 t Y su valor esperado: E(ˆβ) = β + 1 t x2 t t xtE(ut) 0 En consecuencia el estimador MCO es insesgado. Si se supone que los errores no están correlacionados entonces la varianza del estimador MCO esta dada por: V ar(ˆβ) = 1 ( t x2 t )2 t x2 t V ar(ut) = 1 ( t x2 t )2 t x2 t σ2 t V ar(ˆβ) = σ2 ( t x2 t )2 t x2 t t b) Para obetener el estimador de MCG se minimiza la suma de los residuos al cuadrado, pero esta vez ponderada por la inversa de la parte variable de la varianza de ut. min β s = t 1 t (yt − xtβ)2 La condición de primer orden es: 29
  • 30. ∂s ∂ ˆβ = −2 t ytxt t + 2ˆβ t x2 t t = 0 Resolviendo se obtiene el estimador MCG de β. ˆβ t x2 t t = t ytxt t ˆβMCG = t ytxt t t x2 t t c) El estimador ˆβMCG puede escribirse como: ˆβMCG = t (xtβ+ut)xt t t x2 t t = t x2 t β+utxt t t x2 t t ˆβMCG = β t x2 t t + t utxt t t x2 t t = β + t utxt t t x2 t t Como los errores no están correlacionados la varianza del estimador puede escribirse como: V ar(ˆβMCG) = 1 t x2 t t 2 t x2 t t2 V ar(ut) = σ2 t x2 t t 2 t x2 t t t2 V ar(ˆβMCG) = σ2 t x2 t t 35. Considere el siguiente modelo de regresión simple: y = α + βx + u y sea z una variable instrumental binaria para x. Utilizar ˆβ = i(yi−¯y)(zi−¯z) i(xi−¯x)(zi−¯z) para de- mostrar que el estimador de variables instrumentales(IV) puede escribirse como: ˆβIV = ¯y1 − ¯y0 ¯x1 − ¯x0 donde ¯y0 y ¯x0 son las medias muestrales de yi y xi para aquellas observaciones con zi = 0, y donde ¯y1 y ¯x1 son las medias muestrales de yi y xi para aquellas observaciones con zi = 1. Este estimador, conocido como estimador de grupo fue propuesto por primera vez por Wald(1940). Respuesta: Suponga que existen k observaciones con zi = 1, por lo tanto el número de observaciones con zi = 0 es n − k. La medias muestrales para las observaciones con zi = 1 son ¯y1 = i yizi k y ¯x1 = i xizi k , mientras que para zi = 0 son ¯y0 = i yi(1−zi) n−k y ¯x0 = i xi(1−zi) n−k . Entonces el estimador por grupos sugerido por Wald es: ˆβIV = i yizi k − i yi(1−zi) n−k i xizi k − i xi(1−zi) n−k ˆβIV = (n−k) i yizi−k i yi(1−zi) k(n−k) (n−k) i xizi−k i xi(1−zi) k(n−k) 30
  • 31. ˆβIV = (n − k) i yizi − k i yi(1 − zi) (n − k) i xizi − k i xi(1 − zi) ˆβIV = n i yizi − k i yizi − k i yi + k i yizi n i xizi − k i xizi − k i xi + k i xizi ˆβIV = n i yizi − k i yi n i xizi − k i xi Multiplicando por n n se obtiene: ˆβIV = i yizi − k¯y i xizi − k¯x = i yizi − ¯y i zi i xizi − ¯x i zi ˆβIV = i(yi − ¯y)zi i(xi − ¯x)zi = i(yi − ¯y)(zi − ¯z) i(xi − ¯x)(zi − ¯z) 36. Dado el modelo de regresión yt = µ + t, donde E( t) = 0, V ar( t) = σ2 xt, con xt 0: a) ¾Cuál es el estimador lineal más eciente del parámetro µ? ¾Cuál es su varianza? b) ¾Cuál es el estimador MCO de µ y cuál es su varianza? Respuesta: a) El estimador lineal más eciente es el estimador de mínimos cuadrados generalizados MCG: min µ s = t 1 xt (yt − µ)2 Al derivar y obtener la condición d eprimer orden se tiene que: ∂s ∂ˆµ = −2 t yt xt + 2ˆµ t 1 xt = 0 Despejando ˆµ se obtiene: ˆµ t 1 xt = t yt xt ˆµ = t yt xt t 1 xt La varianza del estimador MCG de µ es: V ar(ˆµ) = V ar( t µ+ t xt t 1 xt ) = V ar( t µ xt + t t xt t 1 xt ) V ar(ˆµ) = V ar( t µ xt t 1 xt + t t xt t 1 xt ) = V ar( µ t 1 xt t 1 xt + t t xt t 1 xt ) V ar(ˆµ) = V ar(µ + t t xt t 1 xt ) = 1 [ t 1 xt ]2 V ar( t t xt ) Bajo el supuesto de independencia de los errores, las covarianza entre los errores de todas las observaciones son 0. V ar(ˆµ) = 1 [ t 1 xt ]2 t V ar[ t xt ] = 1 [ t 1 xt ]2 t σ2 xt x2 t V ar(ˆµ) = σ2 t 1 xt [ t 1 xt ]2 = σ2 t 1 xt 31
  • 32. b) Tal y como se ha visto en clase, el estimador MCO de µ es: ˆµ = ¯y = t yt n ˆµ = t µ + t t n = t µ n + t t n ˆµ = µ + t t n Y su varianza es: V ar(ˆµ) = 1 n2 t V ar( t) = σ2 n2 t xt 37. Dado el modelo lineal sin término constante y un solo regresor: yi = βxi + ui Donde E(ui) = 0, E(u2 i ) = σ2 i suponiendo que las varianzas cambian con el esquema σ2 i = σ2 zi donde zi es una variable conocida. a) Obtenga la expresión analítica para el estimador MCG, así como su varianza. b) Utilice la desigualdad de Cauchy-Scwarthz para comparar la varianza del estima- dor obtenido en el literal anterior con el estimador MCO. c) ¾Qué ocurriría si a pesar de la heteroscedasticidad se utilizase σ2 (X X)−1 como matriz de varianza-covarianza para el estimador MCO. Nota: La desigualdad de Cauchy-Schwarz garantiza que para dos variables cualquiera se cumple la expresión: [ i viwi]2 ≤ [ i v2 i ][ i w2 i ]. Respuesta: a) Si la matriz de varianzas-covarianzas de u es Ω, entonces el estimador MCG de β expresado en forma matricial es: ˆβMCG = (x Ω−1 x)−1 x Ω−1 y y su varianza: V ar(ˆβMCG) = σ2 (x Ω−1 x)−1 Teniendo en cuenta que Ω =         z1 0 0 · · · 0 0 z2 0 · · · 0 0 0 ... · · · 0 ... ... ... zn−1 ... 0 0 0 0 zn         el estimador MCG es: ˆβMCG = i xiyi zi i x2 i zi y su varianza: V ar(ˆβMCG) = σ2 i x2 i zi 32
  • 33. b) Usando la desigualdad de Cauchy-Schwarz [ i viwi]2 ≤ [ i v2 i ][ i w2 i ], donde vi = xi√ zi y wi = xi √ zi. [ i xi √ zi xi √ zi]2 ≤ [ i x2 i zi ][ i x2 i zi] [ i x2 i ]2 ≤ [ i x2 i zi ][ i x2 i zi] Al manipular la desigualdad se obtiene: 1 i x2 i zi ≤ i x2 i zi [ i x2 i ]2 Si se multiplica ambos lados de la inecuación por σ2 entonces: σ2 i x2 i zi ≤ σ2 i x2 i zi [ i x2 i ]2 var(ˆβMCG) ≤ V ar(ˆβMCO) 38. Considere un modelo simple para estimar el efecto de tener un computador personal (PC) sobre el promedio de calicaciones de los estudiantes de una universidad pública: GPA = β0 + β1PC + u Responda lo siguiente: a) ¾Por qué debería estar correlacionada PC con el error u? b) Explicar por qué PC debe de estar correlacionada con el nivel de renta de los padres. ¾Es suciente esto para concluir que el nivel de renta de los padres es una buena variable instrumental para PC? Justique su respuesta. c) Supongamos que hace 4 años, la universidad concedió becas para comprar compu- tadoras a aproximadamente la mitad de sus estudiantes que recién ingresan y que, además los alumnos que las recibieron fueron elegidos al azar. Explique como podría utilizar esta información para construir una variable instraumental para PC. Respuesta: a) Porque hay otros factores en el error que posiblemente inuyan sobre el promedio de calica- ciones y esten correlacionados con PC. Un ejemplo es el gasto en educación de los estudiantes que realizan sus padres. Esta variable está claramente correlacionada con PC. b) PC está correlacionada con el nivel de renta de los padres porque es más probable que los estudiantes con padres de mayores ingresos tengan computadoras y los de menos ingresos no. Esto no es suciente para concluir que el nivel de renta de los padres es una buena variable instrumental ya que el nivel de ingresos de los padres puede estar correlacionado con el error. Por ejemplo está correlacionado con el gasto en educación. c) Se puede usar una variable dummy que indique 1 si el estudiante recibió beca y 0 en caso contrario. Esta variable está claramente correlacionada con PC y dado que los estudiantes que recibieron las becas fueron escogidos al azar(la variable es exógena en el modelo), entonces no está correlacionada con el error. 33
  • 34. 39. Supongamos que queremos contrastar si las chicas que asisten a institutos femeninos de educación secundaria son mejores en matemáticas que las chicas que van a institutos mixtos. Se dispone de una muestra aleatoria de adolescentes femeninas que estudian los últimos años de la secundaria en un estado de Estados Unidos, y score es la calicación en un determinado examen de matemáticas. Sea girlhs una variable cticia que indica si una estudiante asiste a instituto femenino, conteste: a) ¾Qué otras variables se podrían incluir en la ecuación? (Debe ser posible recopilar datos sobre estas variables.) b) Escribir una ecuación que relacione score con girlhs y las otras variables indicadas en el apartado (a). c) Supongamos que el apoyo y la motivación que ofrecen los padres son factores no observables que se encuentran en el término de error del apartado (b). ¾Es probable que éstos estén correlacionados con girlhs? Explicar por qué. d) Discutir los supuestos necesarios para que el número de institutos femeninos en un radio de veinte millas de la casa de las estudiantes sea una variable instrumental válida para girlhs. Respuesta: a) Se puede incluir el ingreso familiar, ya que se esperaría que quienes tienen padres con me- jores ingresos rindan mejor en los estudios. Se puede incluir una variable proxy del nivel de inteligencia como el IQ. Otra variable importante que se debería incluir son las horas que la estudiante dedica a estudiar matemáticas. b) score = α + β1girlhs + β2ing + β3IQ + β4time + u donde: girlhs =variable cticia que indica si una estudiante asiste a instituto femenino. ing =ingreso familiar. IQ =nivel de IQ. time =tiempo que la estudiante dedica a estudiar matemáticas medido en horas promedio semanales. score =calicación en el examen de matemáticas. c) Si es probable que esté correlacionado porque los padres que ofrecen menos apoyo y motivación tienden a enviar a sus hijas a instututos femeninos. Note que también se puede argumentar lo contrario. Más alla de la justicación lo que se busca es encontrar un sustento teórico que permita hacer suspuestos sobre un modelo de regresión, en especial aquellos supuestos que no se pueden testear. d) Para que sea una variable instrumental válida debe estar correlacionada con la variable girlhs. Obviamente las dos variables están correlacionadas. Mientras haya más institutos femeninos en un radio de veinte millas de la casa, es más probable que los padres decidas que sus hijas deben estudiar en institutos femeninos. La otra condición necesaria es que esta variable no debe estar correlacionada con el error. En el error se encuentran factores no observables como el apoyo y motivación que los padres ofrecen a sus hijas. Estos factores no tienen relación alguna con el número de institutos femeninos que hay cerca de la casa. En resumen, dicha variable cumple con las dos condiciones que hacen que sea una variable instrumemntal válida. Sea num el número de institutos femeninos en un radio de veinte millas de las casas de los estudiantes. Entonces: Cov(num, girhs) = 0 Cov(num, u) = 0 34
  • 35. 40. Comente las siguientes armaciones: a) Si los errores en una regresión simple no se distribuyen de forma normal, los estimadores MCO dejan de ser los Mejores Estimadores Lineales (MELI), pero siguen siendo insesgados. b) Se desea realizar un estudio que tenga como variable dependiente al ahorro agre- gado para explicarlo por medio de las tasas de interés, en una economía. Un investigador aún no dene los años de análisis para el estudio. Para procurar que las estimaciones de mínimos cuadrados ordinarias sean más precisas, ¾el investiga- dor debe escoger un periodo en el cual las tasas de interés hayan uctuado mucho o es preferible poca uctuación? c) Un investigador plantea una regresión con datos anuales, desde 1981 hasta 1999, sobre los niveles de consumo agregados explicados por los ingresos, en cierta eco- nomía. Analiza la siguiente relación: consumo = α + βingreso + ut Adicionalmente conoce que el coeciente de correlación entre las variables consumo e ingreso es igual a 0,7. Al 95 % de conanza es signicativo el coeciente de la pendiente que se estima? Respuesta: a) Falso. Aún cuando los errores no se distribuyan normal, los estimadores MCO siguen siendo los mejores estimadores linealmente insesgados. El teorema de Gauss-Markov solo requiere que E(ui|xi) = 0 , V ar(ui) = σ2 y Cov(ui, uj) = 0. b) El investigador debe escoger un período en el que las tasas de interés hayan uctuado poco. Si utiliza el resto de períodos es probable que el modelo presente heterocedasticidad. c) Falso. Hace falta más información para concluir algo así. Una correlación lineal fuerte entre dos variables no necesariamente implica que los coecientes de la regresión entre los dos sean signicativos. 41. Considere el modelo microeconómico de demanda y oferta: Demanda: Q = α1P + β1Z1 + u1 Oferta: Q = α2P + β2Z2 + u2 donde Q(= cantidad demandada u ofertada) y P(= precio). Las variables exógenas, Z1(= ingreso) y Z2(= precio de las materias primas), son independientes de las perturbaciones estructurales u1 y u2. Estas perturbaciones tienen esperanza 0. En lo siguiente, respecto a la estimación, supondremos que disponemos de una muestra de observaciones de Q, P, Z1 y Z2. a) Muestre que si α1 = 0 o α2 = 0, existe al menos una forma reducida para Q. b) Si α1 = 0 y α2 = 0, obtener la forma reducida de P. c) Si α1 = 0, α2 = 0 y α1 = α2, encuentre las formas reducidas para P y Q. Respuesta: a) Despejando P de la ecuación de oferta: P = Q α2 − β2 α2 Z2 − u2 α2 (9) Como se puede apreciar hasta ahora, es necesario que α2 = 0 para poder despejar P, y por lo tanto que la forma reducida de Q exista. Reemplazando (9) en la ecuación de demanda se obtiene: 35
  • 36. Q = α1( Q α2 − β2 α2 Z2 − u2 α2 ) + β1Z1 + u1 Q(1 − α1 α2 ) = β1Z1 − α1β2 α2 Z2 − α1u2 α2 + u1 Q = β1 (1 − α1 α2 ) π1 Z1 − α1β2 (1 − α1 α2 )α2 π2 Z2 + − α1u2 (1 − α1 α2 )α2 + u1 (1 − α1 α2 ) v1 Si al principio se despeja P de la ecuación de demanda, entonces la condición α1 = 0 será necesaria. b) Como α2 = 0 al momento de igualar las dos ecuaciones se obtiene: α1P + β1Z1 + u1 = β2Z2 + u2 P = β2 α1 π3 Z2 − β1 α1 π4 Z1 + u2 α1 − u1 α1 v2 c) La forma reducida para Q es la misma que la del literal (a). La forma reducida para P será distinta. La condición α1 = α2 garantiza que la forma reducida exista como se verá a continuación. Se pueden escribir las dos ecuaciones en forma matricial. 1 −α1 1 −α2 B Q P = β1 0 0 β2 Z1 Z2 + u1 u2 (10) Para que la forma reducida exista, la inversa de la matriz B tiene que existir. Si α1 = α2, entonces el determinante de la matriz es 0 y por lo tanto no tiene inversa. Usando la condición del ejercicio la matriz inversa existe y es igual a: B−1 = 1 α1 − α2 −α2 α1 −1 1 Premultiplicando (10) por B−1 se obtiene la forma reducida: Q P y = − α2β1 α1−α2 α1β2 α1−α2 − β1 α1−α2 β2 α1−α2 π Z1 Z2 z + α1u2 α1−α2 − α2u1 α1−α2 u2 α1−α2 − u1 α1−α2 v 42. Construya el estimador VI y su varianza para el vector de parámetros β a partir del modelo: y = Xβ + u X = Zγ + Respuesta: Primero se regresa X sobre Z para obtener el mejor instrumento para X. Luego en la primera ecuación se sustituye X por la predicción de la segunda. Es decir: y = PZXβ + u 36
  • 37. Se obtiene el estimador de β de la forma común: ˆβV I = (X PZX)−1 X PZy La varianza del estimador es V ar( ˆβ) = V ar((X PZX)−1 X PZu) V ar( ˆβ) = (X PZX)−1 X PZ V ar(u) σ2I PZX(X PZX)−1 V ar( ˆβ) = σ2 (X PZX)−1 X PZX(X PZX)−1 I = σ2 (X PZX)−1 43. Suponga que se quiere determinar la relación entre la cantidad que contribuye un empleado a su plan de pensiones en función de la generosidad del plan. Para ello se plantea el siguiente modelo: yi,e = β0 + β1xi,e,1 + β2xi,e,2 + β3xi,3 + ui,e donde yi,e es la contribución anual del empleado e que trabaja en la empresa i, xi,e,1 es el ingreso anual de esta persona y xi,e,2 es su edad. xi,3 es la cantidad que la empresa aporta a la cuenta de un empleado por cada dólar con que éste contribuye. Suponga que para este modelo se cumplen los supuestos de Gauss-Markov. Sin embargo usted no cuenta con datos para cada empleado, pero en su lugar cuenta con datos promedio por empresa, asi como con el número de empleados por empresa. Se plantea el siguiente modelo para las empresas usando datos promedio: ¯yi = α0 + α1 ¯xi,1 + α2 ¯xi,2 + α3xi,k + ¯ui (11) donde ¯ui = m−1 i mi e ui,e es el error promedio de todos los empleados de la empresa i. Si para todo e, V ar(ui,e) = σ2 y los errores no están correlacionados entre empleados, conteste: a) Calcular V ar(¯ui) . ¾Es correcto usar el estimador MCO? ¾Por qué? b) ¾Qué ponderador de la suma residual, usaría para estimar el modelo por mínimos cuadrados ponderados y por qué? (No solo de una explicación matemática, sino también una breve explicación intuitiva). Respuesta: a) V ar(¯ui) = V ar(m−1 i mi e ui,e) V ar(¯ui) = 1 m2 i mi e V ar(ui,e) = 1 m2 i mi e σ2 V ar(¯ui) = mi m2 i σ2 = σ2 mi No es correcto usar MCO debido a que la varianza del error será más pequeña a medida que el número de empleados aumente y por lo tanto el supuesto de homocedasticidad no se cumple. 37
  • 38. b) El ponderador de la suma residual que hace cumplir el supuesto de homocedasticidad es el número de empleados de la empresa. Es decir, si se multiplica el modelo (11) por √ mi, el modelo cumple todos los supuestos necesarios para estimar por MCO. V ar(¯ui √ m1) = σ2 mi mi = σ2 Al hacer esto, se le está asignando más peso a las empresas con mayor número de empleados. De esta manera se compensa la reducción de la varianza de ¯ui a medida que el número de empleados es mayor.4 44. Considere un modelo para los empleados de varias empresas. yi,e = β0 + β1xi,e,1 + β2xi,e,2 + .. + βkxi,e,k + fi + vi,e donde la variable inobservada fi es un efecto de la empresa para cada empleado en una empresa dada i. El término de error vi,e es especíco para cada empleado e de la empresa i. El error compuesto es ui,e = fi + vi,e. a) Suponga que V ar(fi) = σ2 f , V ar(vi,e) = σ2 v, y que fi y vi,e no están correlacionadas. Muestre que V ar(ui,e) = σ2 f + σ2 v; llame a esto σ2 . b) Ahora suponga que para e = g, vi,e y vi,g no están correlacionadas. Muestre que Cov(ui,e, ui,g) = σ2 f . c) Sea ¯ui = m−1 i mi e ui,e, el promedio de errores compuestos dentro de una empresa. mi es el número total de empleados de la empresa i. Muestre que V ar(¯ui) = σ2 f + σ2 v mi . d) Analice la relevancia del inciso (c) para la estimación por mínimos cuadrados ponderados empleando datos promediados a nivel de las empresas, donde el pon- derador empleado para la observación i es el tamaño de la rma. Respuesta: a) V ar(ui,e) = V ar(fi + vi,e) = V ar(fi) + V ar(vi,e) V ar(ui,e) = σ2 f + σ2 v = σ2 La varianza de ui,e es simplemente la suma de las varianzas de fi y vi,e porque estas variables no estan correlacionadas y por ende tienen covarianza 0. b) Cov(ui,e, ui,g) = E[ui,eui,g] − E[ui,e]E[ui,g] Cov(ui,e, ui,g) = E[(fi + vi,e)(fi + vi,g)] − E[fi + vi,e]E[fi + vi,g] Cov(ui,e, ui,g) = E[f2 i + fivi,g + fivi,e + vi,evi,g] − E[fi]E[fi] + E[fi]E[vi,g] +E[vi,e]E[vi,g] + E[fi]E[vi,e] Cov(ui,e, ui,g) = E[f2 i ] − E[fi]E[fi] V ar(fi) + E[fivi,g] − E[fi]E[vi,g] Cov(fi,vi,g) + E[fivi,e] − E[fi]E[vi,e] Cov(fi,vi,e) + E[vi,evi,g] − E[vi,e]E[vi,g] Cov(vi,e,vi,g) 4Como se vió en clase, los ponderadores muchas veces se escogen arbitrariamente. Este ejercicio ilustra como algunas veces pueden surgir de forma natural. 38
  • 39. Dado es supuesto de correlación 0 entre fi y vi,g, y correlación 0 entre vi,e y vi,g, los últimos tres términos del lado derecho de la ecuación anterior son 0. Cov(ui,e, ui,g) = E[f2 i ] − E[fi]E[fi] V ar(fi) = σ2 f c) V ar( ¯ui) = V ar(m−1 i mi e ui,e) V ar( ¯ui) = 1 m2 i V ar( mi e ui,e) = 1 m2 i mi e V ar(ui,e) + 2 e g Cov(ui,e, ui,g) V ar( ¯ui) = 1 m2 i miσ2 + 2 e (mi − 1)σ2 f = 1 m2 i miσ2 + 2 mi 2 (mi − 1)σ2 f V ar( ¯ui) = 1 m2 i miσ2 f + miσ2 v + m2 i σ2 f − miσ2 f = σ2 f mi + σ2 v mi + σ2 f − σ2 f mi V ar(¯ui) = σ2 f + σ2 v mi d) El problema de usar el tamaño de la rma como ponderador es que aun así la varianza del nuevo error dependerá del tamaño de la rma. La varianza del nuevo modelo será: V ar(¯u∗ i ) = miσ2 f + σ2 v 45. Proponga un estadístico para el contraste de hipótesis nula H0 : β2 = 0 en el modelo: yt = β1 + β2xt + ut, V ar(ut) = σ2 t = σ2 ux2 t Respuesta: Se estima el modelo por MCO asumiendo homocedasticidad, sin embargo la varianza del estimador cambia. En su lugar se construye la varianza usando el estimador de White. V ar( ˆβ) = (X X)−1 t ˆut 2 (xtxt) (X X)−1 Para el caso de ˆβ2, se tiene: V ar( ˆβ2) = t(xt − ¯x) ˆut 2 [ t(xt − ¯x)2]2 Luego se usa el estadístico t habitual pero usando la nueva varianza. Es decir: t = ˆβ2 t(xt−¯x) ˆut 2 [ t(xt−¯x)2]2 46. Considere el modelo yt = βxt + ut, con σ2 t = k(βxt)2 , donde las variables se hallan en diferencias respecto a sus medias muestrales. a) Pruebe que el estimador de MCG de β es igual al promedio muestral del cociente yt xt . Halle su varianza. b) ¾Qué tipo de problemas surgirían en esta estimación si xt = 0 para algún t? ¾Qué inferencia obtendríamos del resultado? 39
  • 40. Respuesta: a) El estimador de MCG puede escribirse como: ˆβ = (x Ω−1 x)−1 x Ω−1 y donde Ω−1 =       1 k(βx1)2 0 · · · 0 0 1 k(βx2)2 · · · 0 ... ... ... ... 0 0 0 1 k(βxT )2       Resolviendo se obtiene: ˆβ = T kβ2 −1 1 kβ2 t yt xt = t yt xt T La varianza del estimador MCG es: V ar(ˆβ) = (x Ω−1 x)−1 = T kβ2 −1 = kβ2 T b) Si xt = 0 para algún t, entonces se obtendrá un ˆβ innito. 47. Suponga el modelo: y1 = β0 + β1y2 + β2z1 + u1 (12) donde y2 es endógena y z1 es exógena. Se cuenta con una variable z2 que sirve como instrumento para y2. Al tomar la forma reducida de y2 y sustituirla en el modelo (12) se obtiene la forma reducida para y1: y1 = α0 + α1z1 + α2z2 + v1 a) Obtener los coecientes αj en función de los coecientes de la forma reducida de y2 y los βj. b) Obtener el error de forma reducida , v1, en función de u1, v2 y los parámetros. c) ¾Cómo estimaríamos consistentemente los αj? Respuesta: a) La forma reducida de y2 es: y2 = π0 + π1z1 + π2z2 + v2 (13) Sustituyendo (13) en (12) se obtiene: y1 = β0 + β1(π0 + π1z1 + π2z2 + v2) + β2z1 + u1 y1 = β0 + β1π0 + β1π1z1 + β1π2z2 + β1v2 + β2z1 + u1 y1 = β0 + β1π0 α0 + (β1π1 + β2) α1 z1 + β1π2 α2 z2 + β1v2 + u1 v1 Por lo tanto, α0 = β0 + β1π0, α1 = β1π1 + β2 y α2 = β1π2. b) Del resultado anterior se tiene que v1 = β1v2 + u1. 40
  • 41. c) Los αj pueden estimarse por MCO debido a que las variables z1y z2 son exógenas en el modelo, sin embargo no se podrá recuperar los coecientes βj y πj debido a que habrán más incógnitas que ecuaciones. 48. Considere el modelo simple de series temporales donde la variable explicativa tiene un error de medida clásico: yt = β0 + β1x ∗t +ut (14) xt = x∗ t + et donde ut tiene media cero y no está correlacionado con x∗ t y et. Solamente se observan las variables yt y xt. Suponga que et tiene media cero y no está correlacionado con x∗ t y que x∗ t tiene también media cero (este último supuesto se hace sólo para simplicar el álgebra) a) Sustituir x∗ t = xt − et y sustituirlo en la ecuación (14). Demostrar que el término de error en la nueva ecuación, digamos vt, tiene correlación con negativa con xt si β1 0. ¾Qué implica esto para el estimador MCO de β1 en la regresión de yt sobre xt? b) Además de los supuestos anteriores, suponga que ut y et no están correlacionados con todos los valores pasados de x∗ t y e∗ t ; en particular, con x∗ t−1 y et−1. Demostrar que E(xt−1vt) = 0, donde vt es el término de error en el modelo del apartado (a). c) ¾Es probable que las variables xt y xt−1 están correlacionadas? Explicar por qué. d) ¾Qué estrategia sugieren los apartados (b) y (c) para estimar consistentemente β0 y β1? Respuesta: a) Al sustituir x∗ t = xt − et en (14) se obtiene: yt = β0 + β1xt + ut − β1et vt Dado que xt tiene media cero la covarianza entre xt y vt puede escribirse como: Cov(xt, vt) = E(xtvt) Cov(xt, vt) = E[(x∗ t + et)(ut − β1et)] Cov(xt, vt) = E(x∗ t ut − β1etx∗ t + etut − β1e2 t ) Cov(xt, vt) = E(x∗ t ut) 0 −β1 E(etx∗ t ) 0 + E(etut) 0 −β1E(e2 t ) donde E(e2 t ) es la varianza de et, y siempre será positiva. Si β1 0 , entonces la covarianza y por ende la correlación será negativa. En consecuencia el estimador de β1 será sesgado e inconsistente. 41
  • 42. b) E(xt−1vt) = E[(x∗ t−1 + et−1)(ut − β1et)] E(xt−1vt) = E(x∗ t−1ut + et−1ut − β1etx∗ t−1 − β1etet−1) E(xt−1vt) = E(x∗ t−1ut) 0 + E(et−1ut) 0 −β1 E(etx∗ t−1) 0 −β1 E(etet−1) 0 E(xt−1vt) = 0 c) Al obtener la covarianza Cov(xt, xt−1) = E(xtxt−1) Cov(xt, xt−1) = E(x∗ t x∗ t−1 + etx∗ t−1 + x∗ t et−1 + etet−1) Cov(xt, xt−1) = E(x∗ t x∗ t−1) + E(etx∗ t−1) 0 +E(x∗ t et−1) + E(etet−1) 0 es probable que si esten correlacionados debido a que no se conocen la correlación entre x∗ t y x∗ t−1, y la correlación entre x∗ t y et−1. d) La manera de estimar consistentemente los parámetros del modelo (14) es por el método de variables instrumentales. Un buen instrumento es xt−1 debido a que Cov(xt−1 xt) = 0 y Cov(xt−1 vt) = 0. 49. Considere este modelo microeconómico de demanda y oferta de trabajo: Demanda: y1 = α1 + α2y2 + α3x1 + α4x2 + u1 Oferta: y1 = α5 + α6y2 + u2 Aquí, y1(=horas de trabajo) e y2(=salario) son las variables endógenas. Las variables exógenas, x1(=tipo de interés) y x2(=precio de las materias primas), son independien- tes de las perturbaciones estructurales u1 y u2. Estas perturbaciones tienen esperanza cero. En lo siguiente, respecto a la estimación, supondremos que disponemos de una muestra de observaciones de y1, y2, x1 y x2de tamaño moderado, y que las regresiones lineales a efectuar incluyen una constante. a) Derive la forma reducida. b) ¾Está identicada la ecuación de oferta? ¾Debe estimarse a partir de la regresión lineal mínimo-cuadrática de y1 sobre y2? Explicar. c) ¾Está identicada la ecuación de demanda? ¾Debe estimarse a partir de la regre- sión lineal mínimo-cuadrática de y1 sobre y2, x1 y x2? Explicar. d) Se le pide que estime la ecuación de oferta por mínimos cuadrados en dos estapas. ¾Qué pasos seguiría? Sea breve pero explícito. e) Se le pide que estime la ecuación de demanda por mínimos cuadrados en dos estapas. ¾Qué pasos seguiría? Sea breve pero explícito. Respuesta: 42
  • 43. a) Al igualar la oferta y demanda se despeja y2. α1 + α2y2 + α3x1 + α4x2 + u1 = α5 + α6y2 + u2 α2y2 − α6y2 = α5 − α1 − α3x1 − α4x2 + u2 − u1 (α2 − α6)y2 = α5 − α1 − α3x1 − α4x2 + u2 − u1 Si se asume que α2 = α6 se puede dividir ambos lados de la ecuación anterior para α2 − α6. y2 = α5 − α1 α2 − α6 π1 + −α3 α2 − α6 π2 x1 + −α4 α2 − α6 π3 x2 + u2 − u1 α2 − α6 v1 Para obtener la forma reducida de y1, se reemplaza la ecuación anterior en la ecuación de oferta. y1 = α5 + α6 α5 − α1 α2 − α6 + −α3 α2 − α6 x1 + −α4 α2 − α6 x2 + u2 − u1 α2 − α6 + u2 y1 = α5 + α6(α5 − α1) α2 − α6 + −α6α3 α2 − α6 x1 + −α6α4 α2 − α6 x2 + α6(u2 − u1) α2 − α6 + u2 y1 = α5α2 − α1α6 α2 − α6 π4 + −α6α3 α2 − α6 π5 x1 + −α6α4 α2 − α6 π6 x2 + α2u2 − α6u1 α2 − α6 v2 b) La ecuación de oferta si está identicada, sin embargo no se debe estimar por mínimos cuadra- dos ordinarios debido a que y2 es endógena y causa un sesgo de simultaneidad en el estimador, además de la inconsistencia. c) La ecuación de demanda no está identicada, y tampoco debe estimarse por mínimos cuadrados ordinarios por la misma razón (el estimador es sesgado e inconsistente). d) Primero se regresa y2 sobre x1 y x2. Mediante una prueba de hiótesis se testea si los coecientes que acompañan estas variables son signicativos. De ser así, el segundo paso es regresar y1 sobre ˆy2, donde ˆy2 es la predicción de la regresión de y2 sobre x1 y x2. e) No se puede estimar por mínimos cuadrados en dos etapas debido a que la ecuación no está identicada. 50. En el modelo lineal yi = xiβ + ui E(ui) = 0 Suponga que los términos de error no están correlacionados, sin embargo no se cumple el supuesto de homocedasticidad. Suponga que la estructura de la varianza del error cambia en función de xi y además es conocida. Muestre que el estimador de mínimos cuadrados generalizados de β puede ser escrito como un estimador de variable instru- mental usando algún instrumento zi. (Encuentre una expresión para zi en función de xi) Respuesta: Expresando la matriz de varianzas-covarianzas de u como Ω, el estimador de mínimos cuadrados generalizados es: 43
  • 44. ˆβMCG = (X Ω−1 X)−1 X Ω−1 y Al compararlo con el estimador de variable instrumental ˆβIV = (Z X)−1 Z y se puede notar que es necesario que Z sea igual a X Ω−1 . Debido a la simetría de Ω−1 , la matriz de instrumentos Z puede ser escrita como: Z = Ω−1 X Z =       1 σ2 1 0 · · · 0 0 1 σ2 2 · · · 0 ... ... ... ... 0 0 · · · 1 σ2 n            x11 x21 · · · xk1 x12 x22 · · · xk2 ... ... ... ... x1n x2n · · · xkn      Por lo tanto, el instrumento zi puede ser escrito como zi = 1 σ2 i xi Referencias [1] Novales (1993); Econometría. [2] Wooldridge (2008); Introductory Econometrics: A Modern Approach. [3] Greene (2005); Econometric Analysis. [4] Gujarati Porter (2010); Econometría. [5] B. Hansen (2012); Econometrics. [6] Johnston and Dinardo (1996); Econometric Methods. 44