2. • O nosso objetivo é estimar os
parâmetros da regressão
múltipla, e fazer inferências a
respeito deles a partir dos dados
disponíveis.
3. • Multicolinearidade refere-se à
correlação entre duas variáveis
explicativas ou entre uma delas e
as demais, incluídas na equação
de um modelo.
4. • Isso implica que a multicolinearidade
ocorre, quando, por exemplo, duas
variáveis X1 e X2 medem
aproximadamente a mesma coisa, ou
seja, a correlação entre elas é quase
perfeita.
5. • Quantidade demandada é função do
preço do produto e dos seus
substitutos;
• Consumo é função da renda e
riqueza;
• Consumo é função da renda e da
taxa de juros.
7. 1 - método empregado para a
coleta de dados.
• Tomar a amostragem de uma
faixa limitada de valores pelos
regressores da população.
8. 2 - restrições sobre o modelo ou a
população que está sendo
amostrada.
• Na regressão do consumo de
eletricidade sobre a renda (X2) e o
tamanho da casa (X3), há uma
restrição física na população, já que
famílias com maiores rendas
geralmente têm casas maiores que
as famílias com menores rendas.
9. 3 - Especificação do modelo.
• Adicionando termos polinomiais
ao modelo de regressão,
especialmente quando a
amplitude da variável X for
pequena.
10. 4 – Modelo superdeterminado.
• Isto ocorre quando o modelo tiver
mais variáveis explicativas que o
número de observações
(micronumerosidade).
11. 5 - Outro motivo de multicolinearidade,
especialmente no caso de séries
temporais, pode ser que os
regressores do modelo apresentem
uma tendência comum, isto é, todos
eles aumentam ou diminuem ao
longo do tempo.
12. • Assim, na regressão das despesas de
consumo sobre a renda, a riqueza e a
população, os regressores renda, riqueza
e população podem estar evoluindo mais
ou menos à mesma taxa, gerando
colinearidade entre essas variáveis.
14. • No caso da multicolinearidade
perfeita, os coeficientes de
regressão permanecem
indeterminados e seus erros-
padrão são infinitos
15. Isso pode ser demonstrado:
. Seja: i
i
i
i u
x
x
y ˆ
ˆ
ˆ
3
3
2
2
(10.2.1)
2
3
2
2
3
2
2
3
2
3
2
3
2
2
ˆ
i
i
i
i
i
i
i
i
i
i
i
x
x
x
x
x
x
x
y
x
x
y
(7.4.7)
2
3
2
2
3
2
2
3
2
2
2
2
3
3
ˆ
i
i
i
i
i
i
i
i
i
i
i
x
x
x
x
x
x
x
y
x
x
y
(7.4.8)
16. . Suponha que i
i x
x 2
3
, sendo 0
.
. Substituindo em (7.4.7):
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
ˆ
i
i
i
i
i
i
i
i
i
x
x
x
x
x
y
x
x
y
0
0
ˆ
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
i
i
i
i
i
i
i
i
x
x
x
y
x
x
x
y
(10.2.2)
. (10.2.2) é uma expressão indeterminada.
17. . Por que obtemos o resultado mostrado em (10.2.2)?
. O significado de 2
̂ é: ele fornece a taxa de
variação no valor médio de Y quando X2 se altera
em uma unidade, mantendo X3 constante.
. Mas, se X3 e X2 são perfeitamente colineares,
não há como manter X3 constante: conforme X2
se altera, o mesmo ocorre com X3 pelo fator .
.
18. . Isso significa que não há como isolar as influências
separadas de X2 e X3 de uma dada amostra: para fins
práticos, X2 e X3 são indistinguíveis.
. Na econometria aplicada, este problema causa
maiores danos já que o objetivo final é separar os
efeitos parciais de cada X sobre a variável
dependente.
19. . No caso da multicolinearidade perfeita, as
variâncias e os erros-padrão de 2
̂ e 3
̂ ,
individualmente, são infinitos.
. Da equação (7.4.12):
)
1
(
)
ˆ
var( 2
23
2
2
2
2
r
x i
. Se temos colinearidade perfeita, 1
23
r , então o
denominador será igual a zero. Nesse caso, a variância de
2
̂ será infinita.
20. . Na forma matricial, quando ocorre
multicolinearidade perfeita, teremos a
existência, na matriz X, colunas linearmente
dependentes.
21. . Consideremos o caso de uma regressão linear múltipla
com duas variáveis independentes perfeitamente
correlacionadas entre si
u
u
x
x
y j
j
j
j
2
2
1
1
com
1
2
2
2
1
2
2
1
2
12
j
j
j
j
x
x
x
x
r
22. . Neste caso, temos
0
'
2
2
1
2
2
2
1
j
j
j
j x
x
x
x
X
X
. Isto é, o determinante da matriz X’X é igual a zero.
. Não é possível, então, inverter a matriz X’X e,
consequentemente, é impossível obter as estimativas
de 1
e 2
.
23. • É importante compreender que no
caso de uma regressão com mais de
duas variáveis independentes pode
existir multicolinearidade perfeita,
mesmo que nenhum dos coeficientes
de determinação simples seja igual a
um.
24. Para isso, veja o seguinte exercício:
Com a finalidade de ajustar o modelo
j
j
j
j
j
j u
X
X
X
X
Y
4
4
3
3
2
2
1
1
foi obtida uma amostra de 8 observações.
26. Verifique que, embora o valor dos
coeficientes de correlação entre pares de
variáveis independentes seja sempre inferior a
0,58, existe multicolinearidade perfeita.
28. Em geral não há uma relação
linear exata entre as variáveis X,
especialmente em dados que
envolvem séries temporais
econômicas.
29. . Em vez de multicolinearidade exata, podemos ter:
i
i
i v
x
x
2
3 (10.3.1)
sendo: 0
, e
vi é um termo de erro estocástico de tal modo que
0
2 i
iv
x .
. Nesse caso, a estimativa dos coeficientes de regressão 2
e
3
talvez seja possível.
30. . Ou seja:
2
3
2
2
3
2
2
3
2
3
2
3
2
2
ˆ
i
i
i
i
i
i
i
i
i
i
i
x
x
x
x
x
x
x
y
x
x
y
(7.4.7)
substituindo (10.3.1) em (7.4.7):
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
)
(
)
(
)
(
ˆ
i
i
i
i
i
i
i
i
i
i
i
i
i
i
i
i
v
x
x
v
x
x
v
x
x
v
x
y
v
x
x
y
31.
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
ˆ
i
i
i
i
i
i
i
i
i
i
i
i
i
i
i
i
i
v
x
x
v
x
x
v
x
x
v
y
x
y
v
x
x
y
se
0
2 i
i v
x
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
ˆ
i
i
i
i
i
i
i
i
i
i
i
i
i
x
v
x
x
x
v
y
x
y
v
x
x
y
(10.3.2)
. A equação (10.3.2) pode ser estimada.
32. . Naturalmente, se i
v for suficientemente
pequeno, muito próximo de zero, (10.3.1)
indicará uma colinearidade quase perfeita.
Então retornaremos ao caso indeterminado
de (10.2.2).
35. • Apesar de serem MELNV, os
estimadores de MQO têm grandes
variâncias e covariâncias,
dificultando uma estimativa
precisa.
36. As variâncias e covariâncias de 2
̂ e 3
̂ são dadas por:
)
1
(
)
ˆ
var( 2
23
2
2
2
2
r
x i
(7.4.12)
)
1
(
)
ˆ
var( 2
23
2
3
2
3
r
x i
(7.4.15)
2
3
2
2
2
23
2
23
3
2
)
1
(
)
ˆ
,
ˆ
(
i
i x
x
r
r
Cov
(7.4.17)
em que r23 é o coeficiente de correlação entre X2 e X3.
37. . A partir de (7.4.12)
)
1
(
)
ˆ
var( 2
23
2
2
2
2
r
x i
(7.4.12)
- se aumentar r23 a variância aumenta;
0,302
= 0,09
0,902
= 0,81
- se r23 = 1 a variância é infinita.
38. . A partir de (7.4.17)
2
3
2
2
2
23
2
23
3
2
)
1
(
)
ˆ
,
ˆ
(
i
i x
x
r
r
Cov
(7.4.17)
- se aumentar r23 a covariância aumenta;
- se r23 = 1 a covariância é infinita.
39. A velocidade com que as variâncias e covariâncias
aumentam pode ser vista com o:
- Fator de inflação da variância (FIV)
2
23
1
1
r
FIV
(10.5.1)
40. - A medida que r23 se aproxima de 1, o FIV
aumenta
2
23
1
1
r
FIV
- No limite, pode tornar-se infinita.
- Se r23 = 0, o FIV é 1.
42. (10.5.2) e (10.5.3) mostram que as
variâncias de 2
ˆ
e 3
̂ são diretamente
proporcionais ao FIV.
FIV
x i
2
2
2
2 )
ˆ
var(
(10.5.2)
FIV
x i
2
3
2
3 )
ˆ
var(
(10.5.3)
43. . Quando aumenta r23 têm um efeito
impressionante sobre as variâncias e
covariâncias dos estimadores.
44. - a tabela 10.1 mostra os valores
- quando r23 = 0,50 a 2
2
2
2 33
,
1
)
ˆ
var(
i
x
- ou seja:
33
,
1
25
,
0
1
1
FIV
45. - a tabela 10.1 mostra os valores
- quando r23 = 0,50 a
2
3
2
2
2
3
2 66667
,
0
)
ˆ
,
ˆ
cov(
i
i x
x
- ou seja:
66667
,
0
25
,
0
1
50
,
0
FIV
46. Tabela 10.1 Efeito dos aumentos de r23 sobre a variância e
covariância.
Valor de r23 VIF )
ˆ
var( 2
)
ˆ
,
ˆ
cov( 3
2
0,00 1,00 1,00 x A 0
0,50 1,33 1,33 x A 0,67 x B
0,70 1,96 1,96 x A 1,37 x B
0,90 5,26 5,26 x A 4,73 x B
0,95 10,26 10,26 x A 9,74 x B
0,97 16,92 16,92 x A 16,41 x B
0,99 50,25 50,25 x A 49,75 x B
0,995 100,00 100,00 x A 99,50 x B
0,999 500,00 500,00 x A 499,50 x B
2
2
2
i
x
A
e 2
3
2
2
2
. i
i x
x
B
47. . Graficamente, pode-se ver o comportamento da )
ˆ
var( 2
como função de r23.
)
ˆ
var( 2
2
2
2
i
x
A
5,26 A
1,33 A
A
0,5 0,85 1,0 r23
Figura 10.2 Comportamento da )
ˆ
var( 2
como função de r23.
Ausência de
Multicolinearidade
porque r23 = 0
48. . Os resultados que acabamos de examinar podem ser estendidos ao modelo
com k variáveis.
. Nesse modelo, a variância do k-ésimo coeficiente, pode ser expresso como:
2
2
2
1
1
)
ˆ
var(
j
j
j
R
x
(7.5.6)
j
̂ = parâmetro do regressor Xj;
2
j
R = R2
da regressão de Xj contra as (k – 2) regressões restantes ( o 2 refere-
se a Xj e o intercepto)
2
2
j
j
j X
X
x
49. . Também podemos escrever (7.5.6) como:
j
j
j FIV
x
2
2
)
ˆ
var(
(10.5.4)
. da equação (10.5.4) verifica-se que:
)
ˆ
var( j
é proporcional a
2
e FIV, mas inversamente
proporcional a
2
j
x
.
50. . Assim, a )
ˆ
var( j
será grande ou pequena de
acordo com:
1)
2
2) FIV
2)
2
j
x
51. . Observe que o inverso do FIV é denominado
tolerância (TOL)
)
1
(
1 2
j
j
j R
FIV
TOL
. Se 1
2
j
R (colinearidade perfeita), TOL = 0 e
0
2
j
R , TOL = 1.
53. Em virtude da conseqüência 1, o
erro-padrão e o intervalo de confiança
serão maiores.
• A probabilidade de incorrer em erro do
tipo II aumenta.
• Erro tipo II: pode-se não rejeitar H0
quando, de fato, ela é falsa.
55. Também por causa da conseqüência 1, a
razão t de um ou mais coeficientes tende
a ser estatisticamente insignificante.
• Nos casos de alta colinearidade, os erros-
padrão estimados aumentam
substancialmente, tornando, em
conseqüência, os valores t menores.
56. • Assim, nesses casos, acabamos
aceitando cada vez mais a hipótese nula
de que o verdadeiro valor populacional
relevante é zero.
61. Observe as seguintes advertências:
• 1 – Multicolinearidade é uma questão de
grau e não de tipo. A distinção significativa
a fazer não é entre a presença ou a
ausência da multicolinearidade, mas entre
seus diferentes graus.
62. 2 – Como a multicolinearidade se
refere à condição das variáveis
explicativas, que supomos serem
não-estocásticas, ela é uma
característica da amostra, não da
população.
63. • Por isso, não fazemos um
“teste da multicolinearidade”,
mas podemos, se desejarmos,
medir seu grau em uma
amostra particular qualquer.
64. • Como multicolinearidade é
essencialmente um fenômeno da
amostra, decorrente em boa parte
de dados não experimentais
coletados na maioria da ciências
sociais, não temos um método
único para detectá-la ou para
medir sua intensidade.
66. 1 - Alto R2, porém poucas razões t
significativas.
• Se R2 for alto (acima de 0,8), o teste F,
na maioria dos casos, rejeitará a hipótese
de que os coeficientes de inclinação
parcial são simultaneamente iguais a zero,
mas os testes t individuais vão mostrar
que nenhum ou muito pouco dos
coeficientes de inclinação parcial são
estatisticamente diferentes de zero.
67. • Embora esse diagnóstico seja sensato,
sua desvantagem é que ele é muito forte
por que a multicolinearidade é
considerada prejudicial somente quando
todas as influências das variáveis
explicativas sobre Y não podem ser
separadas.
68. 2 - Altas correlações dois a dois
entre os regressores.
• Se o coeficiente de correlação
dois a dois ou de ordem zero for
alto (acima de 0,8), então a
multicolinearidade se constitui um
sério problema.
69. • O problema com esse critério é
que, embora altas correlações de
ordem zero possam sugerir
colinearidade, não é necessário
que elas sejam altas para haver
colinearidade em qualquer caso
específico.
70. • Ou seja, altas correlações de ordem
zero são condição suficiente, mas
não necessária, para a existência da
multicolinearidade, pois ela pode
existir mesmo que as correlações
simples ou de ordem zero seja
relativamente baixas (menores que
0,5).
71. Para ver esta relação, suponha que tenhamos um
modelo de quatro variáveis:
i
i
i
i
i u
X
X
X
Y
4
4
3
3
2
2
1
e suponha que:
i
i
i X
X
X 3
3
2
2
4
em que 2
e 3
são constantes, sendo que ambos não
podem ser iguais a zero.
72. Obviamente, X4 é uma combinação
linear exata de X2 e X3, dando 1
2
23
.
4
R , o
coeficiente de determinação na
regressão de X4 sobre X2 e X3.
73. Considerando a fórmula (7.11.5):
2
23
23
43
42
2
43
2
42
2
23
.
4
1
2
r
r
r
r
r
r
R
(10.7.1)
Mas como 1
2
23
.
4
R por causa da perfeita colinearidade, obtemos:
2
23
23
43
42
2
43
2
42
1
2
1
r
r
r
r
r
r
(10.7.2)
Verifica-se que (10.7.2) é satisfeita por r42 = 0,5, r43 = 0,5
e r23 = -0,5, que são valores não muito altos.
74. • Portanto, em modelos que envolvam
mais de duas variáveis explicativas, a
correlação simples ou de ordem zero não
nos dará um indício infalível da presença
da multicolinearidade.
• Naturalmente, se houver somente duas
variáveis explicativas, as correlações de
ordem zero serão suficientes.
75. 3 - Exame das correlações parciais.
Por causa do referido problema de se
depender das correlações de ordem zero,
Farrar e Glauber sugeriram que observemos
os coeficientes de correlação parcial.
76. Assim, na regressão de Y sobre X2, X3 e X4,
uma verificação de que
2
234
.
1
R é bastante alto,
porém
2
34
.
12
r , 2
24
.
13
r e
2
23
.
14
r são relativamente
baixos, pode sugerir que as variáveis X2, X3, e
X4 são altamente intercorrelacionadas e que
pelo menos uma dessas variáveis é supérflua.
77. Mas pode acontecer que o 2
234
.
1
R e
2
34
.
12
r ,
2
24
.
13
r e
2
23
.
14
r sejam elevados.
Nesse caso o exame das correlações parciais são
inúteis.
Nesse caso, o teste de correlação parcial de Farrar-
Glauber é ineficaz, já que uma dada correlação
parcial pode ser compatível com diferentes padrões
de multicolinearidade, demonstrado por C.Robert
Wichers.
78. 4 - Regressões auxiliares.
Como a multicolinearidade se manifesta porque um ou
mais regressores são combinações lineares exatas ou
aproximadas e outros regressores, um meio de descobrir
qual variável X se relaciona com outras variáveis X é
regredir cada Xi sobre as demais variáveis X e calcular o
R2
correspondente, que designamos por 2
i
R ;
79. Cada uma dessas regressões é chamada de regressão
auxiliar, auxiliar da regressão parcial de Y sobre os Xs.
Então, de acordo com a relação entre F e R2
, a variável
)
1
/(
)
1
(
)
2
/(
2
...
.
2
...
.
3
2
1
3
2
1
k
n
R
k
R
F
k
k
x
x
x
x
x
x
x
x
i (10.7.3)
segue uma distribuição F com k - 2 e n – k +1 gl.
80. Na equação (10.7.3), n indica o tamanho da
amostra, k representa o número de variáveis
explicativas, incluindo o termo de intercepto, e
2
...
. 3
2
1 k
x
x
x
x
R é o coeficiente de determinação na
regressão da variável Xi sobre as demais variáveis X.
81. Se o F calculado excede o Fi crítico
em nível de significância escolhido,
podemos presumir que o Xi particular
é colinear com outros Xs;
82. Se o F não excede o Fi crítico, dizemos
que Xi não é colinear com outros Xs, caso
em que podemos manter essa variável no
modelo.
Se Fi for estatisticamente significativo,
ainda teremos de decidir se o Xi particular
deve ser excluído do modelo.
83. As hipóteses são:
H0 = ausência de multicolinearidade
HA = presença de multicolinearidade
84. Em vez de testar formalmente todos os
valores de R2
auxiliares, podemos adotar a
regra prática de Klein, que sugere que a
multicolinearidade pode ser um problema
incômodo somente se o R2
obtido de uma
regressão auxiliar for maior que o R2
global, ou
seja, o obtido de uma regressão de Y sobre
todos os regressores.
85. 5 - Tolerância e fator inflação da variância.
Para o modelo de regressão de k variáveis
[Y, intercepto e (k-1) regressores], a variância de um
coeficiente de regressão parcial pode ser expresso como:
)
1
1
(
)
ˆ
var( 2
2
2
j
j
j
R
x
(7.5.6)
j
j
j FIV
x
2
2
)
ˆ
var(
(10.7.4)
86. )
1
1
(
)
ˆ
var( 2
2
2
j
j
j
R
x
(7.5.6)
j
j
j FIV
x
2
2
)
ˆ
var(
(10.7.4)
em que j
é o coeficiente de regressão parcial do
regressor Xj,
2
j
R é o R2
na regressão (auxiliar) de Xj
sobre os demais (k - 2) regressores e FIVj é o fator
inflação da variância.
87. À medida que
2
j
R aumenta em direção à
unidade, ou seja, conforme aumenta a
colinearidade de Xj com os outros
regressores, o FIV também aumenta e, no
limite, pode ser infinito.
88. Por isso, alguns autores usam o FIV
como um indicador da multicolinearidade:
quanto maior o valor do FIVj, mais
“problemática” ou colinear é a variável Xj.
(
2
j
R exceder 0,90)
89. Como regra prática, se o FIV de uma
variável for maior que 10, o que acontece
quando 2
j
R é maior que 0,90, diz-se que essa
variável é altamente colinear.
90. Por outro lado, quanto mais próxima de
zero estiver o TOLj, maior o grau de
colinearidade dessa variável com os demais
regressores.
91. Porém, deve-se ter cautela com o uso da
FIV ou TOL, pois como mostra (10.5.4), a
)
ˆ
var( j
depende de três fatores:
2
,
2
j
x
e
FIVj.
Um FIV elevado pode ser contrabalançado
por um
2
baixo ou por um alto
2
j
x
.
92. • Finalmente, destacamos que os vários
métodos vistos têm a natureza de
“pescarias”, pois não podemos dizer qual
desses métodos funciona em qualquer
aplicação específica.
• Isso ocorre porque a multicolinearidade
é específica de uma amostra, o qual o
pesquisador não tem controle.
94. Tratamento da Multicolinearidade
• A solução da multicolinearidade depende de:
1 - extensão do problema;
2 - da disponibilidade de outras fontes de dados (amostras
maiores, amostras em cross section etc);
3 - da importância das variáveis multicolineares;
4 - do propósito da função que se deseja estimar; e
5 - de outras considerações.
95. Tratamento da Multicolinearidade
• Quando a multicolinearidade afeta
seriamente os coeficientes estimados,
ter-se-á de dar algum tratamento ao
problema.
96. Tratamento da Multicolinearidade
• Os procedimentos mais comuns visando
reduzir suas conseqüências são os
seguintes:
a . aumento do tamanho da amostra;
b . uso de informação a priori sobre o valor
da estimativa dos parâmetros, obtida de
estudo prévio;
97. Tratamento da Multicolinearidade
c . transformação da relação funcional;
d . exclusão das variáveis colineares;
e . uso de razões ou primeiras diferenças.
98. Tratamento da multicolinearidade
• É importante salientar que a exclusão de
variáveis explicativas visando atenuar o
problema da multicolinearidade pode
acarretar erros de especificação, se a
variável excluída for teoricamente
importante.
99. Tratamento da multicolinearidade
• O uso de razões pode provocar
heterocedasticidade;
• O uso de primeiras diferenças pode gerar
problemas de autocorrelação serial.