SlideShare uma empresa Scribd logo
1 de 100
MULTICOLINEARIDADE
• O nosso objetivo é estimar os
parâmetros da regressão
múltipla, e fazer inferências a
respeito deles a partir dos dados
disponíveis.
• Multicolinearidade refere-se à
correlação entre duas variáveis
explicativas ou entre uma delas e
as demais, incluídas na equação
de um modelo.
• Isso implica que a multicolinearidade
ocorre, quando, por exemplo, duas
variáveis X1 e X2 medem
aproximadamente a mesma coisa, ou
seja, a correlação entre elas é quase
perfeita.
• Quantidade demandada é função do
preço do produto e dos seus
substitutos;
• Consumo é função da renda e
riqueza;
• Consumo é função da renda e da
taxa de juros.
Fontes de Multicolinearidade
1 - método empregado para a
coleta de dados.
• Tomar a amostragem de uma
faixa limitada de valores pelos
regressores da população.
2 - restrições sobre o modelo ou a
população que está sendo
amostrada.
• Na regressão do consumo de
eletricidade sobre a renda (X2) e o
tamanho da casa (X3), há uma
restrição física na população, já que
famílias com maiores rendas
geralmente têm casas maiores que
as famílias com menores rendas.
3 - Especificação do modelo.
• Adicionando termos polinomiais
ao modelo de regressão,
especialmente quando a
amplitude da variável X for
pequena.
4 – Modelo superdeterminado.
• Isto ocorre quando o modelo tiver
mais variáveis explicativas que o
número de observações
(micronumerosidade).
5 - Outro motivo de multicolinearidade,
especialmente no caso de séries
temporais, pode ser que os
regressores do modelo apresentem
uma tendência comum, isto é, todos
eles aumentam ou diminuem ao
longo do tempo.
• Assim, na regressão das despesas de
consumo sobre a renda, a riqueza e a
população, os regressores renda, riqueza
e população podem estar evoluindo mais
ou menos à mesma taxa, gerando
colinearidade entre essas variáveis.
ESTIMAÇÃO NA PRESENÇA
DA MULTICOLINEARIDADE
PERFEITA
• No caso da multicolinearidade
perfeita, os coeficientes de
regressão permanecem
indeterminados e seus erros-
padrão são infinitos
Isso pode ser demonstrado:
. Seja: i
i
i
i u
x
x
y ˆ
ˆ
ˆ
3
3
2
2 

 
 (10.2.1)
       
     2
3
2
2
3
2
2
3
2
3
2
3
2
2
ˆ













i
i
i
i
i
i
i
i
i
i
i
x
x
x
x
x
x
x
y
x
x
y
 (7.4.7)
       
     2
3
2
2
3
2
2
3
2
2
2
2
3
3
ˆ













i
i
i
i
i
i
i
i
i
i
i
x
x
x
x
x
x
x
y
x
x
y
 (7.4.8)
. Suponha que i
i x
x 2
3 
 , sendo 0

 .
. Substituindo em (7.4.7):
       
     2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
ˆ













i
i
i
i
i
i
i
i
i
x
x
x
x
x
y
x
x
y






     
    0
0
ˆ
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2 







 


i
i
i
i
i
i
i
i
x
x
x
y
x
x
x
y




 (10.2.2)
. (10.2.2) é uma expressão indeterminada.
. Por que obtemos o resultado mostrado em (10.2.2)?
. O significado de 2
̂ é: ele fornece a taxa de
variação no valor médio de Y quando X2 se altera
em uma unidade, mantendo X3 constante.
. Mas, se X3 e X2 são perfeitamente colineares,
não há como manter X3 constante: conforme X2
se altera, o mesmo ocorre com X3 pelo fator  .
.
. Isso significa que não há como isolar as influências
separadas de X2 e X3 de uma dada amostra: para fins
práticos, X2 e X3 são indistinguíveis.
. Na econometria aplicada, este problema causa
maiores danos já que o objetivo final é separar os
efeitos parciais de cada X sobre a variável
dependente.
. No caso da multicolinearidade perfeita, as
variâncias e os erros-padrão de 2
̂ e 3
̂ ,
individualmente, são infinitos.
. Da equação (7.4.12):  

)
1
(
)
ˆ
var( 2
23
2
2
2
2
r
x i


. Se temos colinearidade perfeita, 1
23 
r , então o
denominador será igual a zero. Nesse caso, a variância de
2
̂ será infinita.
. Na forma matricial, quando ocorre
multicolinearidade perfeita, teremos a
existência, na matriz X, colunas linearmente
dependentes.
. Consideremos o caso de uma regressão linear múltipla
com duas variáveis independentes perfeitamente
correlacionadas entre si
u
u
x
x
y j
j
j
j 


 2
2
1
1 

com
 
  1
2
2
2
1
2
2
1
2
12 




j
j
j
j
x
x
x
x
r
. Neste caso, temos
  0
'
2
2
1
2
2
2
1 




 j
j
j
j x
x
x
x
X
X
. Isto é, o determinante da matriz X’X é igual a zero.
. Não é possível, então, inverter a matriz X’X e,
consequentemente, é impossível obter as estimativas
de 1
 e 2
 .
• É importante compreender que no
caso de uma regressão com mais de
duas variáveis independentes pode
existir multicolinearidade perfeita,
mesmo que nenhum dos coeficientes
de determinação simples seja igual a
um.
Para isso, veja o seguinte exercício:
Com a finalidade de ajustar o modelo
j
j
j
j
j
j u
X
X
X
X
Y 




 4
4
3
3
2
2
1
1 




foi obtida uma amostra de 8 observações.
Os valores das variáveis independentes constam da tabela a
seguir:
X1 X2 X3 X4
-1 -1 -1 -3
-1 -1 1 -1
-1 1 -1 -1
-1 1 1 1
1 -1 -1 -1
1 -1 1 1
1 1 -1 1
1 1 1 3
Verifique que, embora o valor dos
coeficientes de correlação entre pares de
variáveis independentes seja sempre inferior a
0,58, existe multicolinearidade perfeita.
ESTIMATIVA NA
PRESENÇA DE
MULTICOLINEARIDADE
“ALTA” MAS
“IMPERFEITA”.
Em geral não há uma relação
linear exata entre as variáveis X,
especialmente em dados que
envolvem séries temporais
econômicas.
. Em vez de multicolinearidade exata, podemos ter:
i
i
i v
x
x 
 2
3  (10.3.1)
sendo: 0

 , e
vi é um termo de erro estocástico de tal modo que
  0
2 i
iv
x .
. Nesse caso, a estimativa dos coeficientes de regressão 2
 e
3
 talvez seja possível.
. Ou seja:
       
     2
3
2
2
3
2
2
3
2
3
2
3
2
2
ˆ













i
i
i
i
i
i
i
i
i
i
i
x
x
x
x
x
x
x
y
x
x
y
 (7.4.7)
substituindo (10.3.1) em (7.4.7):
       
     2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
)
(
)
(
)
(
ˆ

 



 












i
i
i
i
i
i
i
i
i
i
i
i
i
i
i
i
v
x
x
v
x
x
v
x
x
v
x
y
v
x
x
y






         
     2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
ˆ
 
 



 
 












i
i
i
i
i
i
i
i
i
i
i
i
i
i
i
i
i
v
x
x
v
x
x
v
x
x
v
y
x
y
v
x
x
y






se  
 0
2 i
i v
x
       
     2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
ˆ

 


 
 










i
i
i
i
i
i
i
i
i
i
i
i
i
x
v
x
x
x
v
y
x
y
v
x
x
y






(10.3.2)
. A equação (10.3.2) pode ser estimada.
. Naturalmente, se i
v for suficientemente
pequeno, muito próximo de zero, (10.3.1)
indicará uma colinearidade quase perfeita.
Então retornaremos ao caso indeterminado
de (10.2.2).
CONSEQÜÊNCIAS
PRÁTICAS DA
MULTICOLINEARIDADE
1ª Conseqüência
• Apesar de serem MELNV, os
estimadores de MQO têm grandes
variâncias e covariâncias,
dificultando uma estimativa
precisa.
As variâncias e covariâncias de 2
̂ e 3
̂ são dadas por:
 

)
1
(
)
ˆ
var( 2
23
2
2
2
2
r
x i


(7.4.12)
 

)
1
(
)
ˆ
var( 2
23
2
3
2
3
r
x i


(7.4.15)
 



2
3
2
2
2
23
2
23
3
2
)
1
(
)
ˆ
,
ˆ
(
i
i x
x
r
r
Cov



(7.4.17)
em que r23 é o coeficiente de correlação entre X2 e X3.
. A partir de (7.4.12)
 

)
1
(
)
ˆ
var( 2
23
2
2
2
2
r
x i


(7.4.12)
- se aumentar r23 a variância aumenta;
0,302
= 0,09
0,902
= 0,81
- se r23 = 1 a variância é infinita.
. A partir de (7.4.17)
 



2
3
2
2
2
23
2
23
3
2
)
1
(
)
ˆ
,
ˆ
(
i
i x
x
r
r
Cov



(7.4.17)
- se aumentar r23 a covariância aumenta;
- se r23 = 1 a covariância é infinita.
A velocidade com que as variâncias e covariâncias
aumentam pode ser vista com o:
- Fator de inflação da variância (FIV)
 
2
23
1
1
r
FIV


(10.5.1)
- A medida que r23 se aproxima de 1, o FIV
aumenta
 
2
23
1
1
r
FIV


- No limite, pode tornar-se infinita.
- Se r23 = 0, o FIV é 1.
. Portanto:
FIV
x i
2
2
2
2 )
ˆ
var(




(10.5.2)
FIV
x i
2
3
2
3 )
ˆ
var(




(10.5.3)
(10.5.2) e (10.5.3) mostram que as
variâncias de 2
ˆ
 e 3
̂ são diretamente
proporcionais ao FIV.
FIV
x i
2
2
2
2 )
ˆ
var(




(10.5.2)
FIV
x i
2
3
2
3 )
ˆ
var(




(10.5.3)
. Quando aumenta r23 têm um efeito
impressionante sobre as variâncias e
covariâncias dos estimadores.
- a tabela 10.1 mostra os valores
- quando r23 = 0,50 a 2
2
2
2 33
,
1
)
ˆ
var(
i
x




- ou seja:  
33
,
1
25
,
0
1
1



FIV
- a tabela 10.1 mostra os valores
- quando r23 = 0,50 a
2
3
2
2
2
3
2 66667
,
0
)
ˆ
,
ˆ
cov(
i
i x
x 






- ou seja:  
66667
,
0
25
,
0
1
50
,
0



FIV
Tabela 10.1 Efeito dos aumentos de r23 sobre a variância e
covariância.
Valor de r23 VIF )
ˆ
var( 2
 )
ˆ
,
ˆ
cov( 3
2 

0,00 1,00 1,00 x A 0
0,50 1,33 1,33 x A 0,67 x B
0,70 1,96 1,96 x A 1,37 x B
0,90 5,26 5,26 x A 4,73 x B
0,95 10,26 10,26 x A 9,74 x B
0,97 16,92 16,92 x A 16,41 x B
0,99 50,25 50,25 x A 49,75 x B
0,995 100,00 100,00 x A 99,50 x B
0,999 500,00 500,00 x A 499,50 x B
2
2
2
i
x
A



e 2
3
2
2
2
. i
i x
x
B





. Graficamente, pode-se ver o comportamento da )
ˆ
var( 2
 como função de r23.
)
ˆ
var( 2

2
2
2
i
x
A



5,26 A
1,33 A
A
0,5 0,85 1,0 r23
Figura 10.2 Comportamento da )
ˆ
var( 2
 como função de r23.
Ausência de
Multicolinearidade
porque r23 = 0
. Os resultados que acabamos de examinar podem ser estendidos ao modelo
com k variáveis.
. Nesse modelo, a variância do k-ésimo coeficiente, pode ser expresso como:










 2
2
2
1
1
)
ˆ
var(
j
j
j
R
x


(7.5.6)
j
̂ = parâmetro do regressor Xj;
2
j
R = R2
da regressão de Xj contra as (k – 2) regressões restantes ( o 2 refere-
se a Xj e o intercepto)
 2
2
j
j
j X
X
x 



. Também podemos escrever (7.5.6) como:
j
j
j FIV
x


 2
2
)
ˆ
var(

 (10.5.4)
. da equação (10.5.4) verifica-se que:
)
ˆ
var( j
 é proporcional a
2
 e FIV, mas inversamente
proporcional a
2
j
x
 .
. Assim, a )
ˆ
var( j
 será grande ou pequena de
acordo com:
1)
2

2) FIV
2)
2
j
x

. Observe que o inverso do FIV é denominado
tolerância (TOL)
)
1
(
1 2
j
j
j R
FIV
TOL 


. Se 1
2

j
R (colinearidade perfeita), TOL = 0 e
0
2

j
R , TOL = 1.
2ª Conseqüência
Em virtude da conseqüência 1, o
erro-padrão e o intervalo de confiança
serão maiores.
• A probabilidade de incorrer em erro do
tipo II aumenta.
• Erro tipo II: pode-se não rejeitar H0
quando, de fato, ela é falsa.
3ª Conseqüência
Também por causa da conseqüência 1, a
razão t de um ou mais coeficientes tende
a ser estatisticamente insignificante.
• Nos casos de alta colinearidade, os erros-
padrão estimados aumentam
substancialmente, tornando, em
conseqüência, os valores t menores.
• Assim, nesses casos, acabamos
aceitando cada vez mais a hipótese nula
de que o verdadeiro valor populacional
relevante é zero.
4ª Conseqüência
Embora a razão t de um ou mais
coeficientes seja estatisticamente
insignificante, R2, a medida global do
grau de ajuste, pode ser bastante
alto.
• Os estimadores de MQO e seus
erros-padrão podem ser
sensíveis a pequenas variações
nos dados.
DETECÇÃO DA
MULTICOLINEARIDADE
Observe as seguintes advertências:
• 1 – Multicolinearidade é uma questão de
grau e não de tipo. A distinção significativa
a fazer não é entre a presença ou a
ausência da multicolinearidade, mas entre
seus diferentes graus.
2 – Como a multicolinearidade se
refere à condição das variáveis
explicativas, que supomos serem
não-estocásticas, ela é uma
característica da amostra, não da
população.
• Por isso, não fazemos um
“teste da multicolinearidade”,
mas podemos, se desejarmos,
medir seu grau em uma
amostra particular qualquer.
• Como multicolinearidade é
essencialmente um fenômeno da
amostra, decorrente em boa parte
de dados não experimentais
coletados na maioria da ciências
sociais, não temos um método
único para detectá-la ou para
medir sua intensidade.
•Algumas regras
práticas para detectar
multicolinearidade
1 - Alto R2, porém poucas razões t
significativas.
• Se R2 for alto (acima de 0,8), o teste F,
na maioria dos casos, rejeitará a hipótese
de que os coeficientes de inclinação
parcial são simultaneamente iguais a zero,
mas os testes t individuais vão mostrar
que nenhum ou muito pouco dos
coeficientes de inclinação parcial são
estatisticamente diferentes de zero.
• Embora esse diagnóstico seja sensato,
sua desvantagem é que ele é muito forte
por que a multicolinearidade é
considerada prejudicial somente quando
todas as influências das variáveis
explicativas sobre Y não podem ser
separadas.
2 - Altas correlações dois a dois
entre os regressores.
• Se o coeficiente de correlação
dois a dois ou de ordem zero for
alto (acima de 0,8), então a
multicolinearidade se constitui um
sério problema.
• O problema com esse critério é
que, embora altas correlações de
ordem zero possam sugerir
colinearidade, não é necessário
que elas sejam altas para haver
colinearidade em qualquer caso
específico.
• Ou seja, altas correlações de ordem
zero são condição suficiente, mas
não necessária, para a existência da
multicolinearidade, pois ela pode
existir mesmo que as correlações
simples ou de ordem zero seja
relativamente baixas (menores que
0,5).
Para ver esta relação, suponha que tenhamos um
modelo de quatro variáveis:
i
i
i
i
i u
X
X
X
Y 



 4
4
3
3
2
2
1 



e suponha que:
i
i
i X
X
X 3
3
2
2
4 
 

em que 2
 e 3
 são constantes, sendo que ambos não
podem ser iguais a zero.
Obviamente, X4 é uma combinação
linear exata de X2 e X3, dando 1
2
23
.
4 
R , o
coeficiente de determinação na
regressão de X4 sobre X2 e X3.
Considerando a fórmula (7.11.5):
2
23
23
43
42
2
43
2
42
2
23
.
4
1
2
r
r
r
r
r
r
R



 (10.7.1)
Mas como 1
2
23
.
4 
R por causa da perfeita colinearidade, obtemos:
2
23
23
43
42
2
43
2
42
1
2
1
r
r
r
r
r
r



 (10.7.2)
Verifica-se que (10.7.2) é satisfeita por r42 = 0,5, r43 = 0,5
e r23 = -0,5, que são valores não muito altos.
• Portanto, em modelos que envolvam
mais de duas variáveis explicativas, a
correlação simples ou de ordem zero não
nos dará um indício infalível da presença
da multicolinearidade.
• Naturalmente, se houver somente duas
variáveis explicativas, as correlações de
ordem zero serão suficientes.
3 - Exame das correlações parciais.
Por causa do referido problema de se
depender das correlações de ordem zero,
Farrar e Glauber sugeriram que observemos
os coeficientes de correlação parcial.
Assim, na regressão de Y sobre X2, X3 e X4,
uma verificação de que
2
234
.
1
R é bastante alto,
porém
2
34
.
12
r , 2
24
.
13
r e
2
23
.
14
r são relativamente
baixos, pode sugerir que as variáveis X2, X3, e
X4 são altamente intercorrelacionadas e que
pelo menos uma dessas variáveis é supérflua.
Mas pode acontecer que o 2
234
.
1
R e
2
34
.
12
r ,
2
24
.
13
r e
2
23
.
14
r sejam elevados.
Nesse caso o exame das correlações parciais são
inúteis.
Nesse caso, o teste de correlação parcial de Farrar-
Glauber é ineficaz, já que uma dada correlação
parcial pode ser compatível com diferentes padrões
de multicolinearidade, demonstrado por C.Robert
Wichers.
4 - Regressões auxiliares.
Como a multicolinearidade se manifesta porque um ou
mais regressores são combinações lineares exatas ou
aproximadas e outros regressores, um meio de descobrir
qual variável X se relaciona com outras variáveis X é
regredir cada Xi sobre as demais variáveis X e calcular o
R2
correspondente, que designamos por 2
i
R ;
Cada uma dessas regressões é chamada de regressão
auxiliar, auxiliar da regressão parcial de Y sobre os Xs.
Então, de acordo com a relação entre F e R2
, a variável
)
1
/(
)
1
(
)
2
/(
2
...
.
2
...
.
3
2
1
3
2
1





k
n
R
k
R
F
k
k
x
x
x
x
x
x
x
x
i (10.7.3)
segue uma distribuição F com k - 2 e n – k +1 gl.
Na equação (10.7.3), n indica o tamanho da
amostra, k representa o número de variáveis
explicativas, incluindo o termo de intercepto, e
2
...
. 3
2
1 k
x
x
x
x
R é o coeficiente de determinação na
regressão da variável Xi sobre as demais variáveis X.
Se o F calculado excede o Fi crítico
em nível de significância escolhido,
podemos presumir que o Xi particular
é colinear com outros Xs;
Se o F não excede o Fi crítico, dizemos
que Xi não é colinear com outros Xs, caso
em que podemos manter essa variável no
modelo.
Se Fi for estatisticamente significativo,
ainda teremos de decidir se o Xi particular
deve ser excluído do modelo.
As hipóteses são:
H0 = ausência de multicolinearidade
HA = presença de multicolinearidade
Em vez de testar formalmente todos os
valores de R2
auxiliares, podemos adotar a
regra prática de Klein, que sugere que a
multicolinearidade pode ser um problema
incômodo somente se o R2
obtido de uma
regressão auxiliar for maior que o R2
global, ou
seja, o obtido de uma regressão de Y sobre
todos os regressores.
5 - Tolerância e fator inflação da variância.
Para o modelo de regressão de k variáveis
[Y, intercepto e (k-1) regressores], a variância de um
coeficiente de regressão parcial pode ser expresso como:
)
1
1
(
)
ˆ
var( 2
2
2
j
j
j
R
x 





(7.5.6)
j
j
j FIV
x


 2
2
)
ˆ
var(


(10.7.4)
)
1
1
(
)
ˆ
var( 2
2
2
j
j
j
R
x 





(7.5.6)
j
j
j FIV
x


 2
2
)
ˆ
var(


(10.7.4)
em que j
 é o coeficiente de regressão parcial do
regressor Xj,
2
j
R é o R2
na regressão (auxiliar) de Xj
sobre os demais (k - 2) regressores e FIVj é o fator
inflação da variância.
À medida que
2
j
R aumenta em direção à
unidade, ou seja, conforme aumenta a
colinearidade de Xj com os outros
regressores, o FIV também aumenta e, no
limite, pode ser infinito.
Por isso, alguns autores usam o FIV
como um indicador da multicolinearidade:
quanto maior o valor do FIVj, mais
“problemática” ou colinear é a variável Xj.
(
2
j
R exceder 0,90)
Como regra prática, se o FIV de uma
variável for maior que 10, o que acontece
quando 2
j
R é maior que 0,90, diz-se que essa
variável é altamente colinear.
Por outro lado, quanto mais próxima de
zero estiver o TOLj, maior o grau de
colinearidade dessa variável com os demais
regressores.
Porém, deve-se ter cautela com o uso da
FIV ou TOL, pois como mostra (10.5.4), a
)
ˆ
var( j
 depende de três fatores:
2
 ,
2
j
x
 e
FIVj.
Um FIV elevado pode ser contrabalançado
por um
2
 baixo ou por um alto
2
j
x
 .
• Finalmente, destacamos que os vários
métodos vistos têm a natureza de
“pescarias”, pois não podemos dizer qual
desses métodos funciona em qualquer
aplicação específica.
• Isso ocorre porque a multicolinearidade
é específica de uma amostra, o qual o
pesquisador não tem controle.
MEDIDAS CORRETIVAS.
Tratamento da Multicolinearidade
• A solução da multicolinearidade depende de:
1 - extensão do problema;
2 - da disponibilidade de outras fontes de dados (amostras
maiores, amostras em cross section etc);
3 - da importância das variáveis multicolineares;
4 - do propósito da função que se deseja estimar; e
5 - de outras considerações.
Tratamento da Multicolinearidade
• Quando a multicolinearidade afeta
seriamente os coeficientes estimados,
ter-se-á de dar algum tratamento ao
problema.
Tratamento da Multicolinearidade
• Os procedimentos mais comuns visando
reduzir suas conseqüências são os
seguintes:
a . aumento do tamanho da amostra;
b . uso de informação a priori sobre o valor
da estimativa dos parâmetros, obtida de
estudo prévio;
Tratamento da Multicolinearidade
c . transformação da relação funcional;
d . exclusão das variáveis colineares;
e . uso de razões ou primeiras diferenças.
Tratamento da multicolinearidade
• É importante salientar que a exclusão de
variáveis explicativas visando atenuar o
problema da multicolinearidade pode
acarretar erros de especificação, se a
variável excluída for teoricamente
importante.
Tratamento da multicolinearidade
• O uso de razões pode provocar
heterocedasticidade;
• O uso de primeiras diferenças pode gerar
problemas de autocorrelação serial.
• FIM

Mais conteúdo relacionado

Semelhante a Cap.10 Multicolinearidade.pptCap.10 Multicolinearidade.pptCap.10 Multicolinearidade.ppt

Potenciação e Radiciação
Potenciação e RadiciaçãoPotenciação e Radiciação
Potenciação e Radiciaçãomatechp
 
POTENCIAÇÃO E RADICIAÇÃO
POTENCIAÇÃO E RADICIAÇÃO POTENCIAÇÃO E RADICIAÇÃO
POTENCIAÇÃO E RADICIAÇÃO JOSÉ MARÇAL
 
Aula 9: O degrau de potencial. Caso II: Energia maior que o degrau
Aula 9: O degrau de potencial. Caso II: Energia maior que o degrauAula 9: O degrau de potencial. Caso II: Energia maior que o degrau
Aula 9: O degrau de potencial. Caso II: Energia maior que o degrauAdriano Silva
 
Apostila regressao linear
Apostila regressao linearApostila regressao linear
Apostila regressao linearcoelhojmm
 
Econometria_Cap12_Heterocedasticidade (1).pdf
Econometria_Cap12_Heterocedasticidade (1).pdfEconometria_Cap12_Heterocedasticidade (1).pdf
Econometria_Cap12_Heterocedasticidade (1).pdfStellaBucuane
 
Aula 8: O degrau de potencial. Caso I: Energia menor que o degrau
Aula 8: O degrau de potencial. Caso I: Energia menor que o degrauAula 8: O degrau de potencial. Caso I: Energia menor que o degrau
Aula 8: O degrau de potencial. Caso I: Energia menor que o degrauAdriano Silva
 
Aula de distribuição de probabilidade[1]
Aula de distribuição de probabilidade[1]Aula de distribuição de probabilidade[1]
Aula de distribuição de probabilidade[1]Tuane Paixão
 
Aula de distribuição de probabilidade[1] cópia
Aula de distribuição de probabilidade[1]   cópiaAula de distribuição de probabilidade[1]   cópia
Aula de distribuição de probabilidade[1] cópiaTuane Paixão
 
Econometria modelos de_regressao_linear
Econometria modelos de_regressao_linearEconometria modelos de_regressao_linear
Econometria modelos de_regressao_linearJoevan Santos
 
Intro teoria dos números cap2
Intro teoria dos  números cap2Intro teoria dos  números cap2
Intro teoria dos números cap2Paulo Martins
 
Capitulo 8 gujarati resumo
Capitulo 8 gujarati resumoCapitulo 8 gujarati resumo
Capitulo 8 gujarati resumoMonica Barros
 
C7 exercicios
C7 exerciciosC7 exercicios
C7 exercicioskapika
 

Semelhante a Cap.10 Multicolinearidade.pptCap.10 Multicolinearidade.pptCap.10 Multicolinearidade.ppt (20)

Introdução à cadeias de markov
Introdução à cadeias de markovIntrodução à cadeias de markov
Introdução à cadeias de markov
 
05 tópico 4 - multicolinearidade
05   tópico 4 - multicolinearidade05   tópico 4 - multicolinearidade
05 tópico 4 - multicolinearidade
 
Potenciação e Radiciação
Potenciação e RadiciaçãoPotenciação e Radiciação
Potenciação e Radiciação
 
POTENCIAÇÃO E RADICIAÇÃO
POTENCIAÇÃO E RADICIAÇÃO POTENCIAÇÃO E RADICIAÇÃO
POTENCIAÇÃO E RADICIAÇÃO
 
Aritmética de máquina
Aritmética de máquinaAritmética de máquina
Aritmética de máquina
 
Aula 9: O degrau de potencial. Caso II: Energia maior que o degrau
Aula 9: O degrau de potencial. Caso II: Energia maior que o degrauAula 9: O degrau de potencial. Caso II: Energia maior que o degrau
Aula 9: O degrau de potencial. Caso II: Energia maior que o degrau
 
Apostila regressao linear
Apostila regressao linearApostila regressao linear
Apostila regressao linear
 
Econometria_Cap12_Heterocedasticidade (1).pdf
Econometria_Cap12_Heterocedasticidade (1).pdfEconometria_Cap12_Heterocedasticidade (1).pdf
Econometria_Cap12_Heterocedasticidade (1).pdf
 
Aula 8: O degrau de potencial. Caso I: Energia menor que o degrau
Aula 8: O degrau de potencial. Caso I: Energia menor que o degrauAula 8: O degrau de potencial. Caso I: Energia menor que o degrau
Aula 8: O degrau de potencial. Caso I: Energia menor que o degrau
 
econometria
 econometria econometria
econometria
 
Aula de distribuição de probabilidade[1]
Aula de distribuição de probabilidade[1]Aula de distribuição de probabilidade[1]
Aula de distribuição de probabilidade[1]
 
Aula de distribuição de probabilidade[1] cópia
Aula de distribuição de probabilidade[1]   cópiaAula de distribuição de probabilidade[1]   cópia
Aula de distribuição de probabilidade[1] cópia
 
Econometria modelos de_regressao_linear
Econometria modelos de_regressao_linearEconometria modelos de_regressao_linear
Econometria modelos de_regressao_linear
 
euclides primos
euclides primoseuclides primos
euclides primos
 
Intro teoria dos números cap2
Intro teoria dos  números cap2Intro teoria dos  números cap2
Intro teoria dos números cap2
 
Aula 05
Aula 05Aula 05
Aula 05
 
03 tópico 2 - regressão multipla
03   tópico 2 - regressão multipla03   tópico 2 - regressão multipla
03 tópico 2 - regressão multipla
 
02 tópico 1 - regressão linear simples 02 - Econometria - Graduação - UFPA
02   tópico 1 - regressão linear simples 02 - Econometria - Graduação - UFPA02   tópico 1 - regressão linear simples 02 - Econometria - Graduação - UFPA
02 tópico 1 - regressão linear simples 02 - Econometria - Graduação - UFPA
 
Capitulo 8 gujarati resumo
Capitulo 8 gujarati resumoCapitulo 8 gujarati resumo
Capitulo 8 gujarati resumo
 
C7 exercicios
C7 exerciciosC7 exercicios
C7 exercicios
 

Cap.10 Multicolinearidade.pptCap.10 Multicolinearidade.pptCap.10 Multicolinearidade.ppt

  • 2. • O nosso objetivo é estimar os parâmetros da regressão múltipla, e fazer inferências a respeito deles a partir dos dados disponíveis.
  • 3. • Multicolinearidade refere-se à correlação entre duas variáveis explicativas ou entre uma delas e as demais, incluídas na equação de um modelo.
  • 4. • Isso implica que a multicolinearidade ocorre, quando, por exemplo, duas variáveis X1 e X2 medem aproximadamente a mesma coisa, ou seja, a correlação entre elas é quase perfeita.
  • 5. • Quantidade demandada é função do preço do produto e dos seus substitutos; • Consumo é função da renda e riqueza; • Consumo é função da renda e da taxa de juros.
  • 7. 1 - método empregado para a coleta de dados. • Tomar a amostragem de uma faixa limitada de valores pelos regressores da população.
  • 8. 2 - restrições sobre o modelo ou a população que está sendo amostrada. • Na regressão do consumo de eletricidade sobre a renda (X2) e o tamanho da casa (X3), há uma restrição física na população, já que famílias com maiores rendas geralmente têm casas maiores que as famílias com menores rendas.
  • 9. 3 - Especificação do modelo. • Adicionando termos polinomiais ao modelo de regressão, especialmente quando a amplitude da variável X for pequena.
  • 10. 4 – Modelo superdeterminado. • Isto ocorre quando o modelo tiver mais variáveis explicativas que o número de observações (micronumerosidade).
  • 11. 5 - Outro motivo de multicolinearidade, especialmente no caso de séries temporais, pode ser que os regressores do modelo apresentem uma tendência comum, isto é, todos eles aumentam ou diminuem ao longo do tempo.
  • 12. • Assim, na regressão das despesas de consumo sobre a renda, a riqueza e a população, os regressores renda, riqueza e população podem estar evoluindo mais ou menos à mesma taxa, gerando colinearidade entre essas variáveis.
  • 13. ESTIMAÇÃO NA PRESENÇA DA MULTICOLINEARIDADE PERFEITA
  • 14. • No caso da multicolinearidade perfeita, os coeficientes de regressão permanecem indeterminados e seus erros- padrão são infinitos
  • 15. Isso pode ser demonstrado: . Seja: i i i i u x x y ˆ ˆ ˆ 3 3 2 2      (10.2.1)              2 3 2 2 3 2 2 3 2 3 2 3 2 2 ˆ              i i i i i i i i i i i x x x x x x x y x x y  (7.4.7)              2 3 2 2 3 2 2 3 2 2 2 2 3 3 ˆ              i i i i i i i i i i i x x x x x x x y x x y  (7.4.8)
  • 16. . Suponha que i i x x 2 3   , sendo 0   . . Substituindo em (7.4.7):              2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 ˆ              i i i i i i i i i x x x x x y x x y                 0 0 ˆ 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2             i i i i i i i i x x x y x x x y      (10.2.2) . (10.2.2) é uma expressão indeterminada.
  • 17. . Por que obtemos o resultado mostrado em (10.2.2)? . O significado de 2 ̂ é: ele fornece a taxa de variação no valor médio de Y quando X2 se altera em uma unidade, mantendo X3 constante. . Mas, se X3 e X2 são perfeitamente colineares, não há como manter X3 constante: conforme X2 se altera, o mesmo ocorre com X3 pelo fator  . .
  • 18. . Isso significa que não há como isolar as influências separadas de X2 e X3 de uma dada amostra: para fins práticos, X2 e X3 são indistinguíveis. . Na econometria aplicada, este problema causa maiores danos já que o objetivo final é separar os efeitos parciais de cada X sobre a variável dependente.
  • 19. . No caso da multicolinearidade perfeita, as variâncias e os erros-padrão de 2 ̂ e 3 ̂ , individualmente, são infinitos. . Da equação (7.4.12):    ) 1 ( ) ˆ var( 2 23 2 2 2 2 r x i   . Se temos colinearidade perfeita, 1 23  r , então o denominador será igual a zero. Nesse caso, a variância de 2 ̂ será infinita.
  • 20. . Na forma matricial, quando ocorre multicolinearidade perfeita, teremos a existência, na matriz X, colunas linearmente dependentes.
  • 21. . Consideremos o caso de uma regressão linear múltipla com duas variáveis independentes perfeitamente correlacionadas entre si u u x x y j j j j     2 2 1 1   com     1 2 2 2 1 2 2 1 2 12      j j j j x x x x r
  • 22. . Neste caso, temos   0 ' 2 2 1 2 2 2 1       j j j j x x x x X X . Isto é, o determinante da matriz X’X é igual a zero. . Não é possível, então, inverter a matriz X’X e, consequentemente, é impossível obter as estimativas de 1  e 2  .
  • 23. • É importante compreender que no caso de uma regressão com mais de duas variáveis independentes pode existir multicolinearidade perfeita, mesmo que nenhum dos coeficientes de determinação simples seja igual a um.
  • 24. Para isso, veja o seguinte exercício: Com a finalidade de ajustar o modelo j j j j j j u X X X X Y       4 4 3 3 2 2 1 1      foi obtida uma amostra de 8 observações.
  • 25. Os valores das variáveis independentes constam da tabela a seguir: X1 X2 X3 X4 -1 -1 -1 -3 -1 -1 1 -1 -1 1 -1 -1 -1 1 1 1 1 -1 -1 -1 1 -1 1 1 1 1 -1 1 1 1 1 3
  • 26. Verifique que, embora o valor dos coeficientes de correlação entre pares de variáveis independentes seja sempre inferior a 0,58, existe multicolinearidade perfeita.
  • 28. Em geral não há uma relação linear exata entre as variáveis X, especialmente em dados que envolvem séries temporais econômicas.
  • 29. . Em vez de multicolinearidade exata, podemos ter: i i i v x x   2 3  (10.3.1) sendo: 0   , e vi é um termo de erro estocástico de tal modo que   0 2 i iv x . . Nesse caso, a estimativa dos coeficientes de regressão 2  e 3  talvez seja possível.
  • 30. . Ou seja:              2 3 2 2 3 2 2 3 2 3 2 3 2 2 ˆ              i i i i i i i i i i i x x x x x x x y x x y  (7.4.7) substituindo (10.3.1) em (7.4.7):              2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 ) ( ) ( ) ( ˆ                     i i i i i i i i i i i i i i i i v x x v x x v x x v x y v x x y      
  • 31.                2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 ˆ                        i i i i i i i i i i i i i i i i i v x x v x x v x x v y x y v x x y       se    0 2 i i v x              2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 ˆ                    i i i i i i i i i i i i i x v x x x v y x y v x x y       (10.3.2) . A equação (10.3.2) pode ser estimada.
  • 32. . Naturalmente, se i v for suficientemente pequeno, muito próximo de zero, (10.3.1) indicará uma colinearidade quase perfeita. Então retornaremos ao caso indeterminado de (10.2.2).
  • 35. • Apesar de serem MELNV, os estimadores de MQO têm grandes variâncias e covariâncias, dificultando uma estimativa precisa.
  • 36. As variâncias e covariâncias de 2 ̂ e 3 ̂ são dadas por:    ) 1 ( ) ˆ var( 2 23 2 2 2 2 r x i   (7.4.12)    ) 1 ( ) ˆ var( 2 23 2 3 2 3 r x i   (7.4.15)      2 3 2 2 2 23 2 23 3 2 ) 1 ( ) ˆ , ˆ ( i i x x r r Cov    (7.4.17) em que r23 é o coeficiente de correlação entre X2 e X3.
  • 37. . A partir de (7.4.12)    ) 1 ( ) ˆ var( 2 23 2 2 2 2 r x i   (7.4.12) - se aumentar r23 a variância aumenta; 0,302 = 0,09 0,902 = 0,81 - se r23 = 1 a variância é infinita.
  • 38. . A partir de (7.4.17)      2 3 2 2 2 23 2 23 3 2 ) 1 ( ) ˆ , ˆ ( i i x x r r Cov    (7.4.17) - se aumentar r23 a covariância aumenta; - se r23 = 1 a covariância é infinita.
  • 39. A velocidade com que as variâncias e covariâncias aumentam pode ser vista com o: - Fator de inflação da variância (FIV)   2 23 1 1 r FIV   (10.5.1)
  • 40. - A medida que r23 se aproxima de 1, o FIV aumenta   2 23 1 1 r FIV   - No limite, pode tornar-se infinita. - Se r23 = 0, o FIV é 1.
  • 41. . Portanto: FIV x i 2 2 2 2 ) ˆ var(     (10.5.2) FIV x i 2 3 2 3 ) ˆ var(     (10.5.3)
  • 42. (10.5.2) e (10.5.3) mostram que as variâncias de 2 ˆ  e 3 ̂ são diretamente proporcionais ao FIV. FIV x i 2 2 2 2 ) ˆ var(     (10.5.2) FIV x i 2 3 2 3 ) ˆ var(     (10.5.3)
  • 43. . Quando aumenta r23 têm um efeito impressionante sobre as variâncias e covariâncias dos estimadores.
  • 44. - a tabela 10.1 mostra os valores - quando r23 = 0,50 a 2 2 2 2 33 , 1 ) ˆ var( i x     - ou seja:   33 , 1 25 , 0 1 1    FIV
  • 45. - a tabela 10.1 mostra os valores - quando r23 = 0,50 a 2 3 2 2 2 3 2 66667 , 0 ) ˆ , ˆ cov( i i x x        - ou seja:   66667 , 0 25 , 0 1 50 , 0    FIV
  • 46. Tabela 10.1 Efeito dos aumentos de r23 sobre a variância e covariância. Valor de r23 VIF ) ˆ var( 2  ) ˆ , ˆ cov( 3 2   0,00 1,00 1,00 x A 0 0,50 1,33 1,33 x A 0,67 x B 0,70 1,96 1,96 x A 1,37 x B 0,90 5,26 5,26 x A 4,73 x B 0,95 10,26 10,26 x A 9,74 x B 0,97 16,92 16,92 x A 16,41 x B 0,99 50,25 50,25 x A 49,75 x B 0,995 100,00 100,00 x A 99,50 x B 0,999 500,00 500,00 x A 499,50 x B 2 2 2 i x A    e 2 3 2 2 2 . i i x x B     
  • 47. . Graficamente, pode-se ver o comportamento da ) ˆ var( 2  como função de r23. ) ˆ var( 2  2 2 2 i x A    5,26 A 1,33 A A 0,5 0,85 1,0 r23 Figura 10.2 Comportamento da ) ˆ var( 2  como função de r23. Ausência de Multicolinearidade porque r23 = 0
  • 48. . Os resultados que acabamos de examinar podem ser estendidos ao modelo com k variáveis. . Nesse modelo, a variância do k-ésimo coeficiente, pode ser expresso como:            2 2 2 1 1 ) ˆ var( j j j R x   (7.5.6) j ̂ = parâmetro do regressor Xj; 2 j R = R2 da regressão de Xj contra as (k – 2) regressões restantes ( o 2 refere- se a Xj e o intercepto)  2 2 j j j X X x    
  • 49. . Também podemos escrever (7.5.6) como: j j j FIV x    2 2 ) ˆ var(   (10.5.4) . da equação (10.5.4) verifica-se que: ) ˆ var( j  é proporcional a 2  e FIV, mas inversamente proporcional a 2 j x  .
  • 50. . Assim, a ) ˆ var( j  será grande ou pequena de acordo com: 1) 2  2) FIV 2) 2 j x 
  • 51. . Observe que o inverso do FIV é denominado tolerância (TOL) ) 1 ( 1 2 j j j R FIV TOL    . Se 1 2  j R (colinearidade perfeita), TOL = 0 e 0 2  j R , TOL = 1.
  • 53. Em virtude da conseqüência 1, o erro-padrão e o intervalo de confiança serão maiores. • A probabilidade de incorrer em erro do tipo II aumenta. • Erro tipo II: pode-se não rejeitar H0 quando, de fato, ela é falsa.
  • 55. Também por causa da conseqüência 1, a razão t de um ou mais coeficientes tende a ser estatisticamente insignificante. • Nos casos de alta colinearidade, os erros- padrão estimados aumentam substancialmente, tornando, em conseqüência, os valores t menores.
  • 56. • Assim, nesses casos, acabamos aceitando cada vez mais a hipótese nula de que o verdadeiro valor populacional relevante é zero.
  • 58. Embora a razão t de um ou mais coeficientes seja estatisticamente insignificante, R2, a medida global do grau de ajuste, pode ser bastante alto.
  • 59. • Os estimadores de MQO e seus erros-padrão podem ser sensíveis a pequenas variações nos dados.
  • 61. Observe as seguintes advertências: • 1 – Multicolinearidade é uma questão de grau e não de tipo. A distinção significativa a fazer não é entre a presença ou a ausência da multicolinearidade, mas entre seus diferentes graus.
  • 62. 2 – Como a multicolinearidade se refere à condição das variáveis explicativas, que supomos serem não-estocásticas, ela é uma característica da amostra, não da população.
  • 63. • Por isso, não fazemos um “teste da multicolinearidade”, mas podemos, se desejarmos, medir seu grau em uma amostra particular qualquer.
  • 64. • Como multicolinearidade é essencialmente um fenômeno da amostra, decorrente em boa parte de dados não experimentais coletados na maioria da ciências sociais, não temos um método único para detectá-la ou para medir sua intensidade.
  • 65. •Algumas regras práticas para detectar multicolinearidade
  • 66. 1 - Alto R2, porém poucas razões t significativas. • Se R2 for alto (acima de 0,8), o teste F, na maioria dos casos, rejeitará a hipótese de que os coeficientes de inclinação parcial são simultaneamente iguais a zero, mas os testes t individuais vão mostrar que nenhum ou muito pouco dos coeficientes de inclinação parcial são estatisticamente diferentes de zero.
  • 67. • Embora esse diagnóstico seja sensato, sua desvantagem é que ele é muito forte por que a multicolinearidade é considerada prejudicial somente quando todas as influências das variáveis explicativas sobre Y não podem ser separadas.
  • 68. 2 - Altas correlações dois a dois entre os regressores. • Se o coeficiente de correlação dois a dois ou de ordem zero for alto (acima de 0,8), então a multicolinearidade se constitui um sério problema.
  • 69. • O problema com esse critério é que, embora altas correlações de ordem zero possam sugerir colinearidade, não é necessário que elas sejam altas para haver colinearidade em qualquer caso específico.
  • 70. • Ou seja, altas correlações de ordem zero são condição suficiente, mas não necessária, para a existência da multicolinearidade, pois ela pode existir mesmo que as correlações simples ou de ordem zero seja relativamente baixas (menores que 0,5).
  • 71. Para ver esta relação, suponha que tenhamos um modelo de quatro variáveis: i i i i i u X X X Y      4 4 3 3 2 2 1     e suponha que: i i i X X X 3 3 2 2 4     em que 2  e 3  são constantes, sendo que ambos não podem ser iguais a zero.
  • 72. Obviamente, X4 é uma combinação linear exata de X2 e X3, dando 1 2 23 . 4  R , o coeficiente de determinação na regressão de X4 sobre X2 e X3.
  • 73. Considerando a fórmula (7.11.5): 2 23 23 43 42 2 43 2 42 2 23 . 4 1 2 r r r r r r R     (10.7.1) Mas como 1 2 23 . 4  R por causa da perfeita colinearidade, obtemos: 2 23 23 43 42 2 43 2 42 1 2 1 r r r r r r     (10.7.2) Verifica-se que (10.7.2) é satisfeita por r42 = 0,5, r43 = 0,5 e r23 = -0,5, que são valores não muito altos.
  • 74. • Portanto, em modelos que envolvam mais de duas variáveis explicativas, a correlação simples ou de ordem zero não nos dará um indício infalível da presença da multicolinearidade. • Naturalmente, se houver somente duas variáveis explicativas, as correlações de ordem zero serão suficientes.
  • 75. 3 - Exame das correlações parciais. Por causa do referido problema de se depender das correlações de ordem zero, Farrar e Glauber sugeriram que observemos os coeficientes de correlação parcial.
  • 76. Assim, na regressão de Y sobre X2, X3 e X4, uma verificação de que 2 234 . 1 R é bastante alto, porém 2 34 . 12 r , 2 24 . 13 r e 2 23 . 14 r são relativamente baixos, pode sugerir que as variáveis X2, X3, e X4 são altamente intercorrelacionadas e que pelo menos uma dessas variáveis é supérflua.
  • 77. Mas pode acontecer que o 2 234 . 1 R e 2 34 . 12 r , 2 24 . 13 r e 2 23 . 14 r sejam elevados. Nesse caso o exame das correlações parciais são inúteis. Nesse caso, o teste de correlação parcial de Farrar- Glauber é ineficaz, já que uma dada correlação parcial pode ser compatível com diferentes padrões de multicolinearidade, demonstrado por C.Robert Wichers.
  • 78. 4 - Regressões auxiliares. Como a multicolinearidade se manifesta porque um ou mais regressores são combinações lineares exatas ou aproximadas e outros regressores, um meio de descobrir qual variável X se relaciona com outras variáveis X é regredir cada Xi sobre as demais variáveis X e calcular o R2 correspondente, que designamos por 2 i R ;
  • 79. Cada uma dessas regressões é chamada de regressão auxiliar, auxiliar da regressão parcial de Y sobre os Xs. Então, de acordo com a relação entre F e R2 , a variável ) 1 /( ) 1 ( ) 2 /( 2 ... . 2 ... . 3 2 1 3 2 1      k n R k R F k k x x x x x x x x i (10.7.3) segue uma distribuição F com k - 2 e n – k +1 gl.
  • 80. Na equação (10.7.3), n indica o tamanho da amostra, k representa o número de variáveis explicativas, incluindo o termo de intercepto, e 2 ... . 3 2 1 k x x x x R é o coeficiente de determinação na regressão da variável Xi sobre as demais variáveis X.
  • 81. Se o F calculado excede o Fi crítico em nível de significância escolhido, podemos presumir que o Xi particular é colinear com outros Xs;
  • 82. Se o F não excede o Fi crítico, dizemos que Xi não é colinear com outros Xs, caso em que podemos manter essa variável no modelo. Se Fi for estatisticamente significativo, ainda teremos de decidir se o Xi particular deve ser excluído do modelo.
  • 83. As hipóteses são: H0 = ausência de multicolinearidade HA = presença de multicolinearidade
  • 84. Em vez de testar formalmente todos os valores de R2 auxiliares, podemos adotar a regra prática de Klein, que sugere que a multicolinearidade pode ser um problema incômodo somente se o R2 obtido de uma regressão auxiliar for maior que o R2 global, ou seja, o obtido de uma regressão de Y sobre todos os regressores.
  • 85. 5 - Tolerância e fator inflação da variância. Para o modelo de regressão de k variáveis [Y, intercepto e (k-1) regressores], a variância de um coeficiente de regressão parcial pode ser expresso como: ) 1 1 ( ) ˆ var( 2 2 2 j j j R x       (7.5.6) j j j FIV x    2 2 ) ˆ var(   (10.7.4)
  • 86. ) 1 1 ( ) ˆ var( 2 2 2 j j j R x       (7.5.6) j j j FIV x    2 2 ) ˆ var(   (10.7.4) em que j  é o coeficiente de regressão parcial do regressor Xj, 2 j R é o R2 na regressão (auxiliar) de Xj sobre os demais (k - 2) regressores e FIVj é o fator inflação da variância.
  • 87. À medida que 2 j R aumenta em direção à unidade, ou seja, conforme aumenta a colinearidade de Xj com os outros regressores, o FIV também aumenta e, no limite, pode ser infinito.
  • 88. Por isso, alguns autores usam o FIV como um indicador da multicolinearidade: quanto maior o valor do FIVj, mais “problemática” ou colinear é a variável Xj. ( 2 j R exceder 0,90)
  • 89. Como regra prática, se o FIV de uma variável for maior que 10, o que acontece quando 2 j R é maior que 0,90, diz-se que essa variável é altamente colinear.
  • 90. Por outro lado, quanto mais próxima de zero estiver o TOLj, maior o grau de colinearidade dessa variável com os demais regressores.
  • 91. Porém, deve-se ter cautela com o uso da FIV ou TOL, pois como mostra (10.5.4), a ) ˆ var( j  depende de três fatores: 2  , 2 j x  e FIVj. Um FIV elevado pode ser contrabalançado por um 2  baixo ou por um alto 2 j x  .
  • 92. • Finalmente, destacamos que os vários métodos vistos têm a natureza de “pescarias”, pois não podemos dizer qual desses métodos funciona em qualquer aplicação específica. • Isso ocorre porque a multicolinearidade é específica de uma amostra, o qual o pesquisador não tem controle.
  • 94. Tratamento da Multicolinearidade • A solução da multicolinearidade depende de: 1 - extensão do problema; 2 - da disponibilidade de outras fontes de dados (amostras maiores, amostras em cross section etc); 3 - da importância das variáveis multicolineares; 4 - do propósito da função que se deseja estimar; e 5 - de outras considerações.
  • 95. Tratamento da Multicolinearidade • Quando a multicolinearidade afeta seriamente os coeficientes estimados, ter-se-á de dar algum tratamento ao problema.
  • 96. Tratamento da Multicolinearidade • Os procedimentos mais comuns visando reduzir suas conseqüências são os seguintes: a . aumento do tamanho da amostra; b . uso de informação a priori sobre o valor da estimativa dos parâmetros, obtida de estudo prévio;
  • 97. Tratamento da Multicolinearidade c . transformação da relação funcional; d . exclusão das variáveis colineares; e . uso de razões ou primeiras diferenças.
  • 98. Tratamento da multicolinearidade • É importante salientar que a exclusão de variáveis explicativas visando atenuar o problema da multicolinearidade pode acarretar erros de especificação, se a variável excluída for teoricamente importante.
  • 99. Tratamento da multicolinearidade • O uso de razões pode provocar heterocedasticidade; • O uso de primeiras diferenças pode gerar problemas de autocorrelação serial.