07 tópico 6 - autocorrelação

10.314 visualizações

Publicada em

Publicada em: Educação
0 comentários
2 gostaram
Estatísticas
Notas
  • Seja o primeiro a comentar

Sem downloads
Visualizações
Visualizações totais
10.314
No SlideShare
0
A partir de incorporações
0
Número de incorporações
10
Ações
Compartilhamentos
0
Downloads
281
Comentários
0
Gostaram
2
Incorporações 0
Nenhuma incorporação

Nenhuma nota no slide

07 tópico 6 - autocorrelação

  1. 1. Econometria Tópico 6 – Regressão Múltipla Quebra dos pressupostos: Autocorrelação Ricardo Bruno N. dos Santos Professor Adjunto da Faculdade de Economia e do PPGE (Economia) UFPA
  2. 2. Lembre-se que os vídeos necessários para o acompanhamento dessa apresentação são todos os vídeos que iniciam por 08, e encontram-se dentro da pasta Vídeos no mediafire. Link do mediafire: http://www.mediafire.com/?q1dbpxh1b4uxo No Slideshare:
  3. 3. Quebra dos pressupostos: Autocorrelação O que acontece se os termos de erros são autocorrelacionados? Natureza do problema de autocorrelação. A autocorrelação pode ser definida como “correlação entre integrantes de séries de observações ordenadas no tempo [ como as séries temporais] ou no espaço [como os dados de corte transversal – cross section]. No contexto da regressão, o modelo clássico de regressão linear pressupõe que essa autocorrelação não existe nos termos de erro 𝑢𝑖 . Simbolicamente 𝑐𝑜𝑣 𝑢𝑖, 𝑢𝑗 𝑥𝑖, 𝑥𝑗 = 𝐸 𝑢𝑖 𝑢𝑗 = 0 𝑖 ≠ 𝑗
  4. 4. Quebra dos pressupostos: Autocorrelação Ou seja, o modelo clássico pressupõe que o termo de erro relacionado a qualquer uma das observações não é influenciado pelo termo de erro de qualquer outra observação. Porém o quando observa-se essa influencia podemos representa-la como 𝐸 𝑢𝑖 𝑢𝑗 ≠ 0 𝑖 ≠ 𝑗 Como exemplo poderíamos citar os fenômenos que ocorrem nas bolsas de valores, a presença de um novo polo de atração em um município, etc. Podemos verificar nas figuras a seguir alguns padrões, onde é possível verificar a autocorrelação.
  5. 5. Quebra dos pressupostos: Autocorrelação Ausência de auto
  6. 6. Quebra dos pressupostos: Autocorrelação Por quais motivos podem ocorrer a autocorrelação serial? Inércia – Uma das principais características das séries temporais econômicas é a inércia ou lentidão. Como sabemos, séries temporais como o PNB, índices de preços, a produção, o emprego e o desemprego registram ciclos (econômicos). Partindo do fundo da recessão, quando tem início a recuperação econômica, a maioria dessas séries começam a mover-se em um sentido ascendente. Nesse movimento, o valor da série em um ponto do tempo é maior que o anterior. Há um impulso embutido nele que continua até que algo aconteça (um aumento nas taxas de juros, nos impostos ou em ambos) para desacelerá-lo. Portanto, em regressões que envolvem séries temporais, as observações sucessivas tendem a ser interdependentes.
  7. 7. Quebra dos pressupostos: Autocorrelação Viés de especificação – podemos iniciar com um modelo de regressão que pode não ser o mais “adequado”. Depois de averiguarmos se tal modelo atendem ou não nossas expectativas, caso não atenda devemos verificar se a falta de alguma variável está influenciando nos resíduos ao ponto de causar os padrões que indicam a autocorrelação. Esse é o caso do VIÉS DE ESPECIFICAÇÃO DA VARIÁVEL EXCLUÍDA. Muitas vezes a inclusão de tais variáveis elimina o padrão de correlação observado entre os resíduos. Por exemplo, suponha o seguinte modelo de demanda: 𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + 𝛽3 𝑋3𝑡 + 𝛽4 𝑋4𝑡 + 𝑢 𝑡 Onde Y é a quantidade de carne bovina; X2 o preço da carne bovina; X3 a renda do consumidor; X4 o preço da carne suína; e t o tempo.
  8. 8. Quebra dos pressupostos: Autocorrelação Agora suponha que o modelo seja especificado de forma equivocada como abaixo: 𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + 𝛽3 𝑋3𝑡 + 𝑣 𝑡 Ou seja, estaríamos afirmando que o nosso erro na verdade tem a característica de incorporar também o preço da carne suína, logo: 𝑣 𝑡 = 𝛽4 𝑋4𝑡 + 𝑢 𝑡 E na medida que o preço da carne suína afeta o consumo da carne bovina, o termo de erro, v, refletirá um padrão sistemático, criando assim uma (falsa) autocorrelação.
  9. 9. Quebra dos pressupostos: Autocorrelação Viés de especificação: forma funcional incorreta – Já foi verificado em outras situações como a forma funcional pode afetar os resíduos, permitindo que seus resultados se afastem da reta de regressão. O mesmo fenômeno pode também gerar autocorrelação em nossa regressão. Imagine o modelo de Custo margina que segue um comportamento polinomial de grau dois, então: 𝐶𝑢𝑠𝑡𝑜 𝑚𝑎𝑟𝑔𝑖𝑛𝑎𝑙𝑖 = 𝛽1 + 𝛽2 𝑃𝑟𝑜𝑑𝑢çã𝑜𝑖 + 𝛽3 𝑃𝑟𝑜𝑑𝑢çã𝑜𝑖 2 + 𝑢𝑖 Mas ajustamos o modelo 𝐶𝑢𝑠𝑡𝑜 𝑚𝑎𝑟𝑔𝑖𝑛𝑎𝑙𝑖 = 𝛽1 + 𝛽2 𝑃𝑟𝑜𝑑𝑢çã𝑜𝑖 + 𝑣𝑖 Ou seja, teremos uma distância entre o que foi estimado e o que é o verdadeiro comportamento do modelo
  10. 10. Quebra dos pressupostos: Autocorrelação
  11. 11. Quebra dos pressupostos: Autocorrelação O fenômeno da teia de aranha - Esse aspecto está relacionado a influência que o comportamento de uma variável defasada causa e o tempo em que as alterações provenientes desse impacto levam para afetar a variável dependente. Um exemplo a ser verificado é o impacto dos preços sobre os produtos agrícolas. No início do plantio a safra deste ano, os agricultores estão influenciados pelo preço vigente no ano anterior, de modo que sua função oferta é: 𝑂𝑓𝑒𝑟𝑡𝑎 𝑡 = 𝛽1 + 𝛽2 𝑃𝑡−1 + 𝑢 𝑡 Imagine que, no final do período t, o preço 𝑃𝑡 é menor que 𝑃𝑡−1. Portanto, no período t+1, os agricultores podem decidir produzir menos que em t.
  12. 12. Quebra dos pressupostos: Autocorrelação Defasagens – Em uma regressão de despesas sobre a renda cujos dados são séries temporais, verificamos frequentemente que as despesas do período atual dependem, dentre outras coisas, das despesas do período anterior. Isto é, 𝐶𝑜𝑛𝑠𝑢𝑚𝑜𝑡 = 𝛽1 + 𝛽2 𝑟𝑒𝑛𝑑𝑎𝑖 + 𝛽3 𝐶𝑜𝑛𝑠𝑢𝑚𝑜𝑡−1 + 𝑢 𝑡 Uma regressão desse tipo é conhecida como autorregressão ou modelo autorregresivo. Isso porque, uma das variáveis explanatórias é o valor defasado da VARIÁVEL DEPENDENTE. A lógica destes modelos é simples, pois os consumidores não alteram facilmente os seus hábitos de consumo por motivos psicológicos, tecnológicos ou institucionais. Agora se negligenciarmos o termo defasado na equação o termo de erro resultante refletirá um padrão sistemático decorrente da influência do consumo anterior.
  13. 13. Quebra dos pressupostos: Autocorrelação Manipulação e transformação dos dados – A manipulação de dados em séries temporais surgirá da necessidade de se preencher buracos nas séries. Por exemplo, se quisermos analisar o censo demográfico do Brasil temos eles apenas para os anos de 1970, 80, 90, 2000 e 2010. E os anos entre esses períodos, como analisa-los. Já no que se refere a transformação, devemos usar algumas técnicas para permitir que as séries temporais se tornem estacionárias ao logo do tempo. Imagine o modelo 𝑌𝑡 = 𝛽1 + 𝛽2 𝑋𝑡 + 𝑢 𝑡 O modelo acima pode ter um padrão nos resíduos não sistemático que aparentemente não possuem influências determinísticas, mas podem ter influências estocásticas. Quando essa influencias estão presentes devemos eliminá-las, para fazer isso temos que diferenciar a série.
  14. 14. Quebra dos pressupostos: Autocorrelação A diferenciação da série ocorre pela subtração do modelo em nível com o modelo defasado, o modelo defasado seria: 𝑌𝑡−1 = 𝛽1 + 𝛽2 𝑋𝑡−1 + 𝑢 𝑡−1 Se tivermos 𝑌𝑡 − 𝑌𝑡−1, teremos: 𝑌𝑡 − 𝑌𝑡−1 = 𝛽1 + 𝛽2 𝑋𝑡 + 𝑢 𝑡 − 𝛽1 − 𝛽2 𝑋𝑡−1 − 𝑢 𝑡−1 ∆𝑌𝑡 = 𝛽2∆𝑋𝑡 + ∆𝑢 𝑡 Onde o ∆ é o operador de primeira diferença.
  15. 15. Quebra dos pressupostos: Autocorrelação ESTIMATIVAS DE MQO NA PRESENÇA DE AUTOCORRELAÇÃO O que acontece aos estimadores de MQO e suas variâncias se introduzirmos autocorrelações nos termos de erro, supondo que 𝐸(𝑢 𝑡 𝑢 𝑡+𝑠) ≠ 0 , mas mantivermos todas as outras hipóteses do modelo clássico? Vamos partir dessa visão tendo como base o modelo simples onde: 𝑌𝑡 = 𝛽1 + 𝛽2 𝑋𝑡 + 𝑢 𝑡 Como estamos supondo que o erro de hoje afeta o amanhã 𝐸(𝑢 𝑡 𝑢 𝑡+𝑠) ≠ 0, ou o de ontem afeta o hoje 𝐸(𝑢 𝑡 𝑢 𝑡−𝑠) ≠ 0, poderíamos então estabelecer que: 𝑢 𝑡 = 𝜌𝑢 𝑡−1 + 𝜀𝑡 − 1 < 𝜌 < 1
  16. 16. Quebra dos pressupostos: Autocorrelação O 𝜌 é conhecido como COEFICIENTE DE AUTOCOVARIÂNCIA e 𝜀𝑡 é o termo de erro estocástico, que segue as hipóteses padrão de MQO, onde: 𝐸 𝜀𝑡 = 0 𝑣𝑎𝑟 𝜀𝑡 = 𝜎𝜀 2 𝑐𝑜𝑣 𝜀𝑡, 𝜀𝑡+𝑠 = 0 𝑠 ≠ 0 Quando o termo de erro 𝜀𝑡 possui todas as propriedades acima apresentada ele é conhecido como RUÍDO BRANCO (WHITE NOISE). A regressão 𝑢 𝑡 = 𝜌𝑢 𝑡−1 + 𝜀𝑡 é conhecida como esquema AUTORREGRESSIVO DE PRIMEIRA ORDEM DE MARKOV, ou simplesmente processo autorregressivo de primeira ordem, designado por AR(1).
  17. 17. Quebra dos pressupostos: Autocorrelação Caso tivéssemos um modelo onde: 𝑢 𝑡 = 𝜌1 𝑢 𝑡−1 + 𝜌2 𝑢 𝑡−2 + 𝜀𝑡 Então teríamos um processo autorregressivo de segunda ordem AR(2). Podemos então representar a variância do processo AR(1) como: 𝐸 𝑢 𝑡 = 𝜌𝐸 𝑢 𝑡−1 + 𝐸 𝜀𝑡 𝐸 𝑢 𝑡 2 = 𝑣𝑎𝑟 𝑢 𝑡 𝑣𝑎𝑟 𝑢 𝑡 = 𝐸 𝜌2 𝑢 𝑡−1 2 + 𝐸 𝜀𝑡 2 + 2𝜌𝐸 𝑢 𝑡−1 𝜀𝑡 𝑣𝑎𝑟 𝑢 𝑡 = 𝜌2 𝐸 𝑢 𝑡−1 2 + 𝐸 𝜀𝑡 2 𝜎2 = 𝜌2 𝜎2 + 𝜎𝜀 2 𝜎2 = 𝜎𝜀 2 1 − 𝜌2
  18. 18. Quebra dos pressupostos: Autocorrelação Já a covariância é dada por 𝑐𝑜𝑣 𝑢 𝑡, 𝑢 𝑡+𝑠 = 𝐸 𝑢 𝑡, 𝑢 𝑡−𝑠 = 𝜌 𝑠 𝜎𝜀 2 1 − 𝜌2 E 𝑐𝑜𝑟 𝑢 𝑡, 𝑢 𝑡−𝑠 = 𝜌 𝑠 Assim temos que 𝑐𝑜𝑣 𝑢 𝑡, 𝑢 𝑡+𝑠 representa a covariância entre os termos de erro separados por s períodos e 𝑐𝑜𝑟 𝑢 𝑡, 𝑢 𝑡+𝑠 é a correlação entre os termos de erro separados por s períodos. Note que, devido à propriedade de simetria das covariâncias e correlações, 𝑐𝑜𝑟 𝑢 𝑡, 𝑢 𝑡−𝑠 = 𝑐𝑜𝑟 𝑢 𝑡, 𝑢 𝑡+𝑠 , e 𝑐𝑜𝑣 𝑢 𝑡, 𝑢 𝑡+𝑠 = 𝑐𝑜𝑣 𝑢 𝑡, 𝑢 𝑡−𝑠
  19. 19. Quebra dos pressupostos: Autocorrelação O que definirá se teremos um processo estacionário ou não é o valor de 𝜌. Vamos analisar a partir da equação abaixo: 𝑢 𝑡 = 𝜌𝑢 𝑡−1 + 𝜀𝑡 Note que se o 𝜌 for igual a 1 teremos o resíduo passado influenciando no resíduo presente. No entanto se ele for zero então teremos um processo ESTACIONÁRIO (que é o resultado ideal para os modelos de séries temporais), logo: 𝑢 𝑡 = 𝜀𝑡 - RUÍDO BRANCO
  20. 20. Quebra dos pressupostos: Autocorrelação Voltando para o modelo de regressão verificamos que por MQO podemos obter: 𝛽2 = 𝑥 𝑡 𝑦𝑡 𝑥 𝑡 2 E sua variância é dada por 𝑣𝑎𝑟 𝛽2 = 𝜎2 𝑥 𝑡 2 Sob a presença de um processo AR(1) teremos o seguinte comportamento: 𝑣𝑎𝑟 𝛽2 𝐴𝑅 1 = = 𝜎2 𝑥 𝑡 2 1 + 2𝜌 𝑥 𝑡 𝑥 𝑡−1 𝑥 𝑡 2 + 2𝜌2 𝑥 𝑡 𝑥 𝑡−2 𝑥 𝑡 2 +. . +2𝜌 𝑛−1 𝑥1 𝑥 𝑛 𝑥 𝑡 2
  21. 21. Quebra dos pressupostos: Autocorrelação No caso desse estimador podemos verificar que sua variância é determinada pela existência ou não da autocorrelação. Se  for diferente de zero então teremos uma variância que não será mínima. Com isso, não podemos concluir que o estimador seja EFICIÊNTE, apesar de ainda ser linear e não tendencioso. Porém, assim como o ocorrido com a heterocedasticidade, é possível encontrar, quando conhecemos a variância, o estimador de MQG, que por sua vez, será eficiente.
  22. 22. Quebra dos pressupostos: Autocorrelação*** O ESTIMADOR MELNT NA PRESENÇA DE AUTOCORRELAÇÃO Tendo ainda como referência o modelo de duas variáveis e suponde um processo AR(1), podemos mostrar que o MELNT pode ser obtido pela seguinte expressão: 𝛽2 𝑀𝑄𝐺 = 𝑡=2 𝑛 𝑥 𝑡 − 𝜌𝑥 𝑡−1 𝑦𝑡 − 𝜌𝑦𝑡−1 𝑡=2 𝑛 𝑥 𝑡 − 𝜌𝑥 𝑡−1 2 + 𝐶 Onde C é um fator de correção que pode ser desconsiderado na prática. A variância desse estimador é dada por: 𝑣𝑎𝑟 𝛽2 𝑀𝑄𝐺 = 𝜎2 𝑡=2 𝑛 𝑥 𝑡 − 𝜌𝑥 𝑡−1 2 + 𝐷 Onde D também é um fator de correção.
  23. 23. Quebra dos pressupostos: Autocorrelação Nesse caso, o estimador de 𝛽2 𝑀𝑄𝐺 é obtido por MQG. Ou seja, é incorporada a natureza da autocorrelação para corrigir o problema da autocorrelação.
  24. 24. Quebra dos pressupostos: Autocorrelação CONSEQUÊNCIAS DO USO DOS MQO NA PRESENÇA DE AUTOCORRELAÇÃO Assim como na heterocedasticidade, os estimadores de MQO ainda são lineares e não tendenciosos, porém tornam-se ineficientes. Vamos então verificar as consequências de se forçar a estimação dos betas ignorando o fenômeno da autocorrelação. Já verificamos que na presença da autocorrelação o estimador de MQG é o mais adequado, tendo em vista que esse estimador incorpora a influência que a autocorrelação estabelece nos erros.
  25. 25. Quebra dos pressupostos: Autocorrelação Quando não consideramos a autocorrelação a situação torna- se potencialmente muito grave, pois além de não utilizarmos 𝛽2 𝑀𝑄𝐺 , ainda continuamos a utilizar a 𝑣𝑎𝑟 𝛽2 = 𝜎2 𝑥 𝑡 2. Ou seja, estaremos incorrendo a erro pelas seguintes razões: 1) A variância residual 𝜎2 = 𝑢𝑖 2 /(𝑛 − 2) provavelmente subestimará o verdadeiro 𝜎2. 2) Como resultado, seremos levados a superestimar 𝑅2 . 3) Mesmo que 𝜎2 não seja subestimado, a 𝑣𝑎𝑟 𝛽2 pode subestimar a 𝑣𝑎𝑟 𝛽2 𝐴𝑅 1 , sua variância sob autocorrelação (de primeira ordem), embora esta última seja ineficiente em comparação com a 𝑣𝑎𝑟 𝛽2 𝑀𝑄𝐺 .
  26. 26. Quebra dos pressupostos: Autocorrelação 4) Por isso, os testes comuns de significância t e F deixa de ser válidos e, se aplicados, provavelmente nos levarão a conclusões extremamente equivocadas sobre a significância estatística dos coeficientes de regressão. Para demonstrarmos algumas dessas proposições, voltemos ao modelo de duas variáveis. Já vimos que: 𝜎2 = 𝑢𝑖 2 𝑛 − 2 Nos fornece um estimador não tendencioso de 𝜎2, isto é, 𝐸 𝜎2 = 𝜎2 . Porém, se houver autocorrelação, dada por AR(1), podemos demostrar que:
  27. 27. Quebra dos pressupostos: Autocorrelação 𝐸 𝜎2 = 𝜎2 𝑛 − 2 1 − 𝜌 − 2𝜌𝑟 𝑛 − 2 Em que 𝑟 = 𝑡=1 𝑛−1 𝑥 𝑡 𝑥 𝑡−1 / 𝑡=1 𝑛 𝑥 𝑡 2 , que pode ser interpretado como o coeficiente de correlação (amostral) entre os valores sucessivos dos X. Se 𝜌 e 𝑟 forem ambos positivos (o que não é improvável para a maioria das séries temporais econômicas), evidencia-se, pela equação acima, que 𝐸 𝜎2 < 𝜎2 ; a fórmula habitual da variância residual, em média, subestimará o verdadeiro 𝜎2. Em outras palavras, 𝜎2 terá um VIÉS descendente. Desnecessário dizer que esse viés do 𝜎2 será transmitido à 𝑣𝑎𝑟 𝛽2 , porque, na prática, estimamos esta última por meio da fórmula 𝜎2 𝑥 𝑡 2
  28. 28. Quebra dos pressupostos: Autocorrelação No entanto, mesmo que 𝜎2 não seja subestimado, a 𝑣𝑎𝑟 𝛽2 é um estimador tendencioso da 𝑣𝑎𝑟 𝛽2 𝐴𝑅 1 , o que pode ser facilmente visto comparando-se as duas equações quando 𝜌 = 1. Caso 𝜌 > 0 e os valores X forem positivamente correlacionados, então: 𝑣𝑎𝑟 𝛽2 < 𝑣𝑎𝑟 𝛽2 𝐴𝑅 1 Ou seja, a variância de beta 2 calculado por MQO subestima sua variância calculada sob AR(1). Se usarmos a 𝑣𝑎𝑟 𝛽2 , estaremos inflando a precisão ou exatidão (subestimaremos o erro padrão) do estimador 𝛽2. Com isso podemos dizer que a razão t 𝑡 = 𝛽2/𝑒𝑝( 𝛽2) estará sendo superestimado, ou seja, rejeitaremos facilmente a hipótese nula.
  29. 29. Quebra dos pressupostos: Autocorrelação Pelo gráfico abaixo podemos identificar que esse processo diminui a área de aceitação da hipótese nula:
  30. 30. Quebra dos pressupostos: Autocorrelação Exemplo: Relação entre salários e produtividade no setor empresarial dos EUA, 1960-2005. Neste exemplo será utilizada a Tabela 12.4
  31. 31. Quebra dos pressupostos: Autocorrelação IDENTIFICAÇÃO DA AUTOCORRELAÇÃO: O TESTE DURBIN- WATSON É um dos mais conhecidos testes de detecção da autocorrelação serial. Conhecido também como Estatística d de Durbin-Watson, ele é definido como: 𝑑 = 𝑡=2 𝑡=𝑛 𝑢 𝑡 − 𝑢 𝑡−1 2 𝑡=1 𝑡=𝑛 𝑢 𝑡 2 Que é a razão da soma das diferenças elevadas ao quadrado, entre resíduos sucessivos e a SQR. Perceba que, no numerador da estatística d, o número de observações é n-1, porque perde-se uma observação no cálculo das diferenças sucessivas.
  32. 32. Quebra dos pressupostos: Autocorrelação A principal vantagem da estatística d é que ela se baseia nos resíduos estimados, que costumam ser calculados na análise de regressão. Em razão dessa vantagem, agora se tornou prática comum informar o d de Durbi-Watson com outras medidas, como o 𝑅2 e o 𝑅2 ajustado, t e F. Embora atualmente seja empregado como rotina, é importante estar atento às hipóteses que fundamentam a estatística d: 1) O modelo de regressão inclui o termo de intercepto. Se não estiver presente, como no caso da regressão que passa pela origem, é essencial refazer a regressão, incluindo o intercepto para obter a SQR. 2) As variáveis explanatórias, os X, são não estocásticas, ou fixas, em amostras repetidas; (cont.)
  33. 33. Quebra dos pressupostos: Autocorrelação 3) Os termos de erro 𝑢 𝑡 são gerados pelo processo autorregressivo de primeira ordem: 𝑢 𝑡 = 𝜌𝑢 𝑡−1 + 𝜀𝑡 . Portanto, não podem ser usados para detectar processos autorregressivos de ordem mais elevada. 4) Pressupõe-se que o termo de erro 𝑢 𝑡 seja distribuído NORMALMENTE. 5) O modelo de regressão não inclui os valores defasados da variável dependente como uma das variáveis explanatórias. O teste não pode ser aplicado a modelos do seguinte tipo: 𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + 𝛽3 𝑋3𝑡 + ⋯ + 𝛽 𝑘 𝑋 𝑘𝑡 + 𝛾𝑌𝑡−1 + 𝑢 𝑡 Onde temos o valor defasado de Y em um período. Já vimos anteriormente que esses modelos são conhecidos como autorregressivos. (cont.)
  34. 34. Quebra dos pressupostos: Autocorrelação 6) Não faltam observações nos dados. Na regressão de salários-produtividade para o período de 1959-1998, se por alguma razão estivessem faltando observações para, por exemplo, 1978 e 1982, a estatística d não faria a concessão para essas observações faltantes.
  35. 35. Quebra dos pressupostos: Autocorrelação Outra forma de representação a estatística d é: 𝑑 = 𝑢 𝑡 2 + 𝑢 𝑡−1 2 − 2 𝑢 𝑡 𝑢 𝑡−1 𝑢 𝑡 2 Devemos ainda considerar que 𝑢 𝑡 2 ≈ 𝑢 𝑡−1 2 Assim podemos reescrever a estatística d como: 𝑑 ≈ 2 1 − 𝑢 𝑡 𝑢 𝑡−1 𝑢 𝑡 2
  36. 36. Quebra dos pressupostos: Autocorrelação Definindo: 𝜌 = 𝑢 𝑡 𝑢 𝑡−1 𝑢 𝑡 2 Então teremos: 𝑑 ≈ 2 1 − 𝜌 Assim como −1 ≤ 𝜌 ≤ 1 então teremos: 0 ≤ 𝑑 ≤ 4 Que são os limites de d, qualquer valor estimado deve ficar dentro desse limite.
  37. 37. Quebra dos pressupostos: Autocorrelação A estatística de Durbi-Watson é analisada considerando a seguinte estrutura:
  38. 38. Quebra dos pressupostos: Autocorrelação Há uma sistemática para se analisar o teste d. Verifique que se 𝜌 = 0 (que reflete a ausência de autocorrelação) teremos um 𝑑 = 2. Ou seja, o valor que temos como parâmetro para indicar ausência de autocorrelação é o d=2. Já o quanto mais próximo d estiver de zero maior a possibilidade de termos autocorrelação na série. Essa autocorrelação pode ser tanto positiva 𝜌 = 1 𝑒 𝑑 = 0, como negativa 𝜌 = −1 𝑒 𝑑 = 4. Ou seja, o quanto mais nos aproximamos de zero ou de quatro temos indícios de autocorrelação, por conta disto, temos que tomar cuidado com um intervalo de indeterminação presente na análise da estatística d.
  39. 39. Quebra dos pressupostos: Autocorrelação Podemos sistematizar então as seguintes etapas para a realização do teste d: 1) Efetua-se a regressão por MQO, e obtemos os resíduos; 2) Calcula-se d da equação 𝑑 = 𝑢 𝑡 2+ 𝑢 𝑡−1 2 −2 𝑢 𝑡 𝑢 𝑡−1 𝑢 𝑡 2 3) Para um dado tamanho da amostra e número de variáveis independentes, determinamos o valor 𝑑 𝐿 e 𝑑 𝑈 críticos; 4) Usamos a tabela abaixo para definir pela existência ou não de autocorrelação:
  40. 40. Quebra dos pressupostos: Autocorrelação Fazendo uso para o modelo de salários-produtividade vamos calcular passo a passo o teste de Durbin-Watson: Um teste geral de autocorrelação: O teste de Breusch- Godfrey (BG) Verificamos que apesar de sua simplicidade e praticidade, o teste Durbin-Watson possui mais elementos contra que prós. Com isso foi implementado o teste BG também conhecido como teste LM. O Procedimento do teste é feito da seguinte forma: 1º - Estima-se a regressão de interesse (esta pode ser com um número irrestrito de variáveis), usaremos o exemplo da regressão simples: 𝑌𝑡 = 𝛽1 + 𝛽2 𝑋𝑡 + 𝑢 𝑡
  41. 41. Quebra dos pressupostos: Autocorrelação Depois de estimada pegamos o resíduo da regressão e rodamos uma equação desses resíduos contra o número de defasagens do mesmo, ou seja, geramos, para os resíduos, um processo autorregressivo de ordem p, AR(p), pressupondo que os resíduos tenha um comportamento autorregressivo: 𝑢 𝑡 = 𝜌1 𝑢 𝑡−1 + 𝜌2 𝑢 𝑡−2 + ⋯ + 𝜌 𝑝 𝑢 𝑡−𝑝 + 𝜀𝑡 Com isso testaremos a seguinte hipótese nula: 𝐻0: 𝜌1 = 𝜌2 = ⋯ = 𝜌 𝑝 = 0 Ou seja, a hipótese nula remete a inexistência de autocorrelação nos resíduos. A conclusão nesse caso seria pela NÃO EXISTÊNCIA DE AUCORRELAÇÃO SERIAL.
  42. 42. Quebra dos pressupostos: Autocorrelação 2º - Depois vamos para o segundo passo, que é rodar a regressão auxiliar, que consiste em rodar o modelo dos resíduos contra seus elementos defasados e a variável independente do modelo: 𝑢 𝑡 = 𝛼1 + 𝛼2 𝑋𝑡 + 𝜌1 𝑢 𝑡−1 + 𝜌2 𝑢 𝑡−2 + ⋯ + 𝜌 𝑝 𝑢 𝑡−𝑝 + 𝜀𝑡 3º - Depois de rodada a regressão auxiliar, obtemos o seu R2 e aplicamos a seguinte estatística para obter o teste BG: 𝑛 − 𝑝 𝑅2 ~ 𝑝 2 Ou seja, iremos comparar o valor obtido pelo teste BG com uma tabela qui-quadrado com os graus de liberdade estabelecidos pelo número de defasagens no processo autorregressivo dos resíduos.
  43. 43. Quebra dos pressupostos: Autocorrelação A estatística BG possui algumas observações críticas: 1) Os regressores incluídos no modelo de regressão podem conter valores defasados do regressando Y, ou seja, 𝑌𝑡−1, 𝑌𝑡−2. O que é uma restrição complicada no Dirbin- Watson. 2) Como notado, o teste BG é aplicável mesmo que os termos de erro sigam um processo de média móvel (MA) de ordem p, ou seja, que os 𝑢𝑖 sejam gerados como abaixo: 𝑢 𝑡 = 𝜀𝑡 + 1 𝜀𝑡−1 + 2 𝜀𝑡−2 + ⋯ +  𝑝 𝜀𝑡−𝑝 3) Se na equação 𝑢 𝑡 = 𝜌1 𝑢 𝑡−1 + 𝜌2 𝑢 𝑡−2 + ⋯ + 𝜌 𝑝 𝑢 𝑡−𝑝 + 𝜀𝑡 tivermos apenas uma defasagem, p=1, teremos então apenas uma autorregressão de primeira ordem, dessa forma o teste BG passa a ter a denominação de teste M de Durbin.
  44. 44. Quebra dos pressupostos: Autocorrelação 4) Uma defasagem no teste BG , que é o valor de p, não pode ser especificada de antemão. É inevitável fazer experimentações com o valor de p. Às vezes, pode-se usar os chamados CRITÉRIOS DE INFORMAÇÃO de AKAIKE e SCHWARZ, para selecionar o número de defasagens. O melhor modelo será aquele que apresentar o menor valor para os dois critérios. 5) Dado os valores da variável X e os valores defasados de u, o teste supõe que a variância de u seja homocedástica. Vamos então verificar a aplicação do teste BG e o teste M de Durbin Utilizando ainda o exemplo da produtividade hora e remuneração média.
  45. 45. Quebra dos pressupostos: Autocorrelação Medidas corretivas da autocorrelação Basicamente, as medidas corretivas da autocorrelação consiste em verificar 4 importantes pontos: 1) Tentar verificar se trata-se de um caso de autocorrelação pura e não resultado da especificação equivocada do modelo, ou até mesmo de ambas. 2) Se for autocorrelação pura, podemos usar a transformação adequada do modelo orignial de modo que, no modelo transformado não tenhamos o problema de autocorrelação (pura). Como no caso de heterocedasticidade, teremos de usar algum tipo de método de mínimos quadrados generalizados (MQG).
  46. 46. Quebra dos pressupostos: Autocorrelação 3) Em amostras grandes, podemos usar o método Newey- West para obter os erros padrão dos estimadores de MQO que estão corrigidos para a autocorrelação. Esse método na verdade é uma extensão do de erros padrão consistentes para heterocedasticidade de White examinado no tópico anterior. 4) Em algumas situações podemos continuar a usar o método dos MQO.
  47. 47. Quebra dos pressupostos: Autocorrelação Especificação equivocada do modelo versus autocorrelação pura. Já verificamos antecipadamente o problema da forma funcional, mas pelo teste BG verificamos que ainda persiste o problema da autocorrelação, isso então é um forte indício da existência de autocorrelação pura. Dessa forma temos que passar a verificar outros procedimentos até chegar a correção.
  48. 48. Quebra dos pressupostos: Autocorrelação Correção da autocorrelação pura: o método dos MQG Para verificar o processo de correção, vamos partir do modelo de regressão linear simples onde: 𝑌𝑡 = 𝛽1 + 𝛽2 𝑋𝑡 + 𝑢 𝑡 E vamos supor que os resíduos sigam um processo AR(1): 𝑢 𝑡 = 𝜌𝑢 𝑡−1 + 𝜀𝑡 O que irá definir o método que utilizaremos é conhecer ou não esse valor do rô.
  49. 49. Quebra dos pressupostos: Autocorrelação QUANDO O  É CONHECIDO Se o coeficiente de autocorrelação de primeira ordem for conhecido, o problema da autocorrelação pode ser resolvido facilmente. Se a equação da regressão simples for verdadeira no tempo t, também será verdadeira no tempo defasado em um período, assim: 𝑌𝑡−1 = 𝛽1 + 𝛽2 𝑋𝑡−1 + 𝑢 𝑡−1 Multiplicando a última equação por  e subtraindo da regressão no tempo t teremos: 𝑌𝑡 − 𝜌𝑌𝑡−1 = 𝛽1 1 − 𝜌 + 𝛽2 𝑋𝑡 − 𝜌𝑋𝑡−1 + 𝑣 𝑡 Onde 𝑣 𝑡 = (𝑢 𝑡 − 𝜌𝑢 𝑡−1) Assim teríamos 𝑌𝑡 ∗ = 𝛽1 ∗ + 𝛽2 ∗ 𝑋𝑡 ∗ + 𝑣 𝑡
  50. 50. Quebra dos pressupostos: Autocorrelação Uma vez que o erro da equação anterior satisfaz as usuais hipóteses de MQO, podemos aplicar o MQO às variáveis transformadas Y* e X* e obter os estimadores MELNT. Ou seja, essa transformação nada mais é que o MQG. A equação anterior é conhecida também como equação em diferenças generalizadas, ou quase equação de diferenças.
  51. 51. Quebra dos pressupostos: Autocorrelação QUANDO O  NÃO É CONHECIDO Dada a impossibilidade de conhecermos o rô, teremos que encontrar novas formas de corrigir a autocorrelação no modelo. A seguir veremos alguns métodos. O método da primeira diferença. Um vez que −1 ≤ 𝜌 ≤ 1 podemos começar das duas posições extremas. Em um dos extremos, =0, não há autocorrelação serial (de primeira ordem) e no outro 𝜌 = ±1, há correlação serial positiva ou negativa. Assim, na equação de primeira diferenças teremos: 𝑌𝑡 − 𝑌𝑡−1 = 𝛽2 𝑋𝑡 − 𝑋𝑡−1 + (𝑢 𝑡 − 𝑢 𝑡−1) ∆𝑌𝑡 = 𝛽2∆𝑋𝑡 + 𝜀𝑡
  52. 52. Quebra dos pressupostos: Autocorrelação Quando utilizar a primeira diferença? Madalla sugere que esse processo seja utilizado quando a estatística de Durbin- Watson for sempre menor que o R2, ou seja, 𝑑 < 𝑅2. Esse é o caso da regressão de remuneração e produtividade, pois o d=0,2176 e 𝑅2 = 0,9845. No caso pelo desenvolvimento da própria diferença, não é comum entrar a constante no modelo, porém, geralmente nos testes de raízes unitárias poderemos inserir a constante assim como a componente tendência. Vamos agora verificar como fica o modelo com a inserção da primeira diferença.
  53. 53. Quebra dos pressupostos: Autocorrelação O teste de Berenblutt-Webb: Existe um pequeno problema com a primeira diferença de variáveis, é que nessa situação temos que ter a condição de que =1. O teste que verifica essa hipótese é o teste de Berenblutt-Webb que será denominado por estatística g. Algebricamente podemos encontra-lo da seguinte forma: 𝑔 = 2 𝑛 𝑒𝑡 2 1 𝑛 𝑢 𝑡 2 Onde 𝑢 𝑡 são os resíduos de MQO da regressão original (na forma de nível e 𝑒𝑡 são os resíduos de MQO da regressão de primeiras diferenças. Lembre-se de que na forma de primeiras diferenças não existe o intercepto.
  54. 54. Quebra dos pressupostos: Autocorrelação Nos recorreremos novamente a tabela Durbin-Watson para realizar esse teste e teremos como hipótese nula: 𝐻0: 𝜌 = 1 Vamos verificar de forma prática o teste g utilizando o exemplo da remuneração média contra a produtividade.
  55. 55. Quebra dos pressupostos: Autocorrelação FORMAS DE ENCONTRAR O . Temos agora que verificar algumas formas possíveis de encontrarmos o valor de rô. Vamos a algumas delas. *  com base na estatística Durbin-Watson: Caso estejamos impossibilitados de usar a transformação das primeiras diferenças, porque  não está suficientemente próximo a 1, podemos a partir do teste de Durbin-Watson encontrar esse valor de . Para entender esse processo devemos lembrar que: 𝑑 = 2(1 − 𝜌) Assim podemos concluir que: 𝜌 ≈ 1 − 𝑑 2 Vamos verificar isso na equação de salários
  56. 56. Quebra dos pressupostos: Autocorrelação ** O  estimado pelos resíduos: a partir da regressão dos resíduos dada pelo processo AR(1), poderemos encontrar o valor de . Ou seja, o valor do coeficiente angular do resíduo defasado será uma proxy do rô. 𝑢 𝑡 = 𝜌𝑢 𝑡−1 + 𝑣 𝑡
  57. 57. Quebra dos pressupostos: Autocorrelação O Método de Newey-West para corrigir os erros padrão do MQO. Em vez de utilizarmos o MQG, podemos corrigir os erros- padrão para autocorrelação por um procedimento desenvolvido por Newey e West. Essa técnica é nada mais nada menos que uma extensão dos erros-padrão consistentes de White. Esses erros corrigidos são conhecidos como erros padrão consistentes para heterocedasticidade e autocorrelação (CHA), ou simplesmente erros-padrão de Newey-West. Tal teste é válido apenas para grandes amostras e pode não ser adequado para pequenas amostras. Vamos ver no Gretl como estimar a regressão de salários fazendo uso desse método.
  58. 58. FIM DO TÓPICO 5

×