AUTOCORRELAÇÃO DOS RESÍDUOS

 UNIVERSIDADE FEDERAL DA PARAÍBA

Autores

Prof. Dr. Sinézio Fernandes Maia

Josué de Meneses Lopes

Data de Publicação

14 de maio de 2024

Objetivos

Apresentar o problema de autocorrelação residual para o modelo estimado por MQO, bem como sua correção.

Livro Texto:

GUJARATI, D. N. Econometria Básica. São Paulo: MAKRON Books, 2006. Capítulo 12 (p.401).

1. INTRODUÇÃO

Se violada a hipótese do modelo clássico de regressão linear de que os erros (et) são aleatórios e não-correlacionados, cria-se um problema da autocorrelação residual. O termo autocorrelação pode ser definido como correlação entre membros de séries de observações ordenadas no tempo ou no espaço (dados de coorte). O modelo clássico de regressão linear supõe que o termo de erro referente a uma observação qualquer não é influenciado pelo termo de erro referente a uma outra observação qualquer. A autocorrelação pode ocorrer por diversas razões tais como inércia, erro de especificação resultante da exclusão de variáveis importantes ao modelo, uso de uma forma funcional incorreta, bem como a manipulação incorreta da base de dados.

Embora os estimadores de MQO permaneçam não-viesados e consistentes, na presença de autocorrelação, eles deixam de ser eficientes (variância não mínima). Como resultado, os testes de significância (t) e (F) usuais não podem ser legitimamente aplicados. Por isso, são necessárias medidas corretivas.

Naturalmente, antes de corrigir a autocorrelação, é preciso detectá-la. Há diversos métodos de detecção, dos quais o mais célebre é a estatística (d) de Durbin-Watson (1951).

2. NATUREZA DO PROBLEMA

Admita a hipótese 4 - Ausência de Autocorrelação: o erro associado a uma observação é estatisticamente independente do erro associado à outra observação, ou seja, a ocorrência de um erro ei, não afeta a possibilidade de ocorrência de outro valor em ei . Cov (ei,ej) = 0 com i $$ j.

Significa dizer que os erros não são relacionados entre si. Por independência, entende-se que a probabilidade de ocorrência de dado erro (ei) não é afetada pelo valor eventualmente assumido por qualquer outro (ej). Esta pressuposição implica em covariância, e por conseqüência, correlação nula entre quaisquer pares de erros ao longo das n observações. Tecnicamente, esta pressuposição é conhecida por “ausência de autocorrelação” dos erros do modelo.

\[cov(\varepsilon _i,\varepsilon _j)=E\left \{ \left [ \varepsilon _i-E(\varepsilon _i) \right ]\left \lfloor \varepsilon _j-E(\varepsilon _j) \right \rfloor \right \}\]

\[se,E(\varepsilon _i)=E(\varepsilon _j)=0\]

\[Cov(\varepsilon _i,\varepsilon _j)=E(\varepsilon _i\varepsilon _j)\]

\[Hipótese: E(\varepsilon _i\varepsilon _j)=0\]

Assim, no contexto de análise de regressão, o modelo clássico de regressão linear supõe que não existe autocorrelação nos erros,

\[E(\varepsilon _i\varepsilon _j)=0 \text { } \text { } \text { } \forall i\neq j\]

Em geral, o mecanismo gerador da autocorrelação está baseado no esquema autoregressivo de primeira ordem de MARKOV, que supõe que a perturbação no período corrente se relacione linearmente com o termo de perturbação no período anterior. Entretanto, é importante primeiro detectar a natureza deste problema, que pode ser devido a:

  • Viés de especificação: forma funcional errada;

  • Viés de especificação: omissão de variável explicativa (\(X_{ij}\)) e, talvez seja a principal razão da autocorrelação;

  • Erro de medida: atribuído à manipulação incorreta da base de dados;

  • Defasagens: efeito auto-regressivo (retardado) não especificado. Uma variável explicativa pode entrar no modelo com valor defasado de sua própria variável como uma variável dependente (exemplo: os consumidores não alteram seus hábitos facilmente);

  • Inércia: uma característica básica das séries econômicas é a inércia, ou rigidez. O valor de uma série pode apresentar um impulso em suas sucessivas observações. Um modelo que apresente autocorrelação residual pode ser especificado da seguinte forma:

\[Y_t=\beta _0+\beta _1X_1+\beta _2X_2+\varepsilon _t\]

a) admitindo a hipótese de autocorrelação de primeira ordem, onde \(\varepsilon _i\varepsilon _j)=0 \text { } \text { } \text { } \forall i\neq j\), o modelo gerador de resíduos é representado por:

\[\varepsilon _t=\rho \varepsilon _{t-1}+v_{t} \text{,} \text{ } \text{ } -1<\rho <1\]

\[\rho =\frac{E\left \{ \left [ (\varepsilon _t-E(\varepsilon _t) \right ]\left [ \varepsilon _{t-1}-E(\varepsilon _{t-1}) \right ] \right \})}{\sqrt{Var(\varepsilon _t)Var(\varepsilon _{t-1})}}\Leftrightarrow \rho \frac{E(\varepsilon _t\varepsilon _{t-1})}{Var(\varepsilon _{t-1})}\]

onde para o \(\rho\) estimado têm-se a seguinte alternativa:

\[\widehat{\rho}=\frac{\sum_{t=2}^{T}(e_t-\overline{e})(e_{t-1}-\overline{e})}{\sum_{t=2}^{T}(e_t-\overline{e})^2}\Leftrightarrow \frac{\sum_{t=2}^{T}e_te_{t-1}}{\sum_{t=1}^{T}e_t^2}\]

em que r é conhecido como coeficiente de autocovariância e o resíduo do período “t” relacionado com período “t-1”. Este esquema é conhecido como esquema autoregressivo de primeira ordem de Markov, indicado por AR(1). O nome autoregressivo é adequado pois pode ser interpretado como a regressão do termo de erro sobre si mesmo defasado em um período.

b) Admitindo a hipótese de autocorrelação de segunda ordem;

\[\varepsilon _t=\rho _1\varepsilon _{t-1}+\rho _2\varepsilon _{t-2}+v_t\]

onde, o resíduo do período “t” relacionados com “t-1” e “t-2”, indicado por AR(2)

O que estas equações postulam é que o movimento ou mudança do termo de erro consiste em duas partes: a parte responsável por mudanças sistemáticas riet-i e a parte que é puramente aleatória.

Obs: a princípio não há nenhuma razão para não adotarmos AR(3), AR(4) ou AR(p). Poderíamos também adotar que o erro é gerado por um mecanismo da seguinte forma:

\[ \varepsilon _t=v_t+\lambda _1v_{t-1}+\lambda _2v_{t-2}... \]

Este esquema de geração do erro é conhecido como esquema de média móvel MA(2). Poderíamos também considerar esquemas MA de ordens maiores, MA(q). Além disso, poderíamos supor que o termo de erro fosse gerado por uma combinação dos dois processos AR e MA que é chamado de um esquema ARMA(p,q).

Observação importante: em geral usa-se um AR(1) pela sua simplicidade e por apresentar uma quantidade considerável de trabalhos teóricos e empíricos corroborando esta hipótese.

3. CONSEQUÊNCIAS DA AUTOCORRELAÇÃO

São basicamente as mesmas da Heterocedasticidade, ou seja, o estimador é linear, não- tendencioso mas não é eficiente (não tem variância mínima).

4. TESTE INFORMAL DE AUTOCORRELAÇÃO

Após estimação por MQO, elabora-se um gráfico somente dos resíduos ao longo do tempo. Muitas vezes o exame visual dos resíduos nos fornece alguma pista sobre a possível presença de autocorrelação residual. Alternativamente pode-se apresentar os resíduos padronizados, isto é, divididos pelo erro padrão da estimativa \(\frac{\widehat{\varepsilon} }{\sqrt{\widehat{\sigma }^2}}\) , que representará valores destituídos de unidades de medida. Dessa forma, pode se comparar estes resíduos com resíduos padronizados de outras regressões. A apresentação do gráfico dos resíduos pode apresentar as seguintes características:

5. TESTE FORMAL DE AUTOCORRELAÇÃO SERIAL

5.1. TESTE (d) DE DURBIN-WATSON

Admita o caso de autocorrelação de primeira ordem AR(1),

\[\varepsilon _t=\rho \text{ }\varepsilon _{t-1}+v_t\]

O teste de Durbin-Watson se refere ao teste das seguintes hipóteses:

\(H_0 :\rho =0\) Implica que o período “t” não seja relacionado com período “t-1”.

\(HA :\rho >0\) Implica autocorrelação Positiva

\(HA :\rho <0\) Implica autocorrelação Negativa

Estatística de Teste

\[\widehat{\rho }=\frac{\sum \widehat{\varepsilon}_t\widehat{\varepsilon }_{t-1}}{\sum \widehat{\varepsilon }_t^2}\]

Relação de \(d\) com \(\rho\) (coeficiente de autocorrelação)

\(d = 2 (1 - \rho)\) - relação existente

então,

\(\rho = 0 \Rightarrow d = 2\) ==> significa não autocorrelação

\(\rho = 1 \Rightarrow d = 0\) Autocorrelação positiva

\(\rho = -1 \Rightarrow d = 4\) Autocorrelação negativa

Exemplo de utilização da Régua

Observar o DW = Durbin-Watson (saída do computador ou cálculo)

d = 2,38

n = 20

k’ = 3 (Variáveis Explicativas) - Observar na tabela de DW K’= 3 e n=20: (intervalo de 0,998 e 1,676)

Regra Prática: se (d) for próximo de 2 em uma aplicação, podemos presumir que não há autocorrelação de primeira ordem, seja positiva ou negativa (pg 424).

Observações sobre o teste de DW.

A) a regressão deve conter um intercepto;

B) X não-estocástico: não é válido quando existe Y defasado como variável explicativa;

C) O teste d só testa a autocorrelação de primeira ordem;

D) problemas com as regiões inconclusivas: embora popular, o teste d apresenta a desvantagem quando seu valor cai na região de ignorância. Não podemos concluir se existe ou não autocorrelação.

O teste não deve ser usado para experimentar a autocorrelação residual em modelos auto-regressivos, ou seja, modelos que contenham valores defasados da variável dependente como variável explicativa. Para este caso há a estatística h, desenvolvida por Durbin (será analisado posteriormente pg. 611- o teste h de Durbin).

5.2. Teste de Durbin Watson no R

Código
library(lmtest)
dwtest(regressao)

    Durbin-Watson test

data:  regressao
DW = 0.87438, p-value = 0.000000001565
alternative hypothesis: true autocorrelation is greater than 0

5.3. Teste de Breusch-Godfrey (BG) de Autocorrelação de Ordem Superior

Supondo que o termo de erro é gerado por um processo AR(p)

\[\varepsilon _t=\rho _1\varepsilon _{t-1}+\rho _2\varepsilon _{t-2}+...+\rho _p\varepsilon _{t-p}+v_t\]

admite-se que a hipótese nula seja de que

\[H0:\rho _1=\rho _2=...=\rho _p=0\]

isto é, todos os coeficientes autoregressivos são simultaneamente iguais a zero, ou seja, não há autocorrelação de ordem alguma. Para testar a hipótese nula segue-se os seguintes passos:

1) Estime o modelo por MQO e obtenha os resíduos;

2) Estime os resíduos contra todos os regressores do modelo mais os resíduos defasados; obtenha o \(R^2\) desta regressão

\[\varepsilon _t=\alpha _0+\alpha _1X_{1t}+\alpha _2X_{2t}+\rho _1\varepsilon _{t-1}+\rho _2\varepsilon _{t-2}+v_t\]

3) Breusch-Godfrey mostraram que assintoticamente pode-se testar a seguinte estatística onde p é o número de regressores adicionais (valores defasados dos resíduos),

\[(n-p)R^2\sim X_p^2\]

  • Se o valor calculado exceder o valor crítico de qui-quadrado em nível de significância escolhido, rejeita-se a hipótese nula, caso em que pelo menos um r é significativamente diferente de zero.

Obs: Uma desvantagem do teste de BG é que o número de defasagem não pode ser especificado a priori. É inevitável algum experimento com o valor de p (defasagem).

Este teste representa um teste de Multiplicador de Lagrange (LM) em que se assume amostra assintótica e a estatística se calcula como o produto do tamanho amostral e o coeficiente de determinação da regressão auxiliar dos resíduos em função de (p) defasagens.

5.4. Teste de Breusch-Godfrey no R

Código
bgtest(regressao, order = 4)

    Breusch-Godfrey test for serial correlation of order up to 4

data:  regressao
LM test = 63.365, df = 4, p-value = 0.0000000000005685

5.5. CORREÇÃO DA AUTOCORRELAÇÃO

Como, na presença de autocorrelação residual, os estimadores de MQO são ineficientes, é essencial procurar medidas corretivas.

1) Admitindo a hipótese de que \(\rho\) não seja conhecido, podemos obtê-lo a partir da estatística (d) de Durbin-Watson. Admita a seguinte relação:

\[d\cong 2(1-\widehat{\rho })\]

então,

\[\widehat{\rho }\cong 1-\frac{d}{2}\]

A hipótese de que \(\widehat{\rho }= +1\) só é válida se \(d=0\). Se \(d=2\) implica que \(\widehat{\rho }=0\). Em geral esta forma de obter o \(\widehat{\rho }\) é válida somente uma aproximação e pode não ser válida para pequenas amostras.

2) Outra alternativa para estima \(\rho\) é o processo iterativo de Cochrane-Orcutt, que usa os resíduos estimados para obter informações sobre o r desconhecido. Admita o seguinte modelo,

\[Y_t=\beta _0+\beta _1X_{1t}+\beta _2X_{2t}+\varepsilon _t\]

E suponha que o resíduo seja gerado por um esquema AR(1)

\[\varepsilon _t=\rho \text{ }\varepsilon _{t-1}+v_t\]

Usando o (\(\rho\)) obtido, rode a equação de diferença generalizada da seguinte forma:

para o período “t-1” multiplicar por \(\rho\):

\[Y_t=\beta _0+\beta _1X_{1t}+\beta _2X_{2t}+\varepsilon _t\]

\[\rho Y_t=\rho \beta _0+\rho \beta _1X_{1t}+\rho \beta _2X_{2t}+\rho \varepsilon _t\]

Subtrair:

\[Y_t=\beta _0+\beta _1X_{1t}+\beta _2X_{2t}+\varepsilon _t\]

\[\rho Y_t=\rho \beta _0+\rho \beta _1X_{1t}+\rho \beta _2X_{2t}+\rho \varepsilon _t\]

\[\rho Y_t=\rho \beta _0+\rho \beta _1X_{1t}+\rho \beta _2X_{2t}+\rho \varepsilon _t\]

\[Y_t-\rho Y_t=\beta _0-\rho \beta _0+\beta _1X_{1t}-\rho \beta _1X_{1t}+ \beta _2X_{2t}-\rho\beta _2X_{2t}+\varepsilon _t+\rho \varepsilon _t\]

\[Y_t-\rho Y_t=\beta _0-\rho \beta _0+\beta _1X_{1t}-\rho \beta _1X_{1t}+ \beta _2X_{2t}-\rho\beta _2X_{2t}+\varepsilon _t+\rho \varepsilon _t\]

\[Y_t-\rho Y_{t-1}=\beta _0(1-\rho)+\beta _1(X_{1t}-\rho X_{1t-1})+\beta _2(X_{2t}-\rho X_{2t-1})+v_t\]

\[Y^*_t=\beta _0+\beta _1X^*_{2t}+v_t\]

Erro:

\[\varepsilon _t-\rho \text{ }\varepsilon _{t-1}=v_t\]

precisamos de \(\rho\), pois somente ele caracteriza a autocorrelação.

O Processo usual para obter o melhor \(\rho\) é o processo iterativo de Cochrane-Orcutt consiste em rodar a regressão transformada o obter novos resíduos até que repetições sucessivas divergirem entre si por uma pequena quantia. Na prática serão suficientes três ou quatro repetições.

6. Modelo Auto-Regressivo de Heteroscedasticidade Condicional (ARCH) - Uma Nota

Há uma crença convencional de que o problema da autocorrelação é uma característica de séries temporais e que a heteroscedasticidade é uma característica de dados de corte. Entretanto, a heteroscedasticidade pode ocorrer em séries de tempo.

Pesquisadores que se dedicam a prever séries de tempo financeira, observaram que sua capacidade de prever oscila consideravelmente de um período para outro: para alguns períodos os erros de previsão são relativamente pequenos, para outros eles são relativamente grandes. Tal variabilidade pode ser responsável pela alta volatilidade no mercado financeiro, sensível a rumores, mudanças nas políticas monetária e fiscal. Isto sugere que a variância dos erros de previsão não é constante mas varia de um período para outro.

Para capturar a correlação entre os erros de previsão e o comportamento dos resíduos, Engle (1982) propõe o modelo ARCH. A idéia é que a variância do resíduo depende do tamanho do termo de erro elevado ao quadrado no instante anterior, ou

\[\varepsilon _t\sim N\left \lfloor 0,(\alpha _0+\alpha _1\varepsilon ^2_{t-1}) \right \rfloor\]

o erro se distribui com média zero e variância de 2 a ae 0 11 + t- . Observe que a variância do erro depende do quadrado da observação no instante anterior (t-1), dando assim a aparência de autocorrelação residual - ARCH(1). Mas pode-se generalizar facilmente para ARCH(p).

Como demonstrou Engle, pode-se fazer um teste de hipótese nula da seguinte regressão:

\[\widehat{\varepsilon }^2_t=\widehat{\alpha }_0+\widehat{\alpha }_1\widehat{\varepsilon }^2_{t-1}+\widehat{\alpha }_2\widehat{\varepsilon }^2_{t-2}+...+\widehat{\alpha }_p\widehat{\varepsilon }^2_{1-p}\]

assim pode-se testar a hipótese nula por meio do teste F ou calculando \(nR^2\), em que \(R^2\) é o coeficiente de determinação da regressão acima. Mostra-se:

\[nR^2\sim X^2_p\]

Uma (G)eneralização do modelo ARCH é o chamado modelo GARCH, em que a variância depende não somente de perturbações ao quadrado passadas, mas também de variâncias condicionais passadas.

6.1. Teste ARCH no R

Código
library(FinTS)
ArchTest(residuos, lags = 4)

    ARCH LM-test; Null hypothesis: no ARCH effects

data:  residuos
Chi-squared = 53.304, df = 4, p-value = 0.0000000000736