Este guia reúne todos os tópicos e fórmulas essenciais para a prova
de Econometria I. Há explicações passo a passo, demonstrações
algébricas, exemplos numéricos e orientações sobre testes de hipóteses
(t, F, Jarque-Bera), tudo baseado nas P1’s dos semestres 2023/2 e
2024/1.
1. Modelo de Regressão Linear Múltipla (MRLM)
1.2. Variações de Especificação
Modelo em Níveis
\[
Y = \beta_{0} + \beta_{1}X_{1} + \beta_{2}X_{2} + \dots + \beta_{k}X_{k}
+ u.
\]
Interpretação: \(\beta_{j}\) = variação
absoluta em \(Y\) quando \(X_{j}\) varia 1 unidade (ceteris
paribus).
Log-Log (Duplo Logaritmo)
\[
\ln Y = \beta_{0} + \beta_{1}\,\ln X_{1} + \dots + \beta_{k}\,\ln X_{k}
+ u.
\]
- \(\beta_{j}\) é a elasticidade
aproximada: \(\partial \ln Y / \partial \ln
X_{j}\).
- Interpretação: “Um aumento de 1% em \(X_{j}\) ⇒ variação de \(\beta_{j}\)% em \(Y\).”
Log-Nível
\[
\ln Y = \beta_{0} + \beta_{1}\,X_{1} + u.
\]
- \(\beta_{1}\) ≈ variação percentual
de \(Y\) dada variação de 1 unidade em
\(X_{1}\), desde que \(\beta_{1}\) seja relativamente
pequeno.
Nível-Dummy
\[
Y = \beta_{0} + \beta_{1}D + u,
\quad D =
\begin{cases}
1, & \text{se condição for verdadeira} \\
0, & \text{caso contrário.}
\end{cases}
\]
- \(\beta_{1}\) = diferença média de
\(Y\) quando \(D=1\) versus \(D=0\).
Log-Dummy
\[
\ln Y = \beta_{0} + \beta_{1}D + u.
\]
- Interpretação aproximada: \(\beta_{1}
\approx 100\% \times (\exp(\beta_{1}) - 1)\).
- Se \(\beta_{1}\) for pequeno, \(\exp(\beta_{1}) - 1 \approx \beta_{1}\),
então “\(\beta_{1}\times 100\)% de
diferença percentual em \(Y\).”
2. Hipóteses Clássicas (Gauss-Markov + Normalidade)
Para que os estimadores de Mínimos Quadrados Ordinários
(MQO/OLS) sejam BLU (Best Linear Unbiased),
precisamos cumprir as famosas hipóteses de Gauss-Markov. Para que testes
t e F sejam exatos (distribuição t-Student e
F-Snedecor), acrescenta-se a hipótese de normalidade dos erros.
- Linearidade do Modelo em Parâmetros
- O modelo deve ser linear em \(\beta\): \(Y =
X\beta + u\).
- Exogeneidade dos Regressors
- \(E(u_{i} \mid X) = 0\) para todo
\(i\).
- Implica \(E(X^{T}u) = 0\).
- Homoscedasticidade
- \(Var(u_{i} \mid X) = \sigma^{2}\)
(constante para todas as observações).
- Matricialmente: \(Var(\mathbf{u} \mid X) =
\sigma^{2} I_{n}\).
- Não-autocorrelação dos Erros
- \(Cov(u_{i},\,u_{j} \mid X) = 0\)
sempre que \(i \neq j\).
- Não Multicolinearidade Perfeita
- As colunas de \(X\) são linearmente
independentes.
- Significa que \(\det(X^{T}X) \neq
0\), logo \((X^{T}X)^{-1}\)
existe.
- Normalidade dos Erros (apenas para testes t e F
exatos)
- \(u \sim
N(0,\,\sigma^{2}I)\).
- Garante que \(\displaystyle \hat{\beta}
\sim N\left(\beta,\,\sigma^{2}(X^{T}X)^{-1}\right)\).
- Assim, estatísticas t e F seguem exatamente t-Student e F de Fisher
sob \(H_{0}\).
Observação: Quando alguma dessas hipóteses falha
(por exemplo, heterocedasticidade ou autocorrelação), o MQO continua
não-viciado desde que \(E(u \mid
X)=0\), mas não é mais eficiente e os testes
convencionais (t, F) passam a requerer correções (erros robustos, GLS
etc.).
3. Estimador de MQO e Propriedades
3.1. Estimador MQO (OLS)
No caso geral, queremos minimizar a soma dos quadrados dos
resíduos:
\[
S(\beta) = \sum_{i=1}^{n} \bigl(Y_{i} - \beta_{0} - \beta_{1}X_{1i} -
\dots - \beta_{k}X_{ki}\bigr)^{2}.
\]
Em forma matricial:
\[
S(\boldsymbol{\beta})
= (\mathbf{Y} - \mathbf{X}\,\boldsymbol{\beta})^{T} (\mathbf{Y} -
\mathbf{X}\,\boldsymbol{\beta}).
\]
A condição de primeira ordem para mínimo é:
\[
\frac{\partial S(\beta)}{\partial \beta}
= -2\,X^{T} (Y - X\beta) \;=\; 0
\quad\Longrightarrow\quad
\hat{\beta} = (X^{T}X)^{-1} X^{T} Y.
\]
Portanto, o vetor de estimativas MQO é
\[
\boxed{
\hat{\boldsymbol{\beta}}
= (X^{T}X)^{-1}\,X^{T}Y.
}
\]
3.2. Propriedades de \(\hat{\beta}\)
Não-viesado
\(\displaystyle E(\hat{\beta} \mid X) =
\beta\), desde que \(E(u \mid
X)=0\).
Demonstração breve:
\[
\hat{\beta}
= (X^{T}X)^{-1}X^{T} Y
= (X^{T}X)^{-1}X^{T}(X\beta + u)
= \beta \;+\; (X^{T}X)^{-1} X^{T} u.
\]
Tomando expectativa condicional:
\[
E(\hat{\beta}\mid X)
= \beta + (X^{T}X)^{-1}X^{T}\,E(u\mid X)
= \beta + 0
= \beta.
\]
Variância-Covariância
Supondo \(\displaystyle Var(u \mid X) =
\sigma^{2}I\), então
\[
Var(\hat{\beta} \mid X)
= Var\bigl((X^{T}X)^{-1}X^{T}u \mid X\bigr)
= (X^{T}X)^{-1}X^{T}\,\sigma^{2}I\,X (X^{T}X)^{-1}
= \sigma^{2} (X^{T}X)^{-1}.
\]
Em particular:
- \(\displaystyle Var(\hat{\beta}_{j} \mid
X) = \sigma^{2}\,\bigl[(X^{T}X)^{-1}\bigr]_{jj}.\)
- \(\displaystyle
Cov(\hat{\beta}_{j},\,\hat{\beta}_{\ell} \mid X)
= \sigma^{2}\,\bigl[(X^{T}X)^{-1}\bigr]_{j\ell}.\)
Distribuição de \(\hat{\beta}\) (se \(u\sim N(0,\sigma^{2}I)\))
\[
\boxed{
\hat{\beta}
\;\sim\;
N\!\Bigl(\beta,\;\sigma^{2}(X^{T}X)^{-1}\Bigr).
}
\]
Estimativa de \(\sigma^{2}\)
- O estimador residual de \(\sigma^{2}\) (variância dos erros) é: \[
\widehat{\sigma}^{2}
= \frac{1}{\,n - (k+1)\,}\,\sum_{i=1}^{n} \hat{u}_{i}^{2}
= \frac{SSR}{\,n - (k+1)\,},
\] em que \(SSR = \sum_{i=1}^{n}
\hat{u}_{i}^{2}\) = Soma dos Quadrados dos Resíduos, e \(k+1\) é o número de parâmetros estimados
(incluindo intercepto).
4. Testes de Hipóteses
Nesta seção, detalhamos os procedimentos de forma a cobrir todos os
passos e fórmulas, com ênfase em testes de coeficientes individuais (t),
testes conjuntos (F) e teste de normalidade JB.
4.1. Teste t (Coeficiente Individual)
4.1.2. Exemplo Numérico
Suponha que, de uma regressão, obtemos: - \(\hat{\beta}_{j} = 2{,}50\),
- \(\operatorname{se}(\hat{\beta}_{j}) =
0{,}75\),
- \(n = 30\), \(k+1 = 3\) ⇒ \(df
= 30 - 3 = 27\).
- Nível \(\alpha = 0{,}05\) ⇒ Valor
crítico \(t_{0{,}975,\;27} ≈
2{,}052\).
Cálculo:
\[
t_{\text{calc}}
= \frac{2{,}50 - 0}{0{,}75}
= 3{,}333.
\]
Como \(|3{,}333| > 2{,}052\),
rejeitamos \(H_{0}: \beta_{j} =
0\).
Valor-p aproximado: menor que 0,01 (pois t muito
elevado).
Intervalo de Confiança 95%:
\[
IC_{95\%}(\beta_{j})
= 2{,}50 \;\pm\; 2{,}052 \times 0{,}75
= 2{,}50 \;\pm\; 1{,}539
= [\,0{,}961,\;4{,}039\,].
\]
4.2. Teste F (Hipóteses Conjuntas)
4.2.1. Quando e Por Que Usar
- Utilizado para testar simultaneamente \(q\) restrições lineares sobre os parâmetros
\(\beta\).
- Exemplo clássico:
- “Teste se \(\beta_{1} = 0\) e \(\beta_{2} = 0\)” (duas restrições).
- Ou “Teste se \(\beta_{1} = \beta_{2} =
\beta_{3} = 0\)”.
4.2.2. Procedimento Passo a Passo
Formule as hipóteses
- \(H_{0}\): todas as \(q\) restrições são verdadeiras.
- Ex.: \(H_{0}: \beta_{1} = 0, \; \beta_{2}
= 0\).
- \(H_{1}\): pelo menos uma das \(q\) restrições é falsa.
Estime dois modelos
- Modelo não-restrito (UR):
- Regressão completa, sem impor restrições.
- Calcule \(SSR_{UR} = \sum (Y_{i} -
\hat{Y}_{i}^{UR})^{2}\).
- Graus de liberdade de erro: \(df_{UR} = n
- (k+1)\).
- Modelo restrito (R):
- Estima regressão impondo as \(q\)
restrições (por exemplo, excluir as variáveis cuja \(\beta\) = 0).
- Calcule \(SSR_{R} = \sum (Y_{i} -
\hat{Y}_{i}^{R})^{2}\).
- Graus de liberdade de erro: \(df_{R} = n -
[(k+1) - q]\).
Calcule a estatística F
\[
F_{\text{calc}}
= \frac{\bigl(SSR_{R} - SSR_{UR}\bigr)/q}{SSR_{UR}/\bigl[n-(k+1)\bigr]}.
\]
Graus de liberdade
- Numerador: \(q\) (número de
restrições).
- Denominador: \(n - (k+1)\) (graus
de liberdade do modelo não-restrito).
Valor-crítico e decisão
- Nível \(\alpha\).
- Valor-crítico: \(F_{q,\;n-(k+1),\,1-\alpha}\).
- Rejeita \(H_{0}\) se \(F_{\text{calc}} >
F_{\text{crit}}\).
- Ou use valor-p (se \(p <
\alpha\), rejeita \(H_{0}\)).
4.2.3. Exemplo Numérico
- \(n = 50\).
- Variáveis explicativas no modelo UR: 2 regressoras + intercepto
(logo, \(k+1 = 3\)).
- Graus de liberdade do UR: \(df_{UR} = 50 -
3 = 47\).
- Queremos testar \(H_{0}: \beta_{1} =
0\) e \(\beta_{2} = 0\) ⇒ \(q = 2\).
Suponha que: - \(SSR_{UR} =
200\).
- \(SSR_{R}\) (modelo só com
intercepto) = 600.
Calcule:
\[
F_{\text{calc}}
= \frac{\bigl(SSR_{R} - SSR_{UR}\bigr)/2}{SSR_{UR}/(50 - 3)}
= \frac{(600 - 200)/2}{200/47}
= \frac{400/2}{200/47}
= \frac{200}{\,4{,}2553\,}
≈ 46{,}99.
\]
- Com \(df_{num} = 2\) e \(df_{den} = 47\), valor-crítico \(F_{2,47,0.95} ≈ 3{,}20\).
- Como \(46{,}99 > 3{,}20\),
rejeitamos \(H_{0}\): “As duas
regressoras, juntas, são significativas.”
4.3. Teste de Jarque-Bera (JB) para Normalidade dos Resíduos
O teste de Jarque-Bera verifica se a distribuição dos resíduos
ajustados é próxima à normalidade, examinando a assimetria e
curtose.
4.3.1. Fórmula do Teste JB
Calcule os resíduos \(\hat{u}_{i}\) do modelo ajustado e
defina:
\(s\) = desvio-padrão amostral
dos resíduos: \[
s
= \sqrt{\frac{1}{n} \sum_{i=1}^{n} \hat{u}_{i}^{2}},
\] em geral, como a média dos resíduos em MQO é zero, usa-se
\(\sum \hat{u}_{i} = 0\).
Assimetria (\(S\)): \[
S
= \frac{1}{n} \sum_{i=1}^{n} \biggl(\frac{\hat{u}_{i}}{s}\biggr)^{3}.
\]
Curtose (\(K\)): \[
K
= \frac{1}{n} \sum_{i=1}^{n} \biggl(\frac{\hat{u}_{i}}{s}\biggr)^{4}.
\]
- Para uma normal perfeita, espera-se \(S =
0\) e \(K = 3\).
Estatística de teste: \[
JB
= \frac{n}{6} \,S^{2}
\;+\; \frac{n}{24}\,(K - 3)^{2}.
\]
Hipóteses:
- \(H_{0}\): resíduos seguem
distribuição normal.
- \(H_{1}\): resíduos não seguem
normalidade.
Distribuição sob \(H_{0}\):
- \(JB \sim \chi^{2}(2)\) (graus de
liberdade = 2), assintoticamente.
Regra de decisão:
- Nível \(\alpha\). Por exemplo,
\(\alpha = 0{,}05\).
- Valor-crítico: \(\chi^{2}_{2,\,1-\alpha}\). Ex.: \(\chi^{2}_{2,\,0.95} ≈ 5{,}99\).
- Rejeita \(H_{0}\) se \(JB > \chi^{2}_{2,\,1-\alpha}\).
- Caso contrário, não rejeita (“resíduos não rejeitam a hipótese de
normalidade”).
4.3.2. Exemplo de Interpretação
Em uma prova, pode constar:
“Estatística JB = 2,08. \(\chi^{2}_{2,\,0.95} = 5{,}99\).”
Comparação: \(2{,}08 < 5{,}99\) ⇒
não rejeita \(H_{0}\). Conclusão:
não há evidência de violação da normalidade dos
resíduos ao nível de 5%.
5. Interpretação de Coeficientes
5.1. Modelo em Níveis
- \(Y = \beta_{0} + \beta_{1}X_{1} +
\dots\)
- \(\beta_{1}\) = variação absoluta
em \(Y\) quando \(X_{1}\) varia 1 unidade (ceteris
paribus).
5.2. Modelo Log-Log
- \(\ln Y = \beta_{0} + \beta_{1}\,\ln X_{1}
+ \dots\)
- \(\beta_{1} = \displaystyle \frac{\partial
\ln Y}{\partial \ln X_{1}} = \frac{\%\Delta Y}{\%\Delta X_{1}}\)
(elasticidade).
- Ex.: se \(\beta_{1} = -0{,}8780\),
um aumento de 1% em \(X_{1}\) ⇒ queda
de 0,878% em \(Y\).
5.3. Modelo Log-Nível
- \(\ln Y = \beta_{0} + \beta_{1}\, X_{1} +
\dots\)
- \(\beta_{1}\) ≈ variação percentual
em \(Y\) dada um aumento de 1 unidade
em \(X_{1}\), desde que \(\beta_{1}\) seja relativamente
pequeno.
- Ex.: \(\beta_{1} = 0{,}05\) ⇒
aumento de 1 unidade em \(X_{1}\) gera
~5% de aumento em \(Y\).
5.4. Coeficiente “Dummy” em Modelo Log-Dummy
- \(\ln Y = \beta_{0} + \beta_{1}D + u,\quad
D \in \{0,1\}.\)
- Se \(D=1\): \(\ln Y = \beta_{0} + \beta_{1} + u\).
- Se \(D=0\): \(\ln Y = \beta_{0} + u\).
- Diferença esperada:
\[
E(\ln Y \mid D=1) - E(\ln Y \mid D=0) = \beta_{1}.
\]
- Para interpretar em termos absolutos de \(Y\):
\[
\frac{E(Y\mid D=1) - E(Y\mid D=0)}{E(Y\mid D=0)}
= e^{\beta_{1}} - 1.
\]
- Logo, \(\beta_{1}\) se converte em
aproximadamente \(100\%\times(\exp(\beta_{1})
- 1)\).
- Se \(\beta_{1}\) for pequeno
(<0,2), pode usar \(\beta_{1}\approx
100\%\times \beta_{1}\).
6. Coeficiente de Determinação (R²) e R² Ajustado
6.1. Definição de R²
- Soma Total dos Quadrados (SST):
\[
SST = \sum_{i=1}^{n} \bigl(Y_{i} - \bar{Y}\bigr)^{2}.
\]
- Soma dos Quadrados Explicada (SSE):
\[
SSE = \sum_{i=1}^{n} \bigl(\hat{Y}_{i} - \bar{Y}\bigr)^{2}.
\]
- Soma dos Quadrados dos Resíduos (SSR):
\[
SSR = \sum_{i=1}^{n} \bigl(Y_{i} - \hat{Y}_{i}\bigr)^{2}.
\]
- Relacionamento:
\[
SST = SSE + SSR.
\]
- R²:
\[
\boxed{
R^{2}
= \frac{SSE}{SST}
= 1 - \frac{SSR}{SST}.
}
\]
- Interpretação: proporção da variação total de \(Y\) explicada pelo modelo.
6.2. R² Ajustado
R² puro tende a aumentar sempre que incluímos
mais variáveis, mesmo que irrelevantes.
R² ajustado penaliza a quantidade de variáveis e
graus de liberdade:
\[
\boxed{
R^{2}_{\text{adj}}
= 1
\;-\;
\frac{(n - 1)}{\bigl[n - (k+1)\bigr]}\,(1 - R^{2}).
}
\]
Onde:
- \(n\) = número de
observações.
- \(k\) = número de variáveis
explicativas (excluindo intercepto).
- \(k+1\) = total de parâmetros
(incluindo intercepto).
Comportamento:
- Se incluímos variável irrelevante (que não reduz SSR o suficiente),
o incremento em \((1 - R^{2})\) será
pequeno, mas \(\frac{n - 1}{n -
(k+1)}\) aumenta (porque \(k+1\)
aumenta), fazendo com que \(R^{2}_{\text{adj}}\) “caia”.
7. Propriedades Algébricas Essenciais
A seguir, as demonstrações algébricas que frequentemente caem em
prova, com cada passo detalhado.
7.1. Provar que \(\hat{\beta}\) é
Não-Viciado
Objetivo: mostrar que \(E(\hat{\beta} \mid X) = \beta\).
- Partimos de: \[
\hat{\beta}
= (X^{T}X)^{-1} X^{T}Y.
\]
- Sabemos que \(Y = X\beta + u\).
Logo: \[
\hat{\beta}
= (X^{T}X)^{-1}X^{T}\bigl(X\beta + u\bigr)
= (X^{T}X)^{-1}(X^{T}X)\,\beta \;+\; (X^{T}X)^{-1}X^{T}u
= \beta \;+\; (X^{T}X)^{-1}X^{T}u.
\]
- Tomando expectativa condicional a \(X\): \[
E(\hat{\beta} \mid X)
= \beta + (X^{T}X)^{-1}X^{T}\,E(u \mid X).
\]
- Pelo pressuposto \(E(u \mid X)=0\),
resulta: \[
E(\hat{\beta} \mid X) = \beta.
\] Portanto, \(\displaystyle
\boxed{E(\hat{\beta} \mid X) = \beta}\):
não-viciado.
7.2. Provar a Variância de \(\hat{\beta}\)
Objetivo: mostrar que \(\displaystyle Var(\hat{\beta} \mid X) =
\sigma^{2}(X^{T}X)^{-1}.\)
- De \(\hat{\beta} = \beta +
(X^{T}X)^{-1}X^{T}u\), temos que o único termo aleatório é \((X^{T}X)^{-1}X^{T}u\).
- Portanto: \[
Var(\hat{\beta} \mid X)
= Var\!\bigl((X^{T}X)^{-1}X^{T}u \mid X\bigr).
\]
- Usando \(Var(u \mid X) = \sigma^{2}
I\): \[
Var(\hat{\beta} \mid X)
= (X^{T}X)^{-1}X^{T}\,\sigma^{2}I\,X (X^{T}X)^{-1}
= \sigma^{2}\,(X^{T}X)^{-1} X^{T}X (X^{T}X)^{-1}
= \sigma^{2}\,(X^{T}X)^{-1}.
\]
- Logo: \[
\boxed{
Var(\hat{\beta} \mid X) = \sigma^{2}\,(X^{T}X)^{-1}.
}
\]
Em particular, se quisermos a variância de \(\hat{\beta}_{j}\): \[
Var\bigl(\hat{\beta}_{j} \mid X\bigr)
= \sigma^{2} \,\bigl[(X^{T}X)^{-1}\bigr]_{jj}.
\]
7.3. Viés de Omissão de Variável
Enunciado típico:
> Suponha o modelo verdadeiro
> \[
> Y = X_{1}\beta_{1} + X_{2}\beta_{2} + \mu,
> \] > em que \(X_{1}\) e
\(X_{2}\) são matrizes covariantes, e
você estima apenas > \[
> \hat{\beta}_{2} = (X_{2}^{T}X_{2})^{-1} X_{2}^{T} Y.
> \] > Demonstre se \(\hat{\beta}_{2}\) é viciado ou não.
Demonstração:
- O modelo completo é: \[
Y = X_{1}\beta_{1} + X_{2}\beta_{2} + \mu.
\]
- Se estimamos somente \(\beta_{2}\)
(ignorando \(X_{1}\)), usamos: \[
\hat{\beta}_{2}
= (X_{2}^{T}X_{2})^{-1} X_{2}^{T} Y.
\]
- Substituindo \(Y\) no estimador:
\[
\hat{\beta}_{2}
= (X_{2}^{T}X_{2})^{-1} X_{2}^{T}\bigl(X_{1}\beta_{1} + X_{2}\beta_{2} +
\mu\bigr).
\]
- Separe em três termos: \[
\hat{\beta}_{2}
= (X_{2}^{T}X_{2})^{-1} X_{2}^{T} X_{1}\,\beta_{1}
\;+\; (X_{2}^{T}X_{2})^{-1} X_{2}^{T} X_{2}\,\beta_{2}
\;+\; (X_{2}^{T}X_{2})^{-1} X_{2}^{T}\,\mu.
\]
- O segundo termo faz \((X_{2}^{T}X_{2})^{-1} X_{2}^{T}X_{2} =
I\).
- Portanto: \[
\hat{\beta}_{2}
= \beta_{2}
+ (X_{2}^{T}X_{2})^{-1}X_{2}^{T}X_{1}\,\beta_{1}
+ (X_{2}^{T}X_{2})^{-1}X_{2}^{T}\mu.
\]
- Tomando expectativa condicional a \(X\): \[
E(\hat{\beta}_{2} \mid X)
= \beta_{2}
+ (X_{2}^{T}X_{2})^{-1}X_{2}^{T}X_{1}\,\beta_{1}
+ (X_{2}^{T}X_{2})^{-1}X_{2}^{T}\,E(\mu\mid X).
\]
- Como \(E(\mu \mid X) = 0\), sobra:
\[
E(\hat{\beta}_{2} \mid X)
= \beta_{2} + (X_{2}^{T}X_{2})^{-1}X_{2}^{T}X_{1}\,\beta_{1}.
\]
- Se \(X_{2}^{T}X_{1} \neq 0\), o
termo adicional não nulo implica viés:
\[
E(\hat{\beta}_{2} \mid X) \neq \beta_{2}.
\]
- Conclusão: \(\hat{\beta}_{2}\) é
viciado (omissão de variável relevante).
7.4. Covariância entre Dois Coeficientes
A matriz de variância-covariância de \(\hat{\beta}\) é:
\[
Var(\hat{\beta} \mid X)
= \sigma^{2} (X^{T}X)^{-1}.
\]
- O elemento \(\bigl[(X^{T}X)^{-1}\bigr]_{jj}\) (posição
diagonal) é \(Var(\hat{\beta}_{j})\).
- O elemento \(\bigl[(X^{T}X)^{-1}\bigr]_{j\ell}\)
(posição fora da diagonal) multiplicado por \(\sigma^{2}\) é \(\operatorname{Cov}(\hat{\beta}_{j},\,\hat{\beta}_{\ell})\).
9. Função Consumo de Keynes (Exemplo Aplicado)
Em provas de Econometria I, às vezes aparece um enunciado do
tipo:
“Admite a seguinte função estatística para as despesas com consumo
(\(C_{i}\), em R$): \[
C_{i} = a + b\,Y_{i}^{D} + \mu_{i},
\] em que \(a\) é consumo
autônomo; \(b\) é propensão marginal a
consumir; \(Y_{i}^{D}\) é renda
disponível; \(\mu_{i}\) é erro.
Você estimou a regressão e obteve:
\(\hat{C}_{i} = 5000 +
1,25\,Y_{i}^{D}.\)
Interprete os coeficientes. O modelo está de acordo com a função consumo
de Keynes? Justifique.”
9.1. Interpretação dos Coeficientes
- \(\hat{a} = 5000\):
- Mesmo quando \(Y^{D} = 0\), há um
consumo autônomo de 5 000 R$ (famílias consomem, ainda que a renda
disponível seja zero).
- \(\hat{b} = 1{,}25\):
- A cada acréscimo de 1 R$ em \(Y^{D}\), o consumo \(C\) aumenta, em média, 1,25 R$.
10. Questões Teóricas Frequentes
A seguir, comentamos enunciados e respostas esperadas em provas já
aplicadas (ECO-03719, Prof. Edson Zambon). Adapte à redação exigida pelo
examinador, respeitando sempre clareza nos passos.
10.1. Enunciado Exemplo 1 (Provas 2023/2 e 2024/1)
Questão 1, itens (a) a (g)
Suponha a regressão log-log com dummy: \[
\ln(CRED_{i})
= \alpha + \beta_{1}\ln(PLB_{i})
+ \beta_{2}\ln(PLP_{i})
+ \beta_{3}\,DUMMY_{i}
+ u_{i}.
\] Estimativas fornecidas:
| Intercepto |
13,6630 |
0,5590 |
24,460 |
0,0000 |
| ln(PLB) |
–0,8780 |
0,2670 |
–3,290 |
0,0015 |
| ln(PLP) |
–1,2540 |
0,3370 |
–3,720 |
0,0004 |
| DUMMY |
3,6460 |
0,5560 |
6,550 |
0,0000 |
F-teste = 27,8000 (Valor-p F = 0,0000), R² = 0,5300.
(a) Teste de Normalidade dos Resíduos (Jarque-Bera)
- Hipóteses:
- \(H_{0}\): Resíduos seguem
distribuição normal.
- \(H_{1}\): Resíduos não seguem
normalidade.
- Estatística JB (enunciado) = 2,08.
- \(\chi^{2}_{2,\,0.95} =
5{,}99\).
- Como \(2{,}08 < 5{,}99\), não
rejeita \(H_{0}\).
- Conclusão: “Não há evidência suficiente para
rejeitar a normalidade dos resíduos ao nível de 5%.”
(b) Teste F para Coeficientes \(\beta_{1},
\beta_{2}, \beta_{3}\) (Conjunto)
- Hipóteses:
- \(H_{0}: \beta_{1} = \beta_{2} = \beta_{3}
= 0.\)
- \(H_{1}:\) ao menos um dos três não
é zero.
- \(q = 3\).
- Modelo UR: regressão completa (já fornecida).
- Modelo R: apenas intercepto (\(\ln(CRED) =
\alpha + u\)).
- Obter \(SSR_{R}\).
- Graus de liberdade UR: \(n -
4\).
- Calcular \[
F_{\text{calc}} = \frac{(SSR_{R} - SSR_{UR})/3}{SSR_{UR}/(n - 4)}.
\]
- Valor-p F = 0,0000 < 0,05 ⇒ rejeita \(H_{0}\).
- Conclusão: “Os coeficientes \(\beta_{1}, \beta_{2}, \beta_{3}\) são, em
conjunto, significativos.”
(c) Interpretação de \(\beta_{1}\)
e \(\beta_{2}\)
- \(\hat{\beta}_{1} = -0{,}8780\)
(ln(PLB)):
- “Se PLB (preferência pela liquidez dos bancos) aumenta 1% (mantendo
PLP e DUMMY constantes), CRED (oferta de crédito) cai aproximadamente
0,878%, ceteris paribus.”
- \(t = -3{,}290,\;p = 0{,}0015 <
0{,}05\) ⇒ estatisticamente significativo.
- \(\hat{\beta}_{2} = -1{,}2540\)
(ln(PLP)):
- “Se PLP (preferência pela liquidez do público) aumenta 1%, CRED cai
~1,254%, ceteris paribus.”
- \(t = -3{,}720,\;p = 0{,}0004 <
0{,}05\) ⇒ significativo.
(d) Interpretação de \(\beta_{3}\)
(DUMMY) e Cálculo de CRED quando \(\ln(PLB)=\ln(PLP)=0\)
- \(\hat{\beta}_{3} = 3{,}6460\).
DUMMY = 1 para municípios RGV; 0 caso contrário.
- Em modelo log-dummy:
- Diferença percentual aproximada = \((e^{3{,}6460} - 1)\times100\%\).
- \(e^{3{,}6460} ≈ 38{,}31\). Logo, ≈
(38,31 − 1)×100% ≈ 3731% a mais de CRED para RGV comparado a não-RGV (o
valor numérico é ilustrativo e muito alto, mas a interpretação formal se
mantém).
- Quando \(\ln(PLB) = \ln(PLP) = 0\)
(i.e., PLB = 1, PLP = 1) e DUMMY = 1:
\[
\ln(\hat{CRED})
= 13{,}6630 + (-0{,}8780)\times 0 + (-1{,}2540)\times 0
+ 3{,}6460 \times 1
= 13{,}6630 + 3{,}6460
= 17{,}3090.
\] \[
\hat{CRED} = \exp(17{,}3090)\ \text{(em mil R\$)}.
\]
(e) Intervalo de Confiança para \(\beta_{1}\) (ln(PLB))
- \(\hat{\beta}_{1} =
-0{,}8780,\;\operatorname{se}(\hat{\beta}_{1}) = 0{,}2670,\;df = n -
4.\)
- \(t_{0{,}975,\;df} ≈ 1{,}99\) (para
df próximo).
- Calcular:
\[
IC_{95\%}(\beta_{1})
= -0{,}8780
\;\pm\;
1{,}99 \times 0{,}2670
= -0{,}8780 \;\pm\; 0{,}5317
= [\,-1{,}4097,\,-0{,}3463\,].
\]
- Interpretação: “Com 95% de confiança, \(\beta_{1}\) está entre –1,4097 e –0,3463. O
intervalo não inclui zero, reforçando a significância de \(\beta_{1}\).”
(f) Interprete o Coeficiente de Determinação \(R^{2}\)
- \(R^{2} = 0{,}5300\).
- Interpretação: “53% da variação total de \(\ln(CRED)\) é explicada por \(\ln(PLB), \ln(PLP)\) e DUMMY, enquanto 47%
fica nos resíduos.”
(g) Verdadeiro ou Falso: “O \(R^{2}\) ajustado aumenta se incluir
variável irrelevante?”
- Resposta: FALSO.
- Justificativa:
- R² puro aumenta (ou permanece igual) ao adicionar qualquer
variável.
- R² ajustado penaliza o acréscimo de parâmetros: \[
R^{2}_{\text{adj}}
= 1 - \frac{n - 1}{\,n - (k+1)\,}(1 - R^{2}).
\]
- Se a nova variável não reduzir SSR o suficiente, o fator \(\frac{n - 1}{n - (k+1)}\) aumenta e \(R^{2}_{\text{adj}}\) pode
diminuir.
10.2. Exemplo de Questão Não-Linear / Elasticidade (Baseado em
Questão 3)
“Considere o modelo
\[
Y_{i} = \beta_{1} X_{i}^{\beta_{2}} e^{\mu_{i}},
\] onde \(X\) é variável
explicativa e \(\mu_{i}\) termo de
erro.
(a) Pode ser estimado diretamente por MQO? Justifique.
(b) Se não, qual transformação usar?
(c) Prove que elasticidade de \(Y\) em
relação a \(X\) \(\varepsilon_{Y,X} = \beta_{2}.\)”
Resposta:
- (a) Não, porque o modelo não é linear em parâmetros
\(\beta_{1}, \beta_{2}\). O parâmetro
\(\beta_{2}\) aparece como expoente de
\(X\). O MQO exige forma \(Y = X\beta + u\).
- (b) Tome o logaritmo natural: \[
\ln Y_{i}
= \ln\bigl(\beta_{1} X_{i}^{\beta_{2}} e^{\mu_{i}}\bigr)
= \ln \beta_{1} + \beta_{2} \ln X_{i} + \mu_{i}.
\]
- Defina \(\alpha = \ln
\beta_{1}\).
- O modelo resultante “linear em parâmetros” é: \[
\ln Y_{i} = \alpha + \beta_{2}\ln X_{i} + \mu_{i}.
\]
- Agora aplica-se MQO em \((\ln Y)\)
vs. \(\ln X\).
- (c) Elasticidade de \(Y\) em relação a \(X\): \[
\varepsilon_{Y,X}
= \frac{\partial Y / Y}{\partial X / X}
= \frac{\partial \ln Y}{\partial \ln X}.
\]
- Do modelo \(\ln Y = \alpha + \beta_{2}\ln
X + u\): \[
\frac{\partial \ln Y}{\partial \ln X}
= \beta_{2}.
\]
- Logo, \(\boxed{\varepsilon_{Y,X} =
\beta_{2}}.\)
10.3. Questão de Partição de Matriz (Baseado em Questão 4)
“Suponha o modelo verdadeiro:
\[
Y = X_{1}\beta_{1} + X_{2}\beta_{2} + \mu,
\] onde \(E(\mu \mid X)=0,\,Var(\mu
\mid X)=\sigma^{2}I\).
Você estima apenas
\[
\hat{\beta}_{2} = (X_{2}^{T} X_{2})^{-1} X_{2}^{T} Y.
\] O estimador \(\hat{\beta}_{2}\) é viciado ou não? Prove
algébrica-mente.”
Demonstração (resumida):
- Modelo verdadeiro: \[
Y = X_{1}\beta_{1} + X_{2}\beta_{2} + \mu.
\]
- Estimador parcial: \[
\hat{\beta}_{2}
= (X_{2}^{T}X_{2})^{-1}X_{2}^{T}Y
= (X_{2}^{T}X_{2})^{-1}X_{2}^{T}(X_{1}\beta_{1} + X_{2}\beta_{2} + \mu).
\]
- Expandendo: \[
\hat{\beta}_{2}
= (X_{2}^{T}X_{2})^{-1}X_{2}^{T}X_{1}\,\beta_{1}
+ (X_{2}^{T}X_{2})^{-1}X_{2}^{T}X_{2}\,\beta_{2}
+ (X_{2}^{T}X_{2})^{-1}X_{2}^{T}\mu.
\]
- O segundo termo = \(\beta_{2}\).
- Portanto: \[
\hat{\beta}_{2}
= \beta_{2}
+ (X_{2}^{T}X_{2})^{-1}X_{2}^{T}X_{1}\,\beta_{1}
+ (X_{2}^{T}X_{2})^{-1}X_{2}^{T}\mu.
\]
- Tomando expectativa condicional a \(X\): \[
E(\hat{\beta}_{2} \mid X)
= \beta_{2}
+ (X_{2}^{T}X_{2})^{-1}X_{2}^{T}X_{1}\,\beta_{1}
+ (X_{2}^{T}X_{2})^{-1}X_{2}^{T}\,E(\mu\mid X).
\]
- Como \(E(\mu \mid X) = 0\), sobra:
\[
E(\hat{\beta}_{2} \mid X)
= \beta_{2} + (X_{2}^{T}X_{2})^{-1}X_{2}^{T}X_{1}\,\beta_{1}.
\]
- Se \(X_{2}^{T}X_{1} \neq 0\), o
termo adicional não nulo implica viés:
\[
E(\hat{\beta}_{2} \mid X) \neq \beta_{2}.
\]
- Conclusão: \(\hat{\beta}_{2}\) é
viciado (omissão de variável relevante).
10.4. Questão de Covariância do Estimador (Baseado em Questão
5)
“Mostre que no modelo \(Y = X\beta +
\mu\), com \(E(\mu|X)=0\) e
\(Var(\mu|X)=\sigma^{2}I\), o estimador
MQO satisfaz
\[
Var(\hat{\beta}|X)
= \sigma^{2}\,(X^{T}X)^{-1},
\quad
Cov(\hat{\beta})
= \sigma^{2}\,(X^{T}X)^{-1}.
\]”
Demonstração (já abordada em 7.2):
- De \(\hat{\beta} = (X^{T}X)^{-1}X^{T}Y =
(X^{T}X)^{-1}X^{T}(X\beta + \mu)\),
\[
\hat{\beta} = \beta + (X^{T}X)^{-1}X^{T}\mu.
\]
- Portanto, \[
Var(\hat{\beta} \mid X)
= Var\bigl((X^{T}X)^{-1}X^{T}\mu \mid X\bigr)
= (X^{T}X)^{-1}X^{T}\,\sigma^{2}I\,X\,(X^{T}X)^{-1}
= \sigma^{2}(X^{T}X)^{-1}.
\]
- Daí, os elementos fora da diagonal de \(\sigma^{2}(X^{T}X)^{-1}\) são as
covariâncias entre \(\hat{\beta}_{j}\)
e \(\hat{\beta}_{\ell}\).
11. Resumo de Conteúdos e Recomendações de Estudo
Este tópico foca em sugerir uma forma de organizar seu estudo antes
da prova.
11.1. Blocos de Estudo
- Revisão Teórica Básica
- Entenda completamente as hipóteses de Gauss-Markov.
- Familiarize-se com as formas de modelagem (nível, log, dummy).
- Cálculos Algébricos
- Derive o estimation de \(\hat{\beta} =
(X^{T}X)^{-1}X^{T}Y\).
- Prove que \(E(\hat{\beta}\mid
X)=\beta\) e \(Var(\hat{\beta}\mid
X)=\sigma^{2}(X^{T}X)^{-1}\).
- Testes
- Pratique o teste t (individual).
- Pratique o teste F (hipóteses conjuntas).
- Calcule intervalos de confiança.
- Faça exemplos de Jarque-Bera para verificar normalidade.
- Interpretação de Coeficientes
- Para cada tipo de modelo (nível, log-nível, log-log, log-dummy,
nível-dummy), escreva a interpretação de \(\beta_{j}\).
- Modelos Não-Lineares
- Transforme modelos do tipo \(Y = \beta_{1}
X^{\beta_{2}} e^{u}\) em regressões lineares via log.
- Prove que elasticidade = \(\beta_{2}\) em regressões log-log.
- Questões Aplicadas / Exemplos
- Função consumo de Keynes.
- Questões de partição de matriz (viés de omissão).
- Provas Anteriores
- Resolva integralmente provas de 2023/2 e 2024/1.
- Cronometre-se para conhecer o tempo de resolução de cada
questão.
11.2. Cronograma Sugerido (1 Semana antes da Prova)
- Dia 1: Revisão das hipóteses clássicas e do
estimador MQO.
- Dia 2: Provas algébricas: não-viesado, variância,
viés de omissão.
- Dia 3: Testes t (individual) e intervalos
de confiança.
- Dia 4: Testes F (conjuntos) e exercício
numérico completo.
- Dia 5: Teste de normalidade JB e discussão de
heterocedasticidade (mesmo que Econometria I não cubra robustez, convém
entender).
- Dia 6: Interpretação de coeficientes em modelos
variados e modelos não-lineares (elasticidade).
- Dia 7: Simulados — resolva duas provas antigas
(2023/2, 2024/1) sem consultar material e depois corrija
detalhadamente.
12. Tópicos “De Olho” / Tabela de Fórmulas
| Estimador MQO |
\(\displaystyle \hat{\beta} =
(X^{T}X)^{-1}\,X^{T}Y.\) |
| Erro-padrão \(\hat{\beta}_{j}\) |
\(\displaystyle se(\hat{\beta}_{j}) =
\sqrt{\widehat{\sigma}^{2}\,\bigl[(X^{T}X)^{-1}\bigr]_{jj}}\). |
| Estimativa de \(\sigma^{2}\) |
\(\displaystyle \widehat{\sigma}^{2} =
\frac{SSR}{\,n - (k+1)\,}.\) |
| Cov/Var \(\hat{\beta}\) |
\(\displaystyle Var(\hat{\beta}\mid X) =
\sigma^{2}(X^{T}X)^{-1},\quad Cov(\hat{\beta}_{j},\hat{\beta}_{\ell}) =
\sigma^{2}(X^{T}X)^{-1}_{j\ell}.\) |
| R² |
\(\displaystyle R^{2} = 1 -
\frac{SSR}{SST} = \frac{SSE}{SST}.\) |
| R² ajustado |
\(\displaystyle R^{2}_{\text{adj}} = 1 -
\frac{n - 1}{\,n - (k+1)\,}(1 - R^{2}).\) |
| t-Estatística |
\(\displaystyle t = \frac{\hat{\beta}_{j}
- \beta_{j,0}}{ se(\hat{\beta}_{j}) }.\) |
| F-Estatística (q restrições) |
\(\displaystyle F = \frac{(SSR_{R} -
SSR_{UR})/q}{SSR_{UR}/[\,n - (k+1)\,] }.\) |
| JB (Jarque-Bera) |
\(\displaystyle JB = \frac{n}{6}\,S^{2} +
\frac{n}{24}(K - 3)^{2},\quad S = \text{assimetria},\,K =
\text{curtose}.\) |
| Modelo log-log (elasticidade) |
\(\displaystyle \ln Y = \beta_{0} +
\beta_{1}\ln X + u,\quad \beta_{1} = \varepsilon_{Y,X}.\) |
| Modelo log-nível |
\(\displaystyle \ln Y = \beta_{0} +
\beta_{1}X + u,\;\beta_{1}\approx \%\Delta Y / \Delta X.\) |
| Dummy em log-dummy |
\(\displaystyle \ln Y = \beta_{0} +
\beta_{1}D + u,\;\%\text{diferença} \approx 100\,(e^{\beta_{1}} -
1).\) |
| Função consumo Keynes |
\(\displaystyle C = a + b\,Y^{D} +
\mu,\quad 0 < b < 1 \;\text{(teoria Keynes)}.\) |
13. Dicas Finais
- Escreva todos os passos
- Em questões discursivas, detalhe claramente as hipóteses, o cálculo
da estatística (t ou F), graus de liberdade, valor-crítico e
conclusão.
- Memorize o “Mapa de Fórmulas”
- Mantenha uma lista à mão com fórmulas: OLS, var(\(\hat{\beta}\)), se(\(\hat{\beta}_{j}\)), R², R² ajustado,
t-stat, F-stat, JB.
- Distinga Modelos e Interpretações
- Pratique a interpretação de coeficientes em todos os tipos de
especificação (especialmente log-log e log-dummy).
- Verifique Premissas
- Sempre comente se as suposições de homoscedasticidade e normalidade
são plausíveis, pois elas autorizam (ou não) testes exatos.
- Foco em Testes de Hipóteses
- Domine o passo-a-passo do teste t (individual) e do teste
F (conjunto).
- Saiba escrever claramente \(H_{0}\), \(H_{1}\), estatística, distribuição teórica,
valor crítico e decisão.
- Pratique com Provas Antigas
- Resolva, sem consultar gabarito, as provas de 2023/2 e 2024/1.
- Cronometre-se para controlar o tempo de resolução.
- Releia e Escreva Respostas Curtas e Objetivas
- Os examinadores valorizam clareza e objetividade. Evite
floreios.
- Use linguagem técnica adequada: “ceteris paribus”, “significância
estatística”, “graus de liberdade”, “valor-p”, etc.