Este guia reúne todos os tópicos e fórmulas essenciais para a prova de Econometria I. Há explicações passo a passo, demonstrações algébricas, exemplos numéricos e orientações sobre testes de hipóteses (t, F, Jarque-Bera), tudo baseado nas P1’s dos semestres 2023/2 e 2024/1.


Índice

  1. Modelo de Regressão Linear Múltipla (MRLM)
  2. Hipóteses Clássicas (Gauss-Markov + Normalidade)
  3. Estimador de MQO e Propriedades
    1. Propriedades de \(\hat{\beta}\)
  4. Testes de Hipóteses
    1. Teste t (coeficiente individual)
    2. Teste F (hipóteses conjuntas)
    3. Teste de Jarque-Bera (normalidade dos resíduos)
  5. Interpretação de Coeficientes
  6. Coeficiente de Determinação (R²) e R² Ajustado
  7. Propriedades Algébricas Essenciais
    1. Provar que \(\hat{\beta}\) é não-viciado
    2. Provar a variância de \(\hat{\beta}\)
    3. Viés de omissão de variável
    4. Covariância entre coeficientes
  8. Modelos Não-Lineares e Transformações (Log)
  9. Função Consumo de Keynes (Exemplo Aplicado)
  10. Questões Teóricas Frequentes
  11. Resumo de Conteúdos e Recomendações de Estudo
  12. Tópicos “De Olho” / Tabela de Fórmulas
  13. Dicas Finais

1. Modelo de Regressão Linear Múltipla (MRLM)

1.1. Forma Geral

Em Econometria I você lida principalmente com modelos de regressão linear múltipla (MRLM). A forma geral é:

\[ Y_{i} \;=\; \beta_{0} \;+\; \beta_{1}\,X_{1i} \;+\; \beta_{2}\,X_{2i} \;+\; \dots \;+\; \beta_{k}\,X_{ki} \;+\; u_{i}, \quad i = 1,2,\dots,n \]

  • \(Y_{i}\): variável dependente (observação \(i\)).
  • \(X_{1i}, X_{2i}, \dots, X_{ki}\): variáveis explicativas (regressoras).
  • \(\beta_{0}, \beta_{1}, \dots, \beta_{k}\): parâmetros desconhecidos a serem estimados.
  • \(u_{i}\): termo de erro aleatório, capturando fatores não observados e ruído.

Se escrevemos em forma matricial:

\[ \mathbf{Y} \;=\; \mathbf{X}\,\boldsymbol{\beta} \;+\; \mathbf{u}, \]

  • \(\mathbf{Y}\) é o vetor \(n \times 1\) de todas as observações de \(Y\).
  • \(\mathbf{X}\) é a matriz \(n \times (k+1)\) que combina uma coluna de 1’s (intercepto) e cada coluna de \(X_{j}\).
  • \(\boldsymbol{\beta}\) é o vetor \((k+1)\times 1\) dos coeficientes \(\bigl[\beta_{0}, \beta_{1}, \dots, \beta_{k}\bigr]^{T}\).
  • \(\mathbf{u}\) é o vetor \(n \times 1\) dos erros \(u_{i}\).

1.2. Variações de Especificação

  1. Modelo em Níveis
    \[ Y = \beta_{0} + \beta_{1}X_{1} + \beta_{2}X_{2} + \dots + \beta_{k}X_{k} + u. \]
    Interpretação: \(\beta_{j}\) = variação absoluta em \(Y\) quando \(X_{j}\) varia 1 unidade (ceteris paribus).

  2. Log-Log (Duplo Logaritmo)
    \[ \ln Y = \beta_{0} + \beta_{1}\,\ln X_{1} + \dots + \beta_{k}\,\ln X_{k} + u. \]

    • \(\beta_{j}\) é a elasticidade aproximada: \(\partial \ln Y / \partial \ln X_{j}\).
    • Interpretação: “Um aumento de 1% em \(X_{j}\) ⇒ variação de \(\beta_{j}\)% em \(Y\).”
  3. Log-Nível
    \[ \ln Y = \beta_{0} + \beta_{1}\,X_{1} + u. \]

    • \(\beta_{1}\) ≈ variação percentual de \(Y\) dada variação de 1 unidade em \(X_{1}\), desde que \(\beta_{1}\) seja relativamente pequeno.
  4. Nível-Dummy
    \[ Y = \beta_{0} + \beta_{1}D + u, \quad D = \begin{cases} 1, & \text{se condição for verdadeira} \\ 0, & \text{caso contrário.} \end{cases} \]

    • \(\beta_{1}\) = diferença média de \(Y\) quando \(D=1\) versus \(D=0\).
  5. Log-Dummy
    \[ \ln Y = \beta_{0} + \beta_{1}D + u. \]

    • Interpretação aproximada: \(\beta_{1} \approx 100\% \times (\exp(\beta_{1}) - 1)\).
    • Se \(\beta_{1}\) for pequeno, \(\exp(\beta_{1}) - 1 \approx \beta_{1}\), então “\(\beta_{1}\times 100\)% de diferença percentual em \(Y\).”

2. Hipóteses Clássicas (Gauss-Markov + Normalidade)

Para que os estimadores de Mínimos Quadrados Ordinários (MQO/OLS) sejam BLU (Best Linear Unbiased), precisamos cumprir as famosas hipóteses de Gauss-Markov. Para que testes t e F sejam exatos (distribuição t-Student e F-Snedecor), acrescenta-se a hipótese de normalidade dos erros.

  1. Linearidade do Modelo em Parâmetros
    • O modelo deve ser linear em \(\beta\): \(Y = X\beta + u\).
  2. Exogeneidade dos Regressors
    • \(E(u_{i} \mid X) = 0\) para todo \(i\).
    • Implica \(E(X^{T}u) = 0\).
  3. Homoscedasticidade
    • \(Var(u_{i} \mid X) = \sigma^{2}\) (constante para todas as observações).
    • Matricialmente: \(Var(\mathbf{u} \mid X) = \sigma^{2} I_{n}\).
  4. Não-autocorrelação dos Erros
    • \(Cov(u_{i},\,u_{j} \mid X) = 0\) sempre que \(i \neq j\).
  5. Não Multicolinearidade Perfeita
    • As colunas de \(X\) são linearmente independentes.
    • Significa que \(\det(X^{T}X) \neq 0\), logo \((X^{T}X)^{-1}\) existe.
  6. Normalidade dos Erros (apenas para testes t e F exatos)
    • \(u \sim N(0,\,\sigma^{2}I)\).
    • Garante que \(\displaystyle \hat{\beta} \sim N\left(\beta,\,\sigma^{2}(X^{T}X)^{-1}\right)\).
    • Assim, estatísticas t e F seguem exatamente t-Student e F de Fisher sob \(H_{0}\).

Observação: Quando alguma dessas hipóteses falha (por exemplo, heterocedasticidade ou autocorrelação), o MQO continua não-viciado desde que \(E(u \mid X)=0\), mas não é mais eficiente e os testes convencionais (t, F) passam a requerer correções (erros robustos, GLS etc.).


3. Estimador de MQO e Propriedades

3.1. Estimador MQO (OLS)

No caso geral, queremos minimizar a soma dos quadrados dos resíduos:

\[ S(\beta) = \sum_{i=1}^{n} \bigl(Y_{i} - \beta_{0} - \beta_{1}X_{1i} - \dots - \beta_{k}X_{ki}\bigr)^{2}. \]

Em forma matricial:

\[ S(\boldsymbol{\beta}) = (\mathbf{Y} - \mathbf{X}\,\boldsymbol{\beta})^{T} (\mathbf{Y} - \mathbf{X}\,\boldsymbol{\beta}). \]

A condição de primeira ordem para mínimo é:

\[ \frac{\partial S(\beta)}{\partial \beta} = -2\,X^{T} (Y - X\beta) \;=\; 0 \quad\Longrightarrow\quad \hat{\beta} = (X^{T}X)^{-1} X^{T} Y. \]

Portanto, o vetor de estimativas MQO é

\[ \boxed{ \hat{\boldsymbol{\beta}} = (X^{T}X)^{-1}\,X^{T}Y. } \]


3.2. Propriedades de \(\hat{\beta}\)

  1. Não-viesado

    • \(\displaystyle E(\hat{\beta} \mid X) = \beta\), desde que \(E(u \mid X)=0\).

    • Demonstração breve:

      \[ \hat{\beta} = (X^{T}X)^{-1}X^{T} Y = (X^{T}X)^{-1}X^{T}(X\beta + u) = \beta \;+\; (X^{T}X)^{-1} X^{T} u. \]

      Tomando expectativa condicional:

      \[ E(\hat{\beta}\mid X) = \beta + (X^{T}X)^{-1}X^{T}\,E(u\mid X) = \beta + 0 = \beta. \]

  2. Variância-Covariância

    • Supondo \(\displaystyle Var(u \mid X) = \sigma^{2}I\), então

      \[ Var(\hat{\beta} \mid X) = Var\bigl((X^{T}X)^{-1}X^{T}u \mid X\bigr) = (X^{T}X)^{-1}X^{T}\,\sigma^{2}I\,X (X^{T}X)^{-1} = \sigma^{2} (X^{T}X)^{-1}. \]

    • Em particular:

      • \(\displaystyle Var(\hat{\beta}_{j} \mid X) = \sigma^{2}\,\bigl[(X^{T}X)^{-1}\bigr]_{jj}.\)
      • \(\displaystyle Cov(\hat{\beta}_{j},\,\hat{\beta}_{\ell} \mid X) = \sigma^{2}\,\bigl[(X^{T}X)^{-1}\bigr]_{j\ell}.\)
  3. Distribuição de \(\hat{\beta}\) (se \(u\sim N(0,\sigma^{2}I)\))
    \[ \boxed{ \hat{\beta} \;\sim\; N\!\Bigl(\beta,\;\sigma^{2}(X^{T}X)^{-1}\Bigr). } \]

  4. Estimativa de \(\sigma^{2}\)

    • O estimador residual de \(\sigma^{2}\) (variância dos erros) é: \[ \widehat{\sigma}^{2} = \frac{1}{\,n - (k+1)\,}\,\sum_{i=1}^{n} \hat{u}_{i}^{2} = \frac{SSR}{\,n - (k+1)\,}, \] em que \(SSR = \sum_{i=1}^{n} \hat{u}_{i}^{2}\) = Soma dos Quadrados dos Resíduos, e \(k+1\) é o número de parâmetros estimados (incluindo intercepto).

4. Testes de Hipóteses

Nesta seção, detalhamos os procedimentos de forma a cobrir todos os passos e fórmulas, com ênfase em testes de coeficientes individuais (t), testes conjuntos (F) e teste de normalidade JB.

4.1. Teste t (Coeficiente Individual)

4.1.1. Formulação Geral

Para testar se um coeficiente \(\beta_{j}\) é, por exemplo, igual a zero, fazemos:

  1. Hipóteses

    • \(H_{0}: \beta_{j} = \beta_{j,0}\) (em geral, \(\beta_{j,0} = 0\)).
    • \(H_{1}: \beta_{j} \neq \beta_{j,0}\) (bilateral), ou \(\beta_{j} > \beta_{j,0}\) / \(\beta_{j} < \beta_{j,0}\) (unilateral).
  2. Estatística de teste
    \[ t_{\text{calc}} = \frac{\hat{\beta}_{j} - \beta_{j,0}}{\operatorname{se}(\hat{\beta}_{j})}, \quad \operatorname{se}(\hat{\beta}_{j}) = \sqrt{\widehat{\sigma}^{2}\,\bigl[(X^{T}X)^{-1}\bigr]_{jj}}. \]

  3. Graus de Liberdade

    • \(df = n - (k+1)\) (número de observações menos número de parâmetros estimados).
  4. Regra de Decisão (bilateral)

    • Nível de significância: \(\alpha\) (comum: 0,05 ou 0,01).
    • Valor crítico: \(t_{1-\alpha/2,\;n-(k+1)}\).
    • Rejeita \(H_{0}\) se:
      \[ |t_{\text{calc}}| > t_{1-\alpha/2,\;n-(k+1)}. \]
    • Alternativamente, usar valor-p: rejeita \(H_{0}\) se \(p\text{-value} < \alpha\).
  5. Intervalo de Confiança (1-α)% para \(\beta_{j}\)
    \[ \hat{\beta}_{j} \;\pm\; t_{1-\alpha/2,\;n-(k+1)} \;\times\; \operatorname{se}(\hat{\beta}_{j}). \]

4.1.2. Exemplo Numérico

Suponha que, de uma regressão, obtemos: - \(\hat{\beta}_{j} = 2{,}50\),
- \(\operatorname{se}(\hat{\beta}_{j}) = 0{,}75\),
- \(n = 30\), \(k+1 = 3\)\(df = 30 - 3 = 27\).

  • Nível \(\alpha = 0{,}05\) ⇒ Valor crítico \(t_{0{,}975,\;27} ≈ 2{,}052\).

Cálculo:

\[ t_{\text{calc}} = \frac{2{,}50 - 0}{0{,}75} = 3{,}333. \]

Como \(|3{,}333| > 2{,}052\), rejeitamos \(H_{0}: \beta_{j} = 0\).
Valor-p aproximado: menor que 0,01 (pois t muito elevado).

Intervalo de Confiança 95%:
\[ IC_{95\%}(\beta_{j}) = 2{,}50 \;\pm\; 2{,}052 \times 0{,}75 = 2{,}50 \;\pm\; 1{,}539 = [\,0{,}961,\;4{,}039\,]. \]


4.2. Teste F (Hipóteses Conjuntas)

4.2.1. Quando e Por Que Usar

  • Utilizado para testar simultaneamente \(q\) restrições lineares sobre os parâmetros \(\beta\).
  • Exemplo clássico:
    • “Teste se \(\beta_{1} = 0\) e \(\beta_{2} = 0\)” (duas restrições).
    • Ou “Teste se \(\beta_{1} = \beta_{2} = \beta_{3} = 0\)”.

4.2.2. Procedimento Passo a Passo

  1. Formule as hipóteses

    • \(H_{0}\): todas as \(q\) restrições são verdadeiras.
      • Ex.: \(H_{0}: \beta_{1} = 0, \; \beta_{2} = 0\).
    • \(H_{1}\): pelo menos uma das \(q\) restrições é falsa.
  2. Estime dois modelos

    1. Modelo não-restrito (UR):
      • Regressão completa, sem impor restrições.
      • Calcule \(SSR_{UR} = \sum (Y_{i} - \hat{Y}_{i}^{UR})^{2}\).
      • Graus de liberdade de erro: \(df_{UR} = n - (k+1)\).
    2. Modelo restrito (R):
      • Estima regressão impondo as \(q\) restrições (por exemplo, excluir as variáveis cuja \(\beta\) = 0).
      • Calcule \(SSR_{R} = \sum (Y_{i} - \hat{Y}_{i}^{R})^{2}\).
      • Graus de liberdade de erro: \(df_{R} = n - [(k+1) - q]\).
  3. Calcule a estatística F
    \[ F_{\text{calc}} = \frac{\bigl(SSR_{R} - SSR_{UR}\bigr)/q}{SSR_{UR}/\bigl[n-(k+1)\bigr]}. \]

  4. Graus de liberdade

    • Numerador: \(q\) (número de restrições).
    • Denominador: \(n - (k+1)\) (graus de liberdade do modelo não-restrito).
  5. Valor-crítico e decisão

    • Nível \(\alpha\).
    • Valor-crítico: \(F_{q,\;n-(k+1),\,1-\alpha}\).
    • Rejeita \(H_{0}\) se \(F_{\text{calc}} > F_{\text{crit}}\).
    • Ou use valor-p (se \(p < \alpha\), rejeita \(H_{0}\)).

4.2.3. Exemplo Numérico

  • \(n = 50\).
  • Variáveis explicativas no modelo UR: 2 regressoras + intercepto (logo, \(k+1 = 3\)).
  • Graus de liberdade do UR: \(df_{UR} = 50 - 3 = 47\).
  • Queremos testar \(H_{0}: \beta_{1} = 0\) e \(\beta_{2} = 0\)\(q = 2\).

Suponha que: - \(SSR_{UR} = 200\).
- \(SSR_{R}\) (modelo só com intercepto) = 600.

Calcule:

\[ F_{\text{calc}} = \frac{\bigl(SSR_{R} - SSR_{UR}\bigr)/2}{SSR_{UR}/(50 - 3)} = \frac{(600 - 200)/2}{200/47} = \frac{400/2}{200/47} = \frac{200}{\,4{,}2553\,} ≈ 46{,}99. \]

  • Com \(df_{num} = 2\) e \(df_{den} = 47\), valor-crítico \(F_{2,47,0.95} ≈ 3{,}20\).
  • Como \(46{,}99 > 3{,}20\), rejeitamos \(H_{0}\): “As duas regressoras, juntas, são significativas.”

4.3. Teste de Jarque-Bera (JB) para Normalidade dos Resíduos

O teste de Jarque-Bera verifica se a distribuição dos resíduos ajustados é próxima à normalidade, examinando a assimetria e curtose.

4.3.1. Fórmula do Teste JB

  1. Calcule os resíduos \(\hat{u}_{i}\) do modelo ajustado e defina:

    • \(s\) = desvio-padrão amostral dos resíduos: \[ s = \sqrt{\frac{1}{n} \sum_{i=1}^{n} \hat{u}_{i}^{2}}, \] em geral, como a média dos resíduos em MQO é zero, usa-se \(\sum \hat{u}_{i} = 0\).

    • Assimetria (\(S\)): \[ S = \frac{1}{n} \sum_{i=1}^{n} \biggl(\frac{\hat{u}_{i}}{s}\biggr)^{3}. \]

    • Curtose (\(K\)): \[ K = \frac{1}{n} \sum_{i=1}^{n} \biggl(\frac{\hat{u}_{i}}{s}\biggr)^{4}. \]

      • Para uma normal perfeita, espera-se \(S = 0\) e \(K = 3\).
  2. Estatística de teste: \[ JB = \frac{n}{6} \,S^{2} \;+\; \frac{n}{24}\,(K - 3)^{2}. \]

  3. Hipóteses:

    • \(H_{0}\): resíduos seguem distribuição normal.
    • \(H_{1}\): resíduos não seguem normalidade.
  4. Distribuição sob \(H_{0}\):

    • \(JB \sim \chi^{2}(2)\) (graus de liberdade = 2), assintoticamente.
  5. Regra de decisão:

    • Nível \(\alpha\). Por exemplo, \(\alpha = 0{,}05\).
    • Valor-crítico: \(\chi^{2}_{2,\,1-\alpha}\). Ex.: \(\chi^{2}_{2,\,0.95} ≈ 5{,}99\).
    • Rejeita \(H_{0}\) se \(JB > \chi^{2}_{2,\,1-\alpha}\).
    • Caso contrário, não rejeita (“resíduos não rejeitam a hipótese de normalidade”).

4.3.2. Exemplo de Interpretação

Em uma prova, pode constar:

“Estatística JB = 2,08. \(\chi^{2}_{2,\,0.95} = 5{,}99\).”

Comparação: \(2{,}08 < 5{,}99\) ⇒ não rejeita \(H_{0}\). Conclusão: não há evidência de violação da normalidade dos resíduos ao nível de 5%.


5. Interpretação de Coeficientes

5.1. Modelo em Níveis

  • \(Y = \beta_{0} + \beta_{1}X_{1} + \dots\)
    • \(\beta_{1}\) = variação absoluta em \(Y\) quando \(X_{1}\) varia 1 unidade (ceteris paribus).

5.2. Modelo Log-Log

  • \(\ln Y = \beta_{0} + \beta_{1}\,\ln X_{1} + \dots\)
    • \(\beta_{1} = \displaystyle \frac{\partial \ln Y}{\partial \ln X_{1}} = \frac{\%\Delta Y}{\%\Delta X_{1}}\) (elasticidade).
    • Ex.: se \(\beta_{1} = -0{,}8780\), um aumento de 1% em \(X_{1}\) ⇒ queda de 0,878% em \(Y\).

5.3. Modelo Log-Nível

  • \(\ln Y = \beta_{0} + \beta_{1}\, X_{1} + \dots\)
    • \(\beta_{1}\) ≈ variação percentual em \(Y\) dada um aumento de 1 unidade em \(X_{1}\), desde que \(\beta_{1}\) seja relativamente pequeno.
    • Ex.: \(\beta_{1} = 0{,}05\) ⇒ aumento de 1 unidade em \(X_{1}\) gera ~5% de aumento em \(Y\).

5.4. Coeficiente “Dummy” em Modelo Log-Dummy

  • \(\ln Y = \beta_{0} + \beta_{1}D + u,\quad D \in \{0,1\}.\)
    • Se \(D=1\): \(\ln Y = \beta_{0} + \beta_{1} + u\).
    • Se \(D=0\): \(\ln Y = \beta_{0} + u\).
    • Diferença esperada:
      \[ E(\ln Y \mid D=1) - E(\ln Y \mid D=0) = \beta_{1}. \]
    • Para interpretar em termos absolutos de \(Y\):
      \[ \frac{E(Y\mid D=1) - E(Y\mid D=0)}{E(Y\mid D=0)} = e^{\beta_{1}} - 1. \]
    • Logo, \(\beta_{1}\) se converte em aproximadamente \(100\%\times(\exp(\beta_{1}) - 1)\).
    • Se \(\beta_{1}\) for pequeno (<0,2), pode usar \(\beta_{1}\approx 100\%\times \beta_{1}\).

6. Coeficiente de Determinação (R²) e R² Ajustado

6.1. Definição de R²

  • Soma Total dos Quadrados (SST):
    \[ SST = \sum_{i=1}^{n} \bigl(Y_{i} - \bar{Y}\bigr)^{2}. \]
  • Soma dos Quadrados Explicada (SSE):
    \[ SSE = \sum_{i=1}^{n} \bigl(\hat{Y}_{i} - \bar{Y}\bigr)^{2}. \]
  • Soma dos Quadrados dos Resíduos (SSR):
    \[ SSR = \sum_{i=1}^{n} \bigl(Y_{i} - \hat{Y}_{i}\bigr)^{2}. \]
  • Relacionamento:
    \[ SST = SSE + SSR. \]
  • :
    \[ \boxed{ R^{2} = \frac{SSE}{SST} = 1 - \frac{SSR}{SST}. } \]
    • Interpretação: proporção da variação total de \(Y\) explicada pelo modelo.

6.2. R² Ajustado

  • R² puro tende a aumentar sempre que incluímos mais variáveis, mesmo que irrelevantes.

  • R² ajustado penaliza a quantidade de variáveis e graus de liberdade:

    \[ \boxed{ R^{2}_{\text{adj}} = 1 \;-\; \frac{(n - 1)}{\bigl[n - (k+1)\bigr]}\,(1 - R^{2}). } \]

  • Onde:

    • \(n\) = número de observações.
    • \(k\) = número de variáveis explicativas (excluindo intercepto).
    • \(k+1\) = total de parâmetros (incluindo intercepto).
  • Comportamento:

    • Se incluímos variável irrelevante (que não reduz SSR o suficiente), o incremento em \((1 - R^{2})\) será pequeno, mas \(\frac{n - 1}{n - (k+1)}\) aumenta (porque \(k+1\) aumenta), fazendo com que \(R^{2}_{\text{adj}}\) “caia”.

7. Propriedades Algébricas Essenciais

A seguir, as demonstrações algébricas que frequentemente caem em prova, com cada passo detalhado.

7.1. Provar que \(\hat{\beta}\) é Não-Viciado

Objetivo: mostrar que \(E(\hat{\beta} \mid X) = \beta\).

  1. Partimos de: \[ \hat{\beta} = (X^{T}X)^{-1} X^{T}Y. \]
  2. Sabemos que \(Y = X\beta + u\). Logo: \[ \hat{\beta} = (X^{T}X)^{-1}X^{T}\bigl(X\beta + u\bigr) = (X^{T}X)^{-1}(X^{T}X)\,\beta \;+\; (X^{T}X)^{-1}X^{T}u = \beta \;+\; (X^{T}X)^{-1}X^{T}u. \]
  3. Tomando expectativa condicional a \(X\): \[ E(\hat{\beta} \mid X) = \beta + (X^{T}X)^{-1}X^{T}\,E(u \mid X). \]
  4. Pelo pressuposto \(E(u \mid X)=0\), resulta: \[ E(\hat{\beta} \mid X) = \beta. \] Portanto, \(\displaystyle \boxed{E(\hat{\beta} \mid X) = \beta}\): não-viciado.

7.2. Provar a Variância de \(\hat{\beta}\)

Objetivo: mostrar que \(\displaystyle Var(\hat{\beta} \mid X) = \sigma^{2}(X^{T}X)^{-1}.\)

  1. De \(\hat{\beta} = \beta + (X^{T}X)^{-1}X^{T}u\), temos que o único termo aleatório é \((X^{T}X)^{-1}X^{T}u\).
  2. Portanto: \[ Var(\hat{\beta} \mid X) = Var\!\bigl((X^{T}X)^{-1}X^{T}u \mid X\bigr). \]
  3. Usando \(Var(u \mid X) = \sigma^{2} I\): \[ Var(\hat{\beta} \mid X) = (X^{T}X)^{-1}X^{T}\,\sigma^{2}I\,X (X^{T}X)^{-1} = \sigma^{2}\,(X^{T}X)^{-1} X^{T}X (X^{T}X)^{-1} = \sigma^{2}\,(X^{T}X)^{-1}. \]
  4. Logo: \[ \boxed{ Var(\hat{\beta} \mid X) = \sigma^{2}\,(X^{T}X)^{-1}. } \]

Em particular, se quisermos a variância de \(\hat{\beta}_{j}\): \[ Var\bigl(\hat{\beta}_{j} \mid X\bigr) = \sigma^{2} \,\bigl[(X^{T}X)^{-1}\bigr]_{jj}. \]


7.3. Viés de Omissão de Variável

Enunciado típico:
> Suponha o modelo verdadeiro
> \[ > Y = X_{1}\beta_{1} + X_{2}\beta_{2} + \mu, > \] > em que \(X_{1}\) e \(X_{2}\) são matrizes covariantes, e você estima apenas > \[ > \hat{\beta}_{2} = (X_{2}^{T}X_{2})^{-1} X_{2}^{T} Y. > \] > Demonstre se \(\hat{\beta}_{2}\) é viciado ou não.

Demonstração:

  1. O modelo completo é: \[ Y = X_{1}\beta_{1} + X_{2}\beta_{2} + \mu. \]
  2. Se estimamos somente \(\beta_{2}\) (ignorando \(X_{1}\)), usamos: \[ \hat{\beta}_{2} = (X_{2}^{T}X_{2})^{-1} X_{2}^{T} Y. \]
  3. Substituindo \(Y\) no estimador: \[ \hat{\beta}_{2} = (X_{2}^{T}X_{2})^{-1} X_{2}^{T}\bigl(X_{1}\beta_{1} + X_{2}\beta_{2} + \mu\bigr). \]
  4. Separe em três termos: \[ \hat{\beta}_{2} = (X_{2}^{T}X_{2})^{-1} X_{2}^{T} X_{1}\,\beta_{1} \;+\; (X_{2}^{T}X_{2})^{-1} X_{2}^{T} X_{2}\,\beta_{2} \;+\; (X_{2}^{T}X_{2})^{-1} X_{2}^{T}\,\mu. \]
    • O segundo termo faz \((X_{2}^{T}X_{2})^{-1} X_{2}^{T}X_{2} = I\).
    • Portanto: \[ \hat{\beta}_{2} = \beta_{2} + (X_{2}^{T}X_{2})^{-1}X_{2}^{T}X_{1}\,\beta_{1} + (X_{2}^{T}X_{2})^{-1}X_{2}^{T}\mu. \]
  5. Tomando expectativa condicional a \(X\): \[ E(\hat{\beta}_{2} \mid X) = \beta_{2} + (X_{2}^{T}X_{2})^{-1}X_{2}^{T}X_{1}\,\beta_{1} + (X_{2}^{T}X_{2})^{-1}X_{2}^{T}\,E(\mu\mid X). \]
    • Como \(E(\mu \mid X) = 0\), sobra: \[ E(\hat{\beta}_{2} \mid X) = \beta_{2} + (X_{2}^{T}X_{2})^{-1}X_{2}^{T}X_{1}\,\beta_{1}. \]
    • Se \(X_{2}^{T}X_{1} \neq 0\), o termo adicional não nulo implica viés:
      \[ E(\hat{\beta}_{2} \mid X) \neq \beta_{2}. \]
  6. Conclusão: \(\hat{\beta}_{2}\) é viciado (omissão de variável relevante).

7.4. Covariância entre Dois Coeficientes

A matriz de variância-covariância de \(\hat{\beta}\) é:

\[ Var(\hat{\beta} \mid X) = \sigma^{2} (X^{T}X)^{-1}. \]

  • O elemento \(\bigl[(X^{T}X)^{-1}\bigr]_{jj}\) (posição diagonal) é \(Var(\hat{\beta}_{j})\).
  • O elemento \(\bigl[(X^{T}X)^{-1}\bigr]_{j\ell}\) (posição fora da diagonal) multiplicado por \(\sigma^{2}\) é \(\operatorname{Cov}(\hat{\beta}_{j},\,\hat{\beta}_{\ell})\).

8. Modelos Não-Lineares e Transformações (Log)

8.1. Modelo Exponencial “\(Y = \beta_{1} X^{\beta_{2}} e^{u}\)

Muitos enunciados de prova incluem um modelo do tipo:

\[ Y_{i} = \beta_{1}\, X_{i}^{\beta_{2}} \; e^{u_{i}}, \quad u_{i} \sim (\text{termo de erro aleatório}). \]

8.1.1. Por que não pode-se aplicar MQO diretamente?

  • Porque a forma \(\beta_{1} X^{\beta_{2}}\) não é linear em parâmetros \(\beta_{1}, \beta_{2}\). O parâmetro \(\beta_{2}\) aparece como expoente de \(X_{i}\).
  • MQO exige que o modelo seja linear em parâmetros: \(Y = X\beta + u\).

8.1.2. Transformação Logarítmica

  • Tome logaritmo natural de ambos os lados:

    \[ \ln Y_{i} = \ln \bigl(\beta_{1} X_{i}^{\beta_{2}} e^{u_{i}}\bigr) = \ln \beta_{1} + \beta_{2}\,\ln X_{i} + u_{i}. \]

  • Defina \(\alpha = \ln \beta_{1}\).

  • O modelo se torna linear em parâmetros:

    \[ \ln Y_{i} = \alpha + \beta_{2}\,\ln X_{i} + u_{i}. \]

  • Agora é um MRLM (com \(\ln Y\) e \(\ln X\)) e pode-se estimar \(\alpha\) e \(\beta_{2}\) por MQO.

8.1.3. Elasticidade

  • Elasticidade de \(Y\) em relação a \(X\) é definida por

    \[ \varepsilon_{Y,X} = \frac{\partial Y / Y}{\partial X / X} = \frac{\partial \ln Y}{\partial \ln X}. \]

  • Do modelo \(\ln Y = \alpha + \beta_{2} \ln X + u\), temos

    \[ \frac{\partial \ln Y}{\partial \ln X} = \beta_{2}. \]

  • Logo, \(\boxed{\varepsilon_{Y,X} = \beta_{2}}.\)


9. Função Consumo de Keynes (Exemplo Aplicado)

Em provas de Econometria I, às vezes aparece um enunciado do tipo:

“Admite a seguinte função estatística para as despesas com consumo (\(C_{i}\), em R$): \[ C_{i} = a + b\,Y_{i}^{D} + \mu_{i}, \] em que \(a\) é consumo autônomo; \(b\) é propensão marginal a consumir; \(Y_{i}^{D}\) é renda disponível; \(\mu_{i}\) é erro.
Você estimou a regressão e obteve:
\(\hat{C}_{i} = 5000 + 1,25\,Y_{i}^{D}.\)
Interprete os coeficientes. O modelo está de acordo com a função consumo de Keynes? Justifique.”

9.1. Interpretação dos Coeficientes

  • \(\hat{a} = 5000\):
    • Mesmo quando \(Y^{D} = 0\), há um consumo autônomo de 5 000 R$ (famílias consomem, ainda que a renda disponível seja zero).
  • \(\hat{b} = 1{,}25\):
    • A cada acréscimo de 1 R$ em \(Y^{D}\), o consumo \(C\) aumenta, em média, 1,25 R$.

9.2. Comparação com a Teoria de Keynes

  • Na teoria keynesiana clássica, espera-se que a propensão marginal a consumir \(b\) esteja no intervalo \(0 < b < 1\).
    • Isso significa que, dado um aumento de 1 R$ na renda disponível, famílias tendem a consumir apenas uma fração dessa unidade (ex.: se \(b=0{,}8\), consomem 0,80 R$ de cada 1 R$).
  • Se a estimativa aparenta \(b = 1{,}25 > 1\), isso indicaria:
    • As famílias estão gastando mais do que recebem (endividamento ou uso de poupança).
    • Não está de acordo com o modelo clássico de Keynes, que supõe \(b < 1\).
    • Possível interpretação: algo está errado na especificação, ou há subestimação de renda, ou fenômenos que explicam consumo superior à renda (uso intenso de crédito, etc.).

Conclusão: “Embora o consumo autônomo (\(a\)) faça sentido, \(b = 1{,}25 > 1\) viola a expectativa teórica de Keynes. Portanto, o modelo estimado não está em conformidade com a função consumo proposta por Keynes.”


10. Questões Teóricas Frequentes

A seguir, comentamos enunciados e respostas esperadas em provas já aplicadas (ECO-03719, Prof. Edson Zambon). Adapte à redação exigida pelo examinador, respeitando sempre clareza nos passos.

10.1. Enunciado Exemplo 1 (Provas 2023/2 e 2024/1)

Questão 1, itens (a) a (g)
Suponha a regressão log-log com dummy: \[ \ln(CRED_{i}) = \alpha + \beta_{1}\ln(PLB_{i}) + \beta_{2}\ln(PLP_{i}) + \beta_{3}\,DUMMY_{i} + u_{i}. \] Estimativas fornecidas:

Variáveis Parâmetros Erro-padrão t-teste Valor-p
Intercepto 13,6630 0,5590 24,460 0,0000
ln(PLB) –0,8780 0,2670 –3,290 0,0015
ln(PLP) –1,2540 0,3370 –3,720 0,0004
DUMMY 3,6460 0,5560 6,550 0,0000

F-teste = 27,8000 (Valor-p F = 0,0000), R² = 0,5300.

(a) Teste de Normalidade dos Resíduos (Jarque-Bera)

  1. Hipóteses:
    • \(H_{0}\): Resíduos seguem distribuição normal.
    • \(H_{1}\): Resíduos não seguem normalidade.
  2. Estatística JB (enunciado) = 2,08.
  3. \(\chi^{2}_{2,\,0.95} = 5{,}99\).
  4. Como \(2{,}08 < 5{,}99\), não rejeita \(H_{0}\).
  5. Conclusão: “Não há evidência suficiente para rejeitar a normalidade dos resíduos ao nível de 5%.”

(b) Teste F para Coeficientes \(\beta_{1}, \beta_{2}, \beta_{3}\) (Conjunto)

  1. Hipóteses:
    • \(H_{0}: \beta_{1} = \beta_{2} = \beta_{3} = 0.\)
    • \(H_{1}:\) ao menos um dos três não é zero.
  2. \(q = 3\).
  3. Modelo UR: regressão completa (já fornecida).
  4. Modelo R: apenas intercepto (\(\ln(CRED) = \alpha + u\)).
    • Obter \(SSR_{R}\).
    • Graus de liberdade UR: \(n - 4\).
  5. Calcular \[ F_{\text{calc}} = \frac{(SSR_{R} - SSR_{UR})/3}{SSR_{UR}/(n - 4)}. \]
  6. Valor-p F = 0,0000 < 0,05 ⇒ rejeita \(H_{0}\).
  7. Conclusão: “Os coeficientes \(\beta_{1}, \beta_{2}, \beta_{3}\) são, em conjunto, significativos.”

(c) Interpretação de \(\beta_{1}\) e \(\beta_{2}\)

  • \(\hat{\beta}_{1} = -0{,}8780\) (ln(PLB)):
    • “Se PLB (preferência pela liquidez dos bancos) aumenta 1% (mantendo PLP e DUMMY constantes), CRED (oferta de crédito) cai aproximadamente 0,878%, ceteris paribus.”
    • \(t = -3{,}290,\;p = 0{,}0015 < 0{,}05\) ⇒ estatisticamente significativo.
  • \(\hat{\beta}_{2} = -1{,}2540\) (ln(PLP)):
    • “Se PLP (preferência pela liquidez do público) aumenta 1%, CRED cai ~1,254%, ceteris paribus.”
    • \(t = -3{,}720,\;p = 0{,}0004 < 0{,}05\) ⇒ significativo.

(d) Interpretação de \(\beta_{3}\) (DUMMY) e Cálculo de CRED quando \(\ln(PLB)=\ln(PLP)=0\)

  1. \(\hat{\beta}_{3} = 3{,}6460\). DUMMY = 1 para municípios RGV; 0 caso contrário.
    • Em modelo log-dummy:
      • Diferença percentual aproximada = \((e^{3{,}6460} - 1)\times100\%\).
      • \(e^{3{,}6460} ≈ 38{,}31\). Logo, ≈ (38,31 − 1)×100% ≈ 3731% a mais de CRED para RGV comparado a não-RGV (o valor numérico é ilustrativo e muito alto, mas a interpretação formal se mantém).
  2. Quando \(\ln(PLB) = \ln(PLP) = 0\) (i.e., PLB = 1, PLP = 1) e DUMMY = 1:
    \[ \ln(\hat{CRED}) = 13{,}6630 + (-0{,}8780)\times 0 + (-1{,}2540)\times 0 + 3{,}6460 \times 1 = 13{,}6630 + 3{,}6460 = 17{,}3090. \] \[ \hat{CRED} = \exp(17{,}3090)\ \text{(em mil R\$)}. \]

(e) Intervalo de Confiança para \(\beta_{1}\) (ln(PLB))

  • \(\hat{\beta}_{1} = -0{,}8780,\;\operatorname{se}(\hat{\beta}_{1}) = 0{,}2670,\;df = n - 4.\)
  • \(t_{0{,}975,\;df} ≈ 1{,}99\) (para df próximo).
  • Calcular:
    \[ IC_{95\%}(\beta_{1}) = -0{,}8780 \;\pm\; 1{,}99 \times 0{,}2670 = -0{,}8780 \;\pm\; 0{,}5317 = [\,-1{,}4097,\,-0{,}3463\,]. \]
  • Interpretação: “Com 95% de confiança, \(\beta_{1}\) está entre –1,4097 e –0,3463. O intervalo não inclui zero, reforçando a significância de \(\beta_{1}\).”

(f) Interprete o Coeficiente de Determinação \(R^{2}\)

  • \(R^{2} = 0{,}5300\).
  • Interpretação: “53% da variação total de \(\ln(CRED)\) é explicada por \(\ln(PLB), \ln(PLP)\) e DUMMY, enquanto 47% fica nos resíduos.”

(g) Verdadeiro ou Falso: “O \(R^{2}\) ajustado aumenta se incluir variável irrelevante?”

  • Resposta: FALSO.
  • Justificativa:
    • R² puro aumenta (ou permanece igual) ao adicionar qualquer variável.
    • R² ajustado penaliza o acréscimo de parâmetros: \[ R^{2}_{\text{adj}} = 1 - \frac{n - 1}{\,n - (k+1)\,}(1 - R^{2}). \]
    • Se a nova variável não reduzir SSR o suficiente, o fator \(\frac{n - 1}{n - (k+1)}\) aumenta e \(R^{2}_{\text{adj}}\) pode diminuir.

10.2. Exemplo de Questão Não-Linear / Elasticidade (Baseado em Questão 3)

“Considere o modelo
\[ Y_{i} = \beta_{1} X_{i}^{\beta_{2}} e^{\mu_{i}}, \] onde \(X\) é variável explicativa e \(\mu_{i}\) termo de erro.
(a) Pode ser estimado diretamente por MQO? Justifique.
(b) Se não, qual transformação usar?
(c) Prove que elasticidade de \(Y\) em relação a \(X\) \(\varepsilon_{Y,X} = \beta_{2}.\)

Resposta:

  1. (a) Não, porque o modelo não é linear em parâmetros \(\beta_{1}, \beta_{2}\). O parâmetro \(\beta_{2}\) aparece como expoente de \(X\). O MQO exige forma \(Y = X\beta + u\).
  2. (b) Tome o logaritmo natural: \[ \ln Y_{i} = \ln\bigl(\beta_{1} X_{i}^{\beta_{2}} e^{\mu_{i}}\bigr) = \ln \beta_{1} + \beta_{2} \ln X_{i} + \mu_{i}. \]
    • Defina \(\alpha = \ln \beta_{1}\).
    • O modelo resultante “linear em parâmetros” é: \[ \ln Y_{i} = \alpha + \beta_{2}\ln X_{i} + \mu_{i}. \]
    • Agora aplica-se MQO em \((\ln Y)\) vs. \(\ln X\).
  3. (c) Elasticidade de \(Y\) em relação a \(X\): \[ \varepsilon_{Y,X} = \frac{\partial Y / Y}{\partial X / X} = \frac{\partial \ln Y}{\partial \ln X}. \]
    • Do modelo \(\ln Y = \alpha + \beta_{2}\ln X + u\): \[ \frac{\partial \ln Y}{\partial \ln X} = \beta_{2}. \]
    • Logo, \(\boxed{\varepsilon_{Y,X} = \beta_{2}}.\)

10.3. Questão de Partição de Matriz (Baseado em Questão 4)

“Suponha o modelo verdadeiro:
\[ Y = X_{1}\beta_{1} + X_{2}\beta_{2} + \mu, \] onde \(E(\mu \mid X)=0,\,Var(\mu \mid X)=\sigma^{2}I\).
Você estima apenas
\[ \hat{\beta}_{2} = (X_{2}^{T} X_{2})^{-1} X_{2}^{T} Y. \] O estimador \(\hat{\beta}_{2}\) é viciado ou não? Prove algébrica-mente.”

Demonstração (resumida):

  1. Modelo verdadeiro: \[ Y = X_{1}\beta_{1} + X_{2}\beta_{2} + \mu. \]
  2. Estimador parcial: \[ \hat{\beta}_{2} = (X_{2}^{T}X_{2})^{-1}X_{2}^{T}Y = (X_{2}^{T}X_{2})^{-1}X_{2}^{T}(X_{1}\beta_{1} + X_{2}\beta_{2} + \mu). \]
  3. Expandendo: \[ \hat{\beta}_{2} = (X_{2}^{T}X_{2})^{-1}X_{2}^{T}X_{1}\,\beta_{1} + (X_{2}^{T}X_{2})^{-1}X_{2}^{T}X_{2}\,\beta_{2} + (X_{2}^{T}X_{2})^{-1}X_{2}^{T}\mu. \]
    • O segundo termo = \(\beta_{2}\).
    • Portanto: \[ \hat{\beta}_{2} = \beta_{2} + (X_{2}^{T}X_{2})^{-1}X_{2}^{T}X_{1}\,\beta_{1} + (X_{2}^{T}X_{2})^{-1}X_{2}^{T}\mu. \]
  4. Tomando expectativa condicional a \(X\): \[ E(\hat{\beta}_{2} \mid X) = \beta_{2} + (X_{2}^{T}X_{2})^{-1}X_{2}^{T}X_{1}\,\beta_{1} + (X_{2}^{T}X_{2})^{-1}X_{2}^{T}\,E(\mu\mid X). \]
    • Como \(E(\mu \mid X) = 0\), sobra: \[ E(\hat{\beta}_{2} \mid X) = \beta_{2} + (X_{2}^{T}X_{2})^{-1}X_{2}^{T}X_{1}\,\beta_{1}. \]
    • Se \(X_{2}^{T}X_{1} \neq 0\), o termo adicional não nulo implica viés:
      \[ E(\hat{\beta}_{2} \mid X) \neq \beta_{2}. \]
  5. Conclusão: \(\hat{\beta}_{2}\) é viciado (omissão de variável relevante).

10.4. Questão de Covariância do Estimador (Baseado em Questão 5)

“Mostre que no modelo \(Y = X\beta + \mu\), com \(E(\mu|X)=0\) e \(Var(\mu|X)=\sigma^{2}I\), o estimador MQO satisfaz
\[ Var(\hat{\beta}|X) = \sigma^{2}\,(X^{T}X)^{-1}, \quad Cov(\hat{\beta}) = \sigma^{2}\,(X^{T}X)^{-1}. \]

Demonstração (já abordada em 7.2):

  1. De \(\hat{\beta} = (X^{T}X)^{-1}X^{T}Y = (X^{T}X)^{-1}X^{T}(X\beta + \mu)\),
    \[ \hat{\beta} = \beta + (X^{T}X)^{-1}X^{T}\mu. \]
  2. Portanto, \[ Var(\hat{\beta} \mid X) = Var\bigl((X^{T}X)^{-1}X^{T}\mu \mid X\bigr) = (X^{T}X)^{-1}X^{T}\,\sigma^{2}I\,X\,(X^{T}X)^{-1} = \sigma^{2}(X^{T}X)^{-1}. \]
  3. Daí, os elementos fora da diagonal de \(\sigma^{2}(X^{T}X)^{-1}\) são as covariâncias entre \(\hat{\beta}_{j}\) e \(\hat{\beta}_{\ell}\).

11. Resumo de Conteúdos e Recomendações de Estudo

Este tópico foca em sugerir uma forma de organizar seu estudo antes da prova.

11.1. Blocos de Estudo

  1. Revisão Teórica Básica
    • Entenda completamente as hipóteses de Gauss-Markov.
    • Familiarize-se com as formas de modelagem (nível, log, dummy).
  2. Cálculos Algébricos
    • Derive o estimation de \(\hat{\beta} = (X^{T}X)^{-1}X^{T}Y\).
    • Prove que \(E(\hat{\beta}\mid X)=\beta\) e \(Var(\hat{\beta}\mid X)=\sigma^{2}(X^{T}X)^{-1}\).
  3. Testes
    • Pratique o teste t (individual).
    • Pratique o teste F (hipóteses conjuntas).
    • Calcule intervalos de confiança.
    • Faça exemplos de Jarque-Bera para verificar normalidade.
  4. Interpretação de Coeficientes
    • Para cada tipo de modelo (nível, log-nível, log-log, log-dummy, nível-dummy), escreva a interpretação de \(\beta_{j}\).
  5. Modelos Não-Lineares
    • Transforme modelos do tipo \(Y = \beta_{1} X^{\beta_{2}} e^{u}\) em regressões lineares via log.
    • Prove que elasticidade = \(\beta_{2}\) em regressões log-log.
  6. Questões Aplicadas / Exemplos
    • Função consumo de Keynes.
    • Questões de partição de matriz (viés de omissão).
  7. Provas Anteriores
    • Resolva integralmente provas de 2023/2 e 2024/1.
    • Cronometre-se para conhecer o tempo de resolução de cada questão.

11.2. Cronograma Sugerido (1 Semana antes da Prova)

  • Dia 1: Revisão das hipóteses clássicas e do estimador MQO.
  • Dia 2: Provas algébricas: não-viesado, variância, viés de omissão.
  • Dia 3: Testes t (individual) e intervalos de confiança.
  • Dia 4: Testes F (conjuntos) e exercício numérico completo.
  • Dia 5: Teste de normalidade JB e discussão de heterocedasticidade (mesmo que Econometria I não cubra robustez, convém entender).
  • Dia 6: Interpretação de coeficientes em modelos variados e modelos não-lineares (elasticidade).
  • Dia 7: Simulados — resolva duas provas antigas (2023/2, 2024/1) sem consultar material e depois corrija detalhadamente.

12. Tópicos “De Olho” / Tabela de Fórmulas

Conceito Fórmula / Descrição
Estimador MQO \(\displaystyle \hat{\beta} = (X^{T}X)^{-1}\,X^{T}Y.\)
Erro-padrão \(\hat{\beta}_{j}\) \(\displaystyle se(\hat{\beta}_{j}) = \sqrt{\widehat{\sigma}^{2}\,\bigl[(X^{T}X)^{-1}\bigr]_{jj}}\).
Estimativa de \(\sigma^{2}\) \(\displaystyle \widehat{\sigma}^{2} = \frac{SSR}{\,n - (k+1)\,}.\)
Cov/Var \(\hat{\beta}\) \(\displaystyle Var(\hat{\beta}\mid X) = \sigma^{2}(X^{T}X)^{-1},\quad Cov(\hat{\beta}_{j},\hat{\beta}_{\ell}) = \sigma^{2}(X^{T}X)^{-1}_{j\ell}.\)
\(\displaystyle R^{2} = 1 - \frac{SSR}{SST} = \frac{SSE}{SST}.\)
R² ajustado \(\displaystyle R^{2}_{\text{adj}} = 1 - \frac{n - 1}{\,n - (k+1)\,}(1 - R^{2}).\)
t-Estatística \(\displaystyle t = \frac{\hat{\beta}_{j} - \beta_{j,0}}{ se(\hat{\beta}_{j}) }.\)
F-Estatística (q restrições) \(\displaystyle F = \frac{(SSR_{R} - SSR_{UR})/q}{SSR_{UR}/[\,n - (k+1)\,] }.\)
JB (Jarque-Bera) \(\displaystyle JB = \frac{n}{6}\,S^{2} + \frac{n}{24}(K - 3)^{2},\quad S = \text{assimetria},\,K = \text{curtose}.\)
Modelo log-log (elasticidade) \(\displaystyle \ln Y = \beta_{0} + \beta_{1}\ln X + u,\quad \beta_{1} = \varepsilon_{Y,X}.\)
Modelo log-nível \(\displaystyle \ln Y = \beta_{0} + \beta_{1}X + u,\;\beta_{1}\approx \%\Delta Y / \Delta X.\)
Dummy em log-dummy \(\displaystyle \ln Y = \beta_{0} + \beta_{1}D + u,\;\%\text{diferença} \approx 100\,(e^{\beta_{1}} - 1).\)
Função consumo Keynes \(\displaystyle C = a + b\,Y^{D} + \mu,\quad 0 < b < 1 \;\text{(teoria Keynes)}.\)

13. Dicas Finais

  1. Escreva todos os passos
    • Em questões discursivas, detalhe claramente as hipóteses, o cálculo da estatística (t ou F), graus de liberdade, valor-crítico e conclusão.
  2. Memorize o “Mapa de Fórmulas”
    • Mantenha uma lista à mão com fórmulas: OLS, var(\(\hat{\beta}\)), se(\(\hat{\beta}_{j}\)), R², R² ajustado, t-stat, F-stat, JB.
  3. Distinga Modelos e Interpretações
    • Pratique a interpretação de coeficientes em todos os tipos de especificação (especialmente log-log e log-dummy).
  4. Verifique Premissas
    • Sempre comente se as suposições de homoscedasticidade e normalidade são plausíveis, pois elas autorizam (ou não) testes exatos.
  5. Foco em Testes de Hipóteses
    • Domine o passo-a-passo do teste t (individual) e do teste F (conjunto).
    • Saiba escrever claramente \(H_{0}\), \(H_{1}\), estatística, distribuição teórica, valor crítico e decisão.
  6. Pratique com Provas Antigas
    • Resolva, sem consultar gabarito, as provas de 2023/2 e 2024/1.
    • Cronometre-se para controlar o tempo de resolução.
  7. Releia e Escreva Respostas Curtas e Objetivas
    • Os examinadores valorizam clareza e objetividade. Evite floreios.
    • Use linguagem técnica adequada: “ceteris paribus”, “significância estatística”, “graus de liberdade”, “valor-p”, etc.