UNIVERSIDADE FEDERAL DO PARANA SETOR DE CIENCIAS SOCIAIS APLICADAS
Departamento de Economia
Primeira Lista de Exercícios – Econometria (SE- 308)
Prof. Dr. Mauricio Bittencourt
Recomendação: utilize nos testes, sempre que não for especificado, o nível de confiança de 99%.
Dada a tabela abaixo com estatísticas referentes ao produto \((Y)\), trabalho \((L)\) e capital \((K)\) para o período compreendido entre 1900-1914, para um país hipotético:
## Dados:
| Ano | Y | L | K |
|---|---|---|---|
| 1900 | 11411 | 2782 | 123253 |
| 1901 | 13373 | 2784 | 124742 |
| 1902 | 13632 | 2789 | 127763 |
| 1903 | 14586 | 2876 | 131039 |
| 1904 | 15268 | 2875 | 133927 |
| 1905 | 18847 | 2902 | 136767 |
| 1906 | 22043 | 2978 | 141538 |
| 1907 | 23576 | 3053 | 148950 |
| 1908 | 25552 | 3117 | 156214 |
| 1909 | 28628 | 3196 | 167283 |
| 1910 | 32064 | 3290 | 179364 |
| 1911 | 35877 | 3316 | 190646 |
| 1912 | 40854 | 3348 | 208341 |
| 1913 | 49368 | 3373 | 224248 |
| 1914 | 56808 | 3499 | 242215 |
Estime as seguintes equações:
\(Y_t = \beta_1 +\beta_2X_{2t} +\beta_3X_{3t} +\mu_{t}\)
| Y | X2 | X3 |
|---|---|---|
| 11,41 | 2,781 | 123,3 |
| 13,37 | 2,784 | 124,7 |
| 13,63 | 2,789 | 127,8 |
| 14,59 | 2,876 | 131,0 |
| 15,27 | 2,875 | 133,9 |
| 18,85 | 2,902 | 136,8 |
| 22,04 | 2,978 | 141,5 |
| 23,58 | 3,053 | 148,9 |
| 25,55 | 3,117 | 156,2 |
| 28,63 | 3,196 | 167,3 |
| 32,06 | 3,290 | 179,4 |
| 35,88 | 3,316 | 190,6 |
| 40,85 | 3,348 | 208,3 |
| 49,37 | 3,373 | 224,2 |
| 56,81 | 3,499 | 242,2 |
| Observacoes.n | Parametros.p | Variaveis.k |
|---|---|---|
| 15 | 3 | 2 |
| Y | X2 | X3 | y | x2 | x3 | x2x3 | y.quad | x2.quad | x3.quad | Y.x2 | Y.x3 |
|---|---|---|---|---|---|---|---|---|---|---|---|
| 11,41 | 2,781 | 123,3 | -15,381 | -0,2971 | -39,166 | 11,6371 | 236,579 | 0,0883 | 1534,00 | -3,3906 | -446,9 |
| 13,37 | 2,784 | 124,7 | -13,419 | -0,2941 | -37,677 | 11,0817 | 180,078 | 0,0865 | 1419,58 | -3,9333 | -503,9 |
| 13,63 | 2,789 | 127,8 | -13,160 | -0,2896 | -34,656 | 10,0372 | 173,186 | 0,0839 | 1201,06 | -3,9482 | -472,5 |
| 14,59 | 2,876 | 131,0 | -12,206 | -0,2028 | -31,380 | 6,3646 | 148,987 | 0,0411 | 984,73 | -2,9584 | -457,7 |
| 15,27 | 2,875 | 133,9 | -11,525 | -0,2034 | -28,492 | 5,7959 | 132,826 | 0,0414 | 811,81 | -3,1057 | -435,0 |
| 18,85 | 2,902 | 136,8 | -7,945 | -0,1761 | -25,652 | 4,5179 | 63,130 | 0,0310 | 658,04 | -3,3194 | -483,5 |
| 22,04 | 2,978 | 141,5 | -4,750 | -0,1006 | -20,881 | 2,1011 | 22,561 | 0,0101 | 436,03 | -2,2179 | -460,3 |
| 23,58 | 3,053 | 148,9 | -3,217 | -0,0252 | -13,469 | 0,3397 | 10,347 | 0,0006 | 181,42 | -0,5946 | -317,6 |
| 25,55 | 3,117 | 156,2 | -1,240 | 0,0381 | -6,205 | -0,2363 | 1,539 | 0,0015 | 38,51 | 0,9730 | -158,6 |
| 28,63 | 3,196 | 167,3 | 1,836 | 0,1171 | 4,864 | 0,5694 | 3,370 | 0,0137 | 23,66 | 3,3518 | 139,2 |
| 32,06 | 3,290 | 179,4 | 5,271 | 0,2117 | 16,945 | 3,5868 | 27,785 | 0,0448 | 287,12 | 6,7872 | 543,3 |
| 35,88 | 3,316 | 190,6 | 9,084 | 0,2374 | 28,227 | 6,7004 | 82,520 | 0,0563 | 796,74 | 8,5164 | 1012,7 |
| 40,85 | 3,348 | 208,3 | 14,062 | 0,2698 | 45,922 | 12,3887 | 197,733 | 0,0728 | 2108,80 | 11,0217 | 1876,1 |
| 49,37 | 3,373 | 224,2 | 22,576 | 0,2945 | 61,829 | 18,2073 | 509,666 | 0,0867 | 3822,78 | 14,5380 | 3052,4 |
| 56,81 | 3,499 | 242,2 | 30,015 | 0,4206 | 79,796 | 33,5605 | 900,929 | 0,1769 | 6367,35 | 23,8923 | 4533,0 |
A partir da matriz obtemos:
\[ \begin{aligned} \Sigma Y_j &= 401,8879 \\ \Sigma X_{2j} &= 46,1793 \\ \Sigma X_{3j} &= 2436,29 \\ \overline{Y} &= 26,7925 \\ \overline{X_2} &= 3,0786 \\ \overline{X_3} &= 162,4193 \\ \Sigma y^2_j &= 2691,2363 \\ \Sigma x^2_{2j} &= 0,8357 \\ \Sigma x^2_{3j} &= 20671,6379 \\ \Sigma x_{2j}x_{3j} &= 126,652 \\ \Sigma x_{2j}Y_j &= 45,6123 \\ \Sigma x_{3j}Y_j &= 7420,8685 \\ \end{aligned} \]
Que permite construtir as matrizes \(X`X\), \(X`y\) e a matriz inversa de \(X`X\):
| 15 | 0,0000 | 0,0 |
| 0 | 0,8357 | 126,7 |
| 0 | 126,6520 | 20671,6 |
| 401,89 |
| 45,61 |
| 7420,87 |
| 1234 | 0 | 0,00 |
| 0 | 310075 | -1899,78 |
| 0 | -1900 | 12,54 |
| 0,0667 | 0,0000 | 0,0000 |
| 0,0000 | 16,7544 | -0,1027 |
| 0,0000 | -0,1027 | 0,0007 |
Com estas matrizes conseguimos produzir a matriz dos betas:
| x |
|---|
| -36,600 |
| 2,441 |
| 0,344 |
Tendo em vista o modelo A, construímos as matrizes \(X`X\) e \((X`X)^{-1}\) que são:
\[
X`X =
\begin{bmatrix}
n & 0 & 0 \\
0 & \Sigma x_{1j}^2 & \Sigma x_{1j}x_{2j} \\
0 & \Sigma x_{1j}x_{2j} & \Sigma x_{1j}^2
\end{bmatrix}
=
\begin{bmatrix}
15 & 0 & 0 \\
0 & 0,8357 & 126,652 \\
0 & 126,652 & 20671,6379
\end{bmatrix}
\]
e
\[
(X`X)^{-1} =
\begin{bmatrix}
0,0667 & 0 & 0 \\
0 & 16,7544 & -0,1027 \\
0 & -0,1027 & 0,0007
\end{bmatrix}
\]
E que \(X`y\) é:
\[
X`y =
\begin{bmatrix}
\Sigma Y_j \\
\Sigma x_{1j}Y_j \\
\Sigma x_{2j}Y_j
\end{bmatrix}
=
\begin{bmatrix}
401,8879 \\
45,6123 \\
7420,8685
\end{bmatrix}
\]
Então, determinamos as estimativas do parâmatros na matriz dos \(\hat{\beta}\) que é:
\[
\hat{\beta} = (X`X)^{-1}X`y =
\begin{bmatrix}
0,0667 & 0 & 0 \\
0 & 16,7544 & -0,1027 \\
0 & -0,1027 & 0,0007
\end{bmatrix}
.
\begin{bmatrix}
401,8879 \\
45,6123 \\
7420,8685
\end{bmatrix}
=
\begin{bmatrix}
26,7925 \\
2,4413 \\
0,344
\end{bmatrix}
\]
Considerando que o \(\hat{\beta_0}\) estimado na matriz é pelos dados centrados na média, é preciso corrigir o \(\hat{\beta_0}\):
\[
\begin{aligned}
\hat{\beta_0} &= \hat{\beta_{0(media)}} + \hat{\beta_1}\overline(X_1) + \hat{\beta_2}\overline(X_2)\\
\hat{\beta_0} &= 26,7925 - [2,4413*(3,0786) + 0,344 *(162,4193)] = -36,6005
\end{aligned}
\]
Resultado do modelo econométrico
A partir da matriz dos \(\hat{\beta}\), temos que:
\[
\begin{aligned}
\hat{\beta_1} &= -36,6005\\
\hat{\beta_2} &= 2,4413\\
\hat{\beta_3} &= 0,344
\end{aligned}
\]
E, portanto, a equação estimada é:
\[
\hat{Y_t} = -36,6005 + 2,4413X_{2t} + 0,344X_{3t}
\]
| Dependent variable: | |
| Y | |
| X2 | 2.441 |
| (6.126) | |
| t = 0.399 | |
| p = 0.698 | |
| X3 | 0.344*** |
| (0.039) | |
| t = 8.833 | |
| p = 0.00001 | |
| Constant | -36.601** |
| (12.881) | |
| t = -2.841 | |
| p = 0.015 | |
| Observations | 15 |
| R2 | 0.990 |
| Adjusted R2 | 0.988 |
| Residual Std. Error | 1.497 (df = 12) |
| F Statistic | 594.760*** (df = 2; 12) (p = 0.000) |
| Note: | p<0.1; p<0.05; p<0.01 |
Para o modelo log-linear, \(\alpha_1\) e \(\alpha_2\) fornecem, respectivamente, as elasticidades do produto com relação ao trabalho e ao capital. Como você calcularia semelhantes elasticidades para o modelo linear?
\[ \begin{aligned} \text{Dado que:} \quad \overline{L} &= 3,07862 \\ \overline{Y} &= 26,7925266667 \\ \frac {\partial Y} {\partial L} &= 2,4413087937 \\ \frac {\partial Y} {\partial K} &= 0,3440303992 \\ \\ \text{A elasticidade é:} \\ e_{(L|Y)} &= \frac {\partial Y} {\partial L} . \frac{\overline{L}}{\overline{Y}} = 2,4413087937. \frac {3,07862}{26,7925266667} = 0,2805208397 \\ \\ e_{(K|Y)} &= \frac {\partial Y} {\partial K} . \frac{\overline{K}}{\overline{Y}} = 0,3440303992. \frac {162,4193333333}{26,7925266667} = 2,0855512726 \end{aligned} \]
Em que diferencia a análise dos resultados obtidos entre o modelo \(A\) e \(B\)?
O B representa a elasticidade (variacao percentual)
No modelo \(Y_t = \beta_1 +\beta_2X_{2t} +\beta_3X_{3t} +\mu_{t}\), temos que a mudança de \(X_2\) em uma unidade (\(\Delta X_2=1\)) é associada com uma mudança de \(\beta_2\) em \(Y\).
Já no modelo \(lnY_t = \alpha_1 + \alpha_2lnX_{2t} + \alpha_3lnX_{3t} + \mu_t\), temos que uma mudança de 1% em \(X_2\) é associada com uma mudança de \(\alpha_2\)% em \(Y_t\), o que significa que a \(\alpha_2\) é a elasticidade de \(Y_t\) em respeito à \(X_2\).
O \(\hat\beta_2\) e o \(\hat\beta_3\) são, individualmente, estatisticamente significativos?
Para identificar a significância estatística dos estimadores é preciso realizar o teste “t” para cada um deles.
Inicialmente, é preciso obter a tabela de variância da regressão e, partir dela, a matriz de variância e covariâncias.
A tabela de variância é:
| CV | GL | SQ | QM | Teste.F |
|---|---|---|---|---|
| Regressão (amostra) | 2 | 2664,3579507879 | 1332,17897539395 | 594,759956332138 |
| Resíduos (erro) | 12 | 26,8783187814347 | 2,23985989845289 | - |
| Total | 14 | 2691,23626956933 | 0 | - |
De onde obtemos a variância dos resíduos \((\hat{\sigma}^2)\):
\[
\hat{\sigma}^2 = \frac{\text{Soma do Quadrado dos Resíduos}}{\text{Graus de Liberdade}} = \frac{26,8783187814347}{12} = 2,23985989845289
\]
A partir da \((\hat{\sigma}^2)\) a matriz de variância e covariancia é obtida de:
\[
\begin{aligned}
(X`X)^{-1}\hat{\sigma}^2 &=
\begin{bmatrix}
0,0666666667 & 0 & 0 \\
0 & 16,7543581719 & -0,102651425 \\
0 & -0,102651425 & 0,0006773053
\end{bmatrix}
.
\begin{bmatrix}
2,23985989845289
\end{bmatrix} = \\
\\
(X`X)^{-1}\hat{\sigma}^2 &=
\begin{bmatrix}
0,1493239932 & 0 & 0 \\
0 & 37,5274149935 & -0,2299248104 \\
0 & -0,2299248104 & 0,0015170689
\end{bmatrix}
\end{aligned}
\]
Onde:
\[
\begin{aligned}
\hat{\sigma^2}(\hat{\beta_1}) = \hat{s^2}(\hat{\beta_1}) &= 0,1493239932 \\
\hat{\sigma^2}(\hat{\beta_2}) = \hat{s^2}(\hat{\beta_2}) &= 37,5274149935 \\
\hat{\sigma^2}(\hat{\beta_3}) = \hat{s^2}(\hat{\beta_3}) &= 0,0015170689 \\
\hat{cov}(\overline{Y},\hat{\beta_2}) =\hat{cov}(\overline{Y},\hat{\beta_3}) = \hat{cov}(\hat{\beta_1},\hat{\beta_2}) = \hat{cov}(\hat{\beta_1},\hat{\beta_3}) &= 0 \\
\hat{cov}(\hat{\beta_2},\hat{\beta_3}) &= -0,2299248104
\end{aligned}
\]
Com estes dados é possível fazer o teste t individual do \(\beta_2\):
\(H_0 : \hat\beta_2 = 0\)
\(H_a : \hat\beta_2 \neq 0\)
Como: \(\hat{\beta_2} = 2,4413087937\) e \(\hat{\sigma}(\hat{\beta_2}) = 37,5274149935\)
Então para o teste t temos:
\[
t_{(observado)} =
\frac {\hat{\beta_2} - \beta_2}{\sqrt {\hat{\sigma^2}(\hat{\beta_2})}} =
\frac { 2,4413087937 - 0}{ \sqrt{37,5274149935} } =
\frac { 2,4413087937}{ 6,1259623728 } =
0,3985184115
\]
Para analisarmos a relevância estatística precisamos encontrar o valor valor crítico de t para \(12\) graus de liberdade, que, conforme o nível de significância é:
\[
\begin{aligned}
t_{(5\%,12)} &= 2,179\\
t_{(1\%,12)} &= 3,055 \\
t_{(observado)} &= 0,3985184115
\end{aligned}
\]
Com o valor de \(t_{(observado)}\) está fora da zona crítica em ambos os níveis de significância (5% e 1%), logo não é possível rejeitar \(H_0\), o que significa que o \(\hat{\beta_2}\) não é significante estatisticamente.
(fim da análise do \(\hat{\beta_2}\))
Com estes dados é possível fazer o teste t individual do \(\beta_3\):
\(H_0 : \hat\beta_3 = 0\)
\(H_a : \hat\beta_3 \neq 0\)
Como: \(\hat{\beta_3} = 0,3440303992\) e \(\hat{\sigma}(\hat{\beta_3}) = 0,0015170689\)
Então para o teste t temos:
\[
t_{(observado)} =
\frac {\hat{\beta_3} - \beta_3}{\sqrt {\hat{\sigma^2}(\hat{\beta_3})}} =
\frac { 0,3440303992 - 0}{ \sqrt{0,0015170689} } =
\frac { 0,3440303992}{ 0,0389495684 } =
8,8327140214
\]
Para analisarmos a relevância estatística precisamos encontrar o valor valor crítico de t para \(12\) graus de liberdade, que, conforme o nível de significância é:
\[
\begin{aligned}
t_{(5\%,12)} &= 2,179\\
t_{(1\%,12)} &= 3,055 \\
t_{(observado)} &= 8,8327140214
\end{aligned}
\]
Com o valor de \(t_{(observado)}\) está dentro da zona crítica em ambos os níveis de significância (5% e 1%), logo é possível rejeitar \(H_0\), o que significa que o \(\hat{\beta_3}\) é significante estatisticamente.
Eles são estatisticamente diferentes de \(1\)? (Dica: Faça o teste de hipótese para os \(\beta\) diferente e igual a 1)
Iniciando com o teste t individual do \(\beta_2\):
\[
\begin{aligned}
H_0 &: \, \beta_2 = 1 \\
H_a &: \, \beta_2 \neq 1
\end{aligned}
\]
Como: \(\hat{\beta_2} = 2,4413087937\) e \(\hat{\sigma}(\hat{\beta_2}) = 37,5274149935\)
Então para o teste t temos:
\[
t_{(observado)} =
\frac {\hat{\beta_2} - \beta_2}{\sqrt {\hat{\sigma^2}(\hat{\beta_2})}} =
\frac { 2,4413087937 - 1}{ \sqrt{37,5274149935} } =
\frac { 1,4413087937}{ 6,1259623728 } =
0,2352787539
\]
Para analisarmos a relevância estatística precisamos encontrar o valor valor crítico de t para \(12\) graus de liberdade, que, conforme o nível de significância é:
\[
\begin{aligned}
t_{(5\%,12)} &= 2,179\\
t_{(1\%,12)} &= 3,055 \\
t_{(observado)} &= 0,2352787539
\end{aligned}
\]
Com o valor de \(t_{(observado)}\) está fora da zona crítica em ambos os níveis de significância (5% e 1%), logo não é possível rejeitar \(H_0\).
(fim da análise do \(\hat{\beta_2}\))
Com estes dados é possível fazer o teste t individual do \(\beta_3\):
\[
\begin{aligned}
H_0 &: \, \beta_3 = 1 \\
H_a &: \, \beta_3 \neq 1
\end{aligned}
\]
Como: \(\hat{\beta_3} = 0,3440303992\) e \(\hat{\sigma}(\hat{\beta_3}) = 0,0015170689\)
Então para o teste t temos:
\[
t_{(observado)} =
\frac {\hat{\beta_3} - \beta_3}{\sqrt {\hat{\sigma^2}(\hat{\beta_3})}} =
\frac { 0,3440303992 - 1}{ \sqrt{0,0015170689} } =
\frac { -0,6559696008}{ 0,0389495684 } =
-16,841511401
\]
Para analisarmos a relevância estatística precisamos encontrar o valor valor crítico de t para \(12\) graus de liberdade, que, conforme o nível de significância é:
\[
\begin{aligned}
t_{(5\%,12)} &= 2,179\\
t_{(1\%,12)} &= 3,055 \\
t_{(observado)} &= -16,841511401
\end{aligned}
\]
Com o valor de \(t_{(observado)}\) está dentro da zona crítica em ambos os níveis de significância (5% e 1%), logo é possível rejeitar \(H_0\).
(em outro arquivo com o modelo B)
Os dados sustentam a hipótese de \(\hat\beta_2 = \hat\beta_3 = 0\) ?
É possível testar a hipótese de \(\hat\beta_2 = \hat\beta_3 = 0\) pelo Teste F.
No caso, podemos estruturar as hipóteses seguinte forma:
\[
\begin{aligned}
H_0 &: \, \beta_2 = \beta_3 = 0 \\
H_a &: \, \beta_j \neq 0 \quad \text{(ao menos um} \,\beta\, \text{diferente de zero)}
\end{aligned}
\]
Para testar essas hipótese, utiliza-se o Teste F, onde, estando o \(F_observado\) na zona crítica da distribuição F para o nível de significância adotado (no caso 1%) e para os graus de liberdade do modelo (\(2\) e \(12\)), podemos rejeitar \(H_0\).
\[
\begin{aligned}
\text{Como:} \quad F_{observado} &= \frac {\frac{\text{Soma dos Quadrados da Regressão}}{k}}{\frac{\text{Soma dos Quadrados dos Resíduos}}{n-k-1}} = \frac{\text{Quadrado Médio da Regressão}}{\text{Quadrado Médio dos Resíduos}} \\
\\
\text{Temos:} \quad F_{observado} &= \frac {1332,1789753939}{2,2398598985} = 594,7599563321\\
\\
\text{Considerando que:} \quad F_{crítico(2, 12)} &= 6,9266081402\\
\\
\text{Logo:} \quad &\text{o valor F tem significância estatística ao nível de 1%}
\end{aligned}
\] Assim, podemomos rejeitar \(H_0\), assumindo que, pelo menos um \(\hat{\beta}\) é diferente de zero.
(em outro arquivo com o modelo B)