UNIVERSIDADE FEDERAL DO PARANA SETOR DE CIENCIAS SOCIAIS APLICADAS
Departamento de Economia
Primeira Lista de Exercícios – Econometria (SE- 308)
Prof. Dr. Mauricio Bittencourt
Recomendação: utilize nos testes, sempre que não for especificado, o nível de confiança de 99%.
Dada a tabela abaixo com estatísticas referentes ao produto \((Y)\), trabalho \((L)\) e capital \((K)\) para o período compreendido entre 1900-1914, para um país hipotético:
## Dados:
| Ano | Y | L | K |
|---|---|---|---|
| 1900 | 11411 | 2782 | 123253 |
| 1901 | 13373 | 2784 | 124742 |
| 1902 | 13632 | 2789 | 127763 |
| 1903 | 14586 | 2876 | 131039 |
| 1904 | 15268 | 2875 | 133927 |
| 1905 | 18847 | 2902 | 136767 |
| 1906 | 22043 | 2978 | 141538 |
| 1907 | 23576 | 3053 | 148950 |
| 1908 | 25552 | 3117 | 156214 |
| 1909 | 28628 | 3196 | 167283 |
| 1910 | 32064 | 3290 | 179364 |
| 1911 | 35877 | 3316 | 190646 |
| 1912 | 40854 | 3348 | 208341 |
| 1913 | 49368 | 3373 | 224248 |
| 1914 | 56808 | 3499 | 242215 |
Estime as seguintes equações:
\(\ln Y_t = \alpha_1 +\alpha_2 \ln X_{2t} +\alpha_3 \ln X_{3t} +\mu_{t}\)
| Y | X2 | X3 |
|---|---|---|
| 2,435 | 1,023 | 4,814 |
| 2,593 | 1,024 | 4,826 |
| 2,612 | 1,026 | 4,850 |
| 2,680 | 1,056 | 4,875 |
| 2,726 | 1,056 | 4,897 |
| 2,936 | 1,066 | 4,918 |
| 3,093 | 1,091 | 4,953 |
| 3,160 | 1,116 | 5,004 |
| 3,241 | 1,137 | 5,051 |
| 3,354 | 1,162 | 5,120 |
| 3,468 | 1,191 | 5,189 |
| 3,580 | 1,199 | 5,250 |
| 3,710 | 1,208 | 5,339 |
| 3,899 | 1,216 | 5,413 |
| 4,040 | 1,252 | 5,490 |
| Observacoes.n | Parametros.p | Variaveis.k |
|---|---|---|
| 15 | 3 | 2 |
| Y | X2 | X3 | y | x2 | x3 | x2x3 | y.quad | x2.quad | x3.quad | Y.x2 | Y.x3 |
|---|---|---|---|---|---|---|---|---|---|---|---|
| 2,435 | 1,023 | 4,814 | -0,7339 | -0,0986 | -0,2518 | 0,0248 | 0,5386 | 0,0097 | 0,0634 | -0,2400 | -0,6130 |
| 2,593 | 1,024 | 4,826 | -0,5753 | -0,0975 | -0,2398 | 0,0234 | 0,3309 | 0,0095 | 0,0575 | -0,2528 | -0,6218 |
| 2,612 | 1,026 | 4,850 | -0,5561 | -0,0959 | -0,2159 | 0,0207 | 0,3092 | 0,0092 | 0,0466 | -0,2505 | -0,5639 |
| 2,680 | 1,056 | 4,875 | -0,4884 | -0,0652 | -0,1905 | 0,0124 | 0,2385 | 0,0043 | 0,0363 | -0,1748 | -0,5106 |
| 2,726 | 1,056 | 4,897 | -0,4428 | -0,0654 | -0,1687 | 0,0110 | 0,1961 | 0,0043 | 0,0285 | -0,1784 | -0,4599 |
| 2,936 | 1,066 | 4,918 | -0,2321 | -0,0560 | -0,1477 | 0,0083 | 0,0539 | 0,0031 | 0,0218 | -0,1644 | -0,4338 |
| 3,093 | 1,091 | 4,953 | -0,0755 | -0,0303 | -0,1135 | 0,0034 | 0,0057 | 0,0009 | 0,0129 | -0,0938 | -0,3509 |
| 3,160 | 1,116 | 5,004 | -0,0083 | -0,0053 | -0,0624 | 0,0003 | 0,0001 | 0,0000 | 0,0039 | -0,0168 | -0,1973 |
| 3,241 | 1,137 | 5,051 | 0,0722 | 0,0152 | -0,0148 | -0,0002 | 0,0052 | 0,0002 | 0,0002 | 0,0493 | -0,0480 |
| 3,354 | 1,162 | 5,120 | 0,1859 | 0,0402 | 0,0537 | 0,0022 | 0,0346 | 0,0016 | 0,0029 | 0,1350 | 0,1800 |
| 3,468 | 1,191 | 5,189 | 0,2992 | 0,0694 | 0,1234 | 0,0086 | 0,0895 | 0,0048 | 0,0152 | 0,2407 | 0,4279 |
| 3,580 | 1,199 | 5,250 | 0,4116 | 0,0772 | 0,1844 | 0,0142 | 0,1694 | 0,0060 | 0,0340 | 0,2764 | 0,6601 |
| 3,710 | 1,208 | 5,339 | 0,5415 | 0,0869 | 0,2731 | 0,0237 | 0,2932 | 0,0076 | 0,0746 | 0,3225 | 1,0134 |
| 3,899 | 1,216 | 5,413 | 0,7308 | 0,0943 | 0,3467 | 0,0327 | 0,5341 | 0,0089 | 0,1202 | 0,3676 | 1,3520 |
| 4,040 | 1,252 | 5,490 | 0,8712 | 0,1310 | 0,4238 | 0,0555 | 0,7589 | 0,0172 | 0,1796 | 0,5291 | 1,7120 |
A partir da matriz obtemos:
\[ \begin{aligned} \Sigma Y_j &= 47,5276 \\ \Sigma X_{2j} &= 16,8234 \\ \Sigma X_{3j} &= 75,9904 \\ \overline{Y} &= 3,1685 \\ \overline{X_2} &= 1,1216 \\ \overline{X_3} &= 5,066 \\ \Sigma y^2_j &= 3,5579 \\ \Sigma x^2_{2j} &= 0,0873 \\ \Sigma x^2_{3j} &= 0,6976 \\ \Sigma x_{2j}x_{3j} &= 0,2411 \\ \Sigma x_{2j}Y_j &= 0,5491 \\ \Sigma x_{3j}Y_j &= 1,5461 \\ \end{aligned} \]
Que permite construtir as matrizes \(X`X\), \(X`y\) e a matriz inversa de \(X`X\):
| 15 | 0,0000 | 0,0000 |
| 0 | 0,0873 | 0,2411 |
| 0 | 0,2411 | 0,6976 |
| 47,5276 |
| 0,5491 |
| 1,5461 |
| 0,0028 | 0,000 | 0,000 |
| 0,0000 | 10,464 | -3,616 |
| 0,0000 | -3,616 | 1,309 |
| 0,0667 | 0,00 | 0,00 |
| 0,0000 | 253,10 | -87,46 |
| 0,0000 | -87,46 | 31,66 |
Com estas matrizes conseguimos produzir a matriz dos \(\alpha\):
| x |
|---|
| -5,703 |
| 3,745 |
| 0,922 |
Tendo em vista o modelo A, construímos as matrizes \(X`X\) e \((X`X)^{-1}\) que são:
\[
X`X =
\begin{bmatrix}
n & 0 & 0 \\
0 & \Sigma x_{1j}^2 & \Sigma x_{1j}x_{2j} \\
0 & \Sigma x_{1j}x_{2j} & \Sigma x_{1j}^2
\end{bmatrix}
=
\begin{bmatrix}
15 & 0 & 0 \\
0 & 0,0873 & 0,2411 \\
0 & 0,2411 & 0,6976
\end{bmatrix}
\]
e
\[
(X`X)^{-1} =
\begin{bmatrix}
0,0667 & 0 & 0 \\
0 & 253,0974 & -87,4625 \\
0 & -87,4625 & 31,6578
\end{bmatrix}
\]
E que \(X`y\) é:
\[
X`y =
\begin{bmatrix}
\Sigma Y_j \\
\Sigma x_{1j}Y_j \\
\Sigma x_{2j}Y_j
\end{bmatrix}
=
\begin{bmatrix}
47,5276 \\
0,5491 \\
1,5461
\end{bmatrix}
\]
Então, determinamos as estimativas do parâmatros na matriz dos \(\hat{\alpha}\) que é:
\[
\hat{\alpha} = (X`X)^{-1}X`y =
\begin{bmatrix}
0,0667 & 0 & 0 \\
0 & 253,0974 & -87,4625 \\
0 & -87,4625 & 31,6578
\end{bmatrix}
.
\begin{bmatrix}
47,5276 \\
0,5491 \\
1,5461
\end{bmatrix}
=
\begin{bmatrix}
3,1685 \\
3,7453 \\
0,922
\end{bmatrix}
\]
Considerando que o \(\hat{\alpha_0}\) estimado na matriz é pelos dados centrados na média, é preciso corrigir o \(\hat{\alpha_0}\):
\[
\begin{aligned}
\hat{\alpha_0} &= \hat{\alpha_{0(media)}} + \hat{\alpha_1}\overline(X_1) + \hat{\alpha_2}\overline(X_2)\\
\hat{\alpha_0} &= 3,1685 - [3,7453*(1,1216) + 0,922 *(5,066)] = -5,7032
\end{aligned}
\]
Resultado do modelo econométrico
A partir da matriz dos \(\hat{\alpha}\), temos que:
\[
\begin{aligned}
\hat{\alpha_1} &= -5,7032\\
\hat{\alpha_2} &= 3,7453\\
\hat{\alpha_3} &= 0,922
\end{aligned}
\]
E, portanto, a equação estimada é:
\[
\hat{Y_t} = -5,7032 + 3,7453X_{2t} + 0,922X_{3t}
\]
| Dependent variable: | |
| Y | |
| X2 | 3.745** |
| (1.265) | |
| t = 2.962 | |
| p = 0.012 | |
| X3 | 0.922* |
| (0.447) | |
| t = 2.061 | |
| p = 0.062 | |
| Constant | -5.703*** |
| (0.931) | |
| t = -6.129 | |
| p = 0.0001 | |
| Observations | 15 |
| R2 | 0.979 |
| Adjusted R2 | 0.975 |
| Residual Std. Error | 0.079 (df = 12) |
| F Statistic | 275.515*** (df = 2; 12) (p = 0.000) |
| Note: | p<0.1; p<0.05; p<0.01 |
(no outro arquivo)
(no outro arquivo)
(em outro arquivo)
(em outro arquivo)
O \(\hat\alpha_2\) e o \(\hat\alpha_3\) são, individualmente, estatisticamente significativos?
Para identificar a significância estatística dos estimadores é preciso realizar o teste “t” para cada um deles.
Inicialmente, é preciso obter a tabela de variância da regressão e, partir dela, a matriz de variância e covariâncias.
A tabela de variância é:
| CV | GL | SQ | QM | Teste.F |
|---|---|---|---|---|
| Regressão (amostra) | 2 | 3,48207565211859 | 1,7410378260593 | 275,514641357957 |
| Resíduos (erro) | 12 | 0,075830648453878 | 0,00631922070448983 | - |
| Total | 14 | 3,55790630057247 | 0 | - |
De onde obtemos a variância dos resíduos \((\hat{\sigma}^2)\):
\[
\hat{\sigma}^2 = \frac{\text{Soma do Quadrado dos Resíduos}}{\text{Graus de Liberdade}} = \frac{0,075830648453878}{12} = 0,00631922070448983
\]
A partir da \((\hat{\sigma}^2)\) a matriz de variância e covariancia é obtida de:
\[
\begin{aligned}
(X`X)^{-1}\hat{\sigma}^2 &=
\begin{bmatrix}
0,0666666667 & 0 & 0 \\
0 & 253,0973739672 & -87,4625093909 \\
0 & -87,4625093909 & 31,6577600565
\end{bmatrix}
.
\begin{bmatrix}
0,00631922070448983
\end{bmatrix} = \\
\\
(X`X)^{-1}\hat{\sigma}^2 &=
\begin{bmatrix}
0,0004212814 & 0 & 0 \\
0 & 1,5993781658 & -0,5526949002 \\
0 & -0,5526949002 & 0,2000523728
\end{bmatrix}
\end{aligned}
\]
Onde:
\[
\begin{aligned}
\hat{\sigma^2}(\hat{\alpha_1}) = \hat{s^2}(\hat{\alpha_1}) &= 0,0004212814 \\
\hat{\sigma^2}(\hat{\alpha_2}) = \hat{s^2}(\hat{\alpha_2}) &= 1,5993781658 \\
\hat{\sigma^2}(\hat{\alpha_3}) = \hat{s^2}(\hat{\alpha_3}) &= 0,2000523728 \\
\hat{cov}(\overline{Y},\hat{\alpha_2}) =\hat{cov}(\overline{Y},\hat{\alpha_3}) = \hat{cov}(\hat{\alpha_1},\hat{\alpha_2}) = \hat{cov}(\hat{\alpha_1},\hat{\alpha_3}) &= 0 \\
\hat{cov}(\hat{\alpha_2},\hat{\alpha_3}) &= -0,5526949002
\end{aligned}
\]
Com estes dados é possível fazer o teste t individual do \(\alpha_2\):
\(H_0 : \hat\alpha_2 = 0\)
\(H_a : \hat\alpha_2 \neq 0\)
Como: \(\hat{\alpha_2} = 3,7453127099\) e \(\hat{\sigma}(\hat{\alpha_2}) = 1,5993781658\)
Então para o teste t temos:
\[
t_{(observado)} =
\frac {\hat{\alpha_2} - \alpha_2}{\sqrt {\hat{\sigma^2}(\hat{\alpha_2})}} =
\frac { 3,7453127099 - 0}{ \sqrt{1,5993781658} } =
\frac { 3,7453127099}{ 1,2646652386 } =
2,9615052232
\]
Para analisarmos a relevância estatística precisamos encontrar o valor valor crítico de t para \(12\) graus de liberdade, que, conforme o nível de significância é:
\[
\begin{aligned}
t_{(5\%,12)} &= 2,179\\
t_{(1\%,12)} &= 3,055 \\
t_{(observado)} &= 2,9615052232
\end{aligned}
\]
Com o valor de \(t_{(observado)}\) está fora da zona crítica em ambos os níveis de significância (5% e 1%), logo não é possível rejeitar \(H_0\), o que significa que o \(\hat{\alpha_2}\) não é significante estatisticamente.
(fim da análise do \(\hat{\alpha_2}\))
Com estes dados é possível fazer o teste t individual do \(\alpha_3\):
\(H_0 : \hat\alpha_3 = 0\)
\(H_a : \hat\alpha_3 \neq 0\)
Como: \(\hat{\alpha_3} = 0,9220351791\) e \(\hat{\sigma}(\hat{\alpha_3}) = 0,2000523728\)
Então para o teste t temos:
\[
t_{(observado)} =
\frac {\hat{\alpha_3} - \alpha_3}{\sqrt {\hat{\sigma^2}(\hat{\alpha_3})}} =
\frac { 0,9220351791 - 0}{ \sqrt{0,2000523728} } =
\frac { 0,9220351791}{ 0,4472721462 } =
2,0614634442
\]
Para analisarmos a relevância estatística precisamos encontrar o valor valor crítico de t para \(12\) graus de liberdade, que, conforme o nível de significância é:
\[
\begin{aligned}
t_{(5\%,12)} &= 2,179\\
t_{(1\%,12)} &= 3,055 \\
t_{(observado)} &= 2,0614634442
\end{aligned}
\]
Com o valor de \(t_{(observado)}\) está fora da zona crítica em ambos os níveis de significância (5% e 1%), logo não é possível rejeitar \(H_0\), o que significa que o \(\hat{\alpha_3}\) não é significante estatisticamente.
(em outro arquivo)
Os dados sustentam a hipótese de \(\hat\alpha_2 = \hat\alpha_3 = 0\) ?
É possível testar a hipótese de \(\hat\alpha_2 = \hat\alpha_3 = 0\) pelo Teste F.
No caso, podemos estruturar as hipóteses seguinte forma:
\[
\begin{aligned}
H_0 &: \, \alpha_2 = \alpha_3 = 0 \\
H_a &: \, \alpha_j \neq 0 \quad \text{(ao menos um} \,\alpha\, \text{diferente de zero)}
\end{aligned}
\]
Para testar essas hipótese, utiliza-se o Teste F, onde, estando o \(F_observado\) na zona crítica da distribuição F para o nível de significância adotado (no caso 1%) e para os graus de liberdade do modelo (\(2\) e \(12\)), podemos rejeitar \(H_0\).
\[
\begin{aligned}
\text{Como:} \quad F_{observado} &= \frac {\frac{\text{Soma dos Quadrados da Regressão}}{k}}{\frac{\text{Soma dos Quadrados dos Resíduos}}{n-k-1}} = \frac{\text{Quadrado Médio da Regressão}}{\text{Quadrado Médio dos Resíduos}} \\
\\
\text{Temos:} \quad F_{observado} &= \frac {1,7410378261}{0,0063192207} = 275,514641358\\
\\
\text{Considerando que:} \quad F_{crítico(2, 12)} &= 6,9266081402\\
\\
\text{Logo:} \quad &\text{o valor F tem significância estatística ao nível de 1%}
\end{aligned}
\] Assim, podemomos rejeitar \(H_0\), assumindo que, pelo menos um \(\hat{\alpha}\) é diferente de zero.