Está cada vez mais evidente que o crescimento do Brasil perdeu força. O último surto de crescimento, que durou até 2010, deveu-se à conjugação de um cenário internacional favorável aliado à colheita dos efeitos positivos de um longo ciclo de reformas. As primeiras foram introduzidas ainda no governo Collor, sendo seguidas pelas reformas nos governos de FHC e Lula. Foi uma longa série de avanços; redução de tarifas, controle da inflação, Lei de Responsabilidade Fiscal e acordos com os Estados, criação das Agências Reguladoras, crédito consignado, Lei de Falências, garantia para empréstimos imobiliários, entre várias outras mudanças. A execução de uma política econômica de boa qualidade durante um considerável período de tempo foi crucial para potencializar os efeitos positivos dessas mudanças, levando ao crescimento da economia e à melhoria na distribuição de renda (CDPP,2017).
A combinação do fim de dois ciclos, um externo e outro interno. No mundo, encerrou-se o forte ciclo de elevação dos preços internacionais das commodities, que permitiu no passado recente obter ganhos de renda e distribuí-los à população. Além disso, o período de excepcional liquidez internacional está na sua fase final, e o Brasil permanece dependente da poupança externa para financiar parte do investimento. Em outras palavras, há um déficit externo provocado pelo excesso de consumo e investimento em relação à renda, que tem de ser financiado com capitais internacionais (CDPP,2017).
Diante do desafio da redução do crescimento, alterou-se o rumo das políticas macro e microeconômica. Uma nova agenda foi adotada com base num determinado diagnóstico das razões da desaceleração e na reavaliação do papel do Estado no processo de desenvolvimento econômico. Apesar de ter como objetivo relançar o crescimento no curto prazo, essa nova agenda levou à perda de transparência, inclusive na execução da política fiscal (CDPP,2017).
Extrair conclusões a respeito da dinâmica da Curva IS por meio de modelos econométricos.
Este estudo se justifica pelo propósito de demonstrar que a má condução das “regras do jogo” da economia por seus principais representantes pode trazer graves consequências para o crescimento sustentável do país. A realização deste trabalho poderá trazer benefícios para as instituições uma vez que através de um diagnóstico que possa revelar erros de condução de política econômica faça com que os mesmos não ocorram uma vez mais.
O presente estudo irá expor os principais fatos ocorridos na conjuntura econômica brasileira nos últimos 20 anos, iniciando na posse do ex-presidente Lula em 1 de janeiro de 2003 até o atual governo vigente do presidente Jair Bolsonaro.
O modelo IS-LM, que significa “poupança de investimento” (IS) e “preferência de liquidez-oferta de dinheiro” (LM) é um modelo macroeconômico keynesiano que mostra como o mercado de bens econômicos (IS) interage com o mercado de fundos emprestáveis (LM) ou mercado monetário. É representado como um gráfico no qual as curvas IS e LM se cruzam para mostrar o equilíbrio de curto prazo entre taxas de juros e produto.
O economista britânico John Hicks introduziu pela primeira vez o modelo IS-LM em 1936, apenas alguns meses depois que o colega economista britânico John Maynard Keynes publicou “A teoria geral do emprego, juros e dinheiro”. O modelo de Hicks serviu como uma representação gráfica formalizada das teorias de Keynes, embora seja usado principalmente como um dispositivo heurístico hoje.
As três variáveis críticas exógenas, ou seja, externas, no modelo IS-LM são liquidez, investimento e consumo. De acordo com a teoria, a liquidez é determinada pelo tamanho e velocidade da oferta monetária. Os níveis de investimento e consumo são determinados pelas decisões marginais dos atores individuais.
O gráfico IS-LM examina a relação entre a produção, ou produto interno bruto (PIB) e as taxas de juros. A economia inteira é reduzida a apenas dois mercados, produção e dinheiro; e suas respectivas características de oferta e demanda levam a economia a um ponto de equilíbrio.
A curva IS representa todas as combinações de renda (Y) e taxa de juros real (r) de modo que o mercado de bens e serviços esteja em equilíbrio. Ou seja, cada ponto da curva IS é um par renda/taxa de juros real (Y,r) tal que a demanda por bens é igual à oferta de bens (onde é assumido implicitamente que tudo o que é demandado é fornecido) ou, equivalentemente, a poupança nacional desejada é igual ao investimento desejado.
Ao construir a curva IS, examinamos como o investimento muda quando variamos a taxa de juros e, depois, qual alteração da renda é necessária para mover a poupança de modo a igualá-lá ao novo nível de investimento (FROYEN ,2012, p149).
Na curva IS, o investimento varia de forma inversa em relação à taxa de juros, por isso, a curva é negativamente inclinada (BLANCHARD, 2005).
A curva IS será́ deslocada quando qualquer componente dos gastos autônomos mudar: a, T, I e G. Com o setor governamental no modelo, a condição para o equilíbrio do mercado de bens é dada pela seguinte equação:
\[\tag{2.1} I(r)+G=S(Y-T)+T\]
O Banco Central, em seu primeiro working paper, estimou a curva IS com um modelo MQO, com os dados na frequência trimestral, com a seguinte especificação e variáveis:
\[\tag {2.2} h_t = \beta_0 + \beta_1h_{t-1} + \beta_2h_{t-2} + \beta_3r_{t-1} + \beta_4pr_{t-1} + \epsilon^{hf}_t \] Onde \(h\) é o log do hiato do produto obtido pelo filtro HP, \(r\) é o log da taxa real de juros, \(pr\) é o log da Necessidade de Financiamento do Setor Público no conceito primário, em proporção do PIB, e \(\epsilon^{hf}\) é um choque de demanda.
Já no Working Paper 24, o Banco Central, por sua vez, acrescentou o câmbio como uma variável explanatória para o modelo IS, substituindo o componente fiscal, que era a necessidade de financiamento.
\[\tag{2.3} h_t = \beta_0 + \beta_1h_{t-1} + \beta_2r_{t-1} + \beta_3\theta_t + \epsilon^{h}_t\]
Onde \(h\) é o log do hiato do produto obtido pelo filtro HP, \(r\) é o log da taxa real de juros, \(\theta\) é o da taxa de câmbio, e \(\epsilon^{h}\) é um choque de demanda.
Uma das grandes diferenças entre o Working Paper 24 e o 01, é que o 24 vai um passo além em termos de sofisticação da ferramenta, ao utilizar o modelo VAR, o qual oferece tanto uma previsão poderosa, como também análises da influência de uma variável em outra via função de impulso resposta e decomposição da variância.
O presente estudo foi realizado utilizando três modelos estatísticos: modelo dos mínimos quadrados ordinários (MQO), modelo autorregressivo integrado de médias móveis (ARIMA) e o modelo de vetores autorregressivos (VAR). Apesar da previsão ter sido estimada em todos, cada modelo serviu para um fim em específico além disso.
O modelo dos Mínimos Quadrados Ordinários (MQO), em linhas gerais, mensura a relação de uma variável em relação a uma única ou mais de uma variável, na chamada regressão simples e múltipla, respectivamente. A variável a qual se deseja explicar, é conhecida na literatura como variável dependente, e a variável, ou variáveis, que se usa para explicá-la, são conhecidas como variáveis explicativas ou explanatórias.
Para descrever a relação da variável dependente com as demais variáveis submetidas ao modelo, foi adotada a forma funcional linear, portanto, graficamente, a função de regressão é ilustrada por uma linha reta, e é matematicamente especificada da seguinte forma:
\[\tag{3.1} \hat{Y}_i = \hat{\beta}_0 + \hat{\beta}_1X_i + \hat{u}_i\] Onde \(\hat{Y_i}\) corresponde ao valor estimado da variável dependente no tempo \(i\), \(\hat{\beta}_0\) é o intercepto da função, \(\hat{\beta}_1\) é a inclinação da reta de regressão e \(\hat{u}_i\) é o resíduo da regressão, correspondendo a diferença entre o valor observado e o estimado, ambos no tempo \(i\). Os parâmetros \(\hat{\beta}\) \(0\) e \(1\) são obtidos através de um exercício de diferenciação1 e posteriormente simples manipulação algébrica2.
Uma vez estimado os parâmetros, a função de regressão estimada pelo MQO, por sua vez, deve ser a mais próxima possível das observações da variável dependente, e para que seja medido o quão distante a a função de regressão está dos dados, basta apenas calcular o somatório do quadrado dos resíduos, ou seja, o quadrado da diferença entre o desvio do valor estimado e o valor observado (\(\sum \hat{u}^2 = \sum (Y_i - \hat{Y}_i)^2\)).
O método dos mínimos quadrados ordinários, por sua vez, postula as seguintes hipóteses acerca das variáveis e do resíduo:
E, quanto aos parâmetros estimados, para que um coeficiente beta possa ser considerado um melhor estimador linear não viesado (MELNT), ele deve, de acordo com o Teorema de Gauss-Markov3:
O modelo de processo autorregressivo integrado de médias móveis (ARIMA) segue a metodologia Box-Jenkins, que consiste basicamente em deixar os dados falarem por si só, trazendo uma previsão ateórica, baseado apenas no comportamento da variável ao longo do tempo, em outras palavras, é a variável em função dela mesma.
O próprio nome do modelo sugere as características da variável submetida a ele, onde, disposta em série temporal, a variável possui um processo autorregressivo (AR), um processo de média móvel (MA) e um processo de diferenciação para torná-la estacionária. Uma série temporal é dita estacionária caso possua média e variância constante ao longo do tempo, e a estacionariedade é uma propriedade desejável pois o seu comportamento pode ser generalizado para outros períodos e assim se chegar a previsões mais assertivas. Já uma série temporal não estacionária não pode sugerir conclusões sobre o seu comportamento que sirva de base para previsões, pois provavelmente a trajetória dela é única para cada janela de tempo, portanto, contribui para aumentar a margem de erro da previsão consideravelmente (GUJARATI, 2011, p.736).
Uma variável que possui processo autorregressivo pode ser modelada matematicamente, considerando-a em termos de desvio da própria média, da seguinte forma: \[\tag{3.2.1} (Y_t - \delta) = \alpha_1 (Y_{t-1} - \delta) + u_t\] Onde \(\delta\) é a média da variável e \(u_t\) é um resíduo ruído branco, ou seja, é um erro aleatório, com média zero e variância constante, além de ser não correlacionado. Portanto, a conclusão é que as observações da variável expressa como desvios do valor médio depende da proporção \(\alpha_1\) do seu desvio no período anterior, mais um componente aleatório (GUJARATI, 2011, p.769).
A presença apenas de um único \(\alpha\) indica que a variável foi modelada com um processo autorregressivo de ordem 1, ou apenas AR(1). Generalizando para um número finito de ordens da autorregressividade, um processo AR(p) possui \(p\) proporções \(\alpha\) e \(p\) defasagens:
\[\tag{3.2.2} (Y_t - \delta) = \alpha_1 (Y_{t-1} - \delta) + \alpha_2 (Y_{t-2} - \delta) + ... + \alpha_p (Y_{t-p} - \delta) + u_t\]
Por sua vez, uma série temporal com média móvel significa dizer que o seu valor pode ser previsto com uma média móvel dos termos de erros, tanto atuais quanto do passado. Portanto, possui uma especificação matemática simples, onde, considerando um processo de média móvel de ordem finita \(q\):
\[\tag{3.2.3} Y_t = \mu + \beta_0 u_t + \beta_1 u_{t-1} + \beta_2 u_{t-2} + ... + \beta_q u_{t-q}\]
Onde \(\mu\) é o intercepto e os coeficientes betas são médias móveis dos termos de erro. Logo, um processo de média móvel MA(q) nada mais é do que uma combinação linear dos termos de erro de média zero e variância constante (GUJARATI, 2011, p.770).
Entretanto, embora uma série temporal possa ser especificada apenas como um processo autorregressivo ou um processo apenas de média móvel, o mais provável é que ela tenha um comportamento que mescla os dois processos, sendo assim, a variável pode ser modelada para previsões a partir de um modelo ARMA(p,q), seguindo a seguinte especificação matemática, onde \(\theta\) é um intercepto:
\[\tag{3.2.4} Y_t = \theta + \alpha_t Y_{t-1} + \beta_0 u_t + \beta_1 u_{t-1} + ... + \alpha_p Y_{t-p} + \beta_q Y_{t-q}\]
Todavia, grande parte das séries temporais econômicas não são estacionárias, ou seja, são integradas. E, como a metodologia Box-Jenkins almeja um modelo estável para previsão, as características dos dados devem se manter constantes ao longo do tempo. Portanto, há a necessidade de diferenciar a série para buscar a estabilidade dos dados. Surge, daí, o modelo ARIMA(p,d,q), onde o processo de integração diferencia a série \(d\) vezes para torná-la estacionária, e, uma vez estável, aplica-se o modelo ARMA.
O maior critério para a seleção do modelo ARIMA definitivo, após o diagnóstico do resíduo ruído branco, é o cálculo da raíz quadrática média (ou Root Mean Squared Error - RMSE), dado pela seguinte expressão abaixo:
\[\tag{3.2.5} \sqrt{\frac{1}{n}\sum^{n}_{j=i}(y_i-\hat{y_i})^2}\]
Embora análises univariadas possam sugerir resultados sólidos e interessantes para a economia, os modelos econômicos, em sua grande maioria, são especificados matematicamente com mais de uma variável (BUENO, 2011, p.195). O modelo de vetor autorregressivo (VAR), por sua vez, resolve esse problema ao expressar um sistema com todas as variáveis do modelo sendo determinadas ao mesmo tempo, ou seja, todas as variáveis inclusas tornam-se endógenas.
Partindo de um caso simples, dado um modelo qualquer de apenas duas variáveis, Enders (2004) propõe o seguinte sistema bivariado:
\[\tag{3.3.1} y_t = b_{10} - b_{12}z_t + \gamma_{11}y_{t-1} + \gamma_{12} z_{t-1} + \epsilon_{y_t}\] \[\tag {3.3.2} z_t = b_{20} - b_{21}y_t + \gamma_{21} y_{t-1} + \gamma_{22} z_{t-1} + \epsilon_{zt}\]
No sistema acima, é notável que ambas as equações incorporam um efeito de causalidade múltipla (também chamado de feedback), onde o coeficiente \(b_{12}\) representa o efeito contemporâneo de \(z\) em \(y\), assim como \(\gamma_{12}\) representa o efeito de \(z\) em uma defasagem em \(y\). Seguindo tal lógica para os coeficientes \(b_{21}\) e \(\gamma_{21}\), é possível identificar os efeitos de \(y\) em \(z\).
Tanto \(y_t\) quanto \(z_t\), nas equações 3.3.1 e 3.3.2, possuem efeito contemporâneo entre si, é possível reduzir esse sistema, reescrevendo-o de forma compacta através de álgebra matricial.
\[\tag{3.3.3} \begin{bmatrix} 1 & b_{12} \\ b_{21} & 1 \end{bmatrix} \begin{bmatrix} y_t \\ z_t \end{bmatrix} = \begin{bmatrix} b_{10} \\ b_{20} \end{bmatrix} + \begin{bmatrix} \gamma_{11} & \gamma_{12} \\ \gamma_{21} & \gamma_{22} \end{bmatrix} \begin{bmatrix} y_{t-1} \\ z_{t-1} \end{bmatrix} + \begin{bmatrix} \epsilon_{yt} \\ \epsilon_{zt} \end{bmatrix}\] E então, por fins simplicidade de notação, cada matriz acima pode ser representada por um símbolo:
\[\tag{3.3.4} B = \begin{bmatrix} 1 & b_{12} \\ b_{21} & 1 \end{bmatrix}, \ \ \ x_t = \begin{bmatrix} y_t \\ z_t \end{bmatrix}, \ \ \ \Gamma_0 = \begin{bmatrix} b_{10} \\ b_{20} \end{bmatrix}, \ \ \ \\ \Gamma_1 = \begin{bmatrix} \gamma_{11} & \gamma_{12} \\ \gamma_{21} & \gamma_{22} \end{bmatrix}, \ \ \ \epsilon_t = \begin{bmatrix} \epsilon_{yt} \\ \epsilon_{zt} \end{bmatrix}\] Enfim, rearranjando o sistema 3.3.3 com a notação estabelecida em 3.3.4, e multiplicando todos pela matriz inversa de B, chega-se na seguinte equação: \[\tag{3.3.5} x_t = A_0 + A_1 x_{t-1} + \epsilon_t\] A equação acima, 3.3.5, é o modelo VAR em sua forma padrão, onde \(A_0 = B^{-1} \Gamma_0\), \(A_1 = B^{-1} \Gamma_1\) e \(\epsilon_t = B^{-1} \epsilon_t\). E então, sendo \(a_{ij}\) um elemento da linha \(i\) e coluna \(j\) das matrizes \(A_1\) e \(A_0\), bem como também mantendo a mesma lógica pra \(e_i\) da matriz \(e_t\), é possível sair da equação 3.3.5 para retornar a um sistema de duas equações:
\[\tag{3.3.6} y_t = a_{10} + a_{11} y_{t-1} + a_{12} z_{t-1} + e_{1t}\] \[\tag{3.3.7} z_t = a_{20} + a_{21} y_{t-1} + a_{22} z_{t-1} + e_{2t} \]
Apesar das semelhanças entre as equações 3.3.1 e 3.3.2 em relação a 3.3.6 e 3.3.7, o primeiro sistema é definido como VAR estrutural, ou o sistema primitivo, enquanto que o segundo sistema é a forma padrão do VAR (ENDERS, 2004, p.295). Uma importante diferença entre os sistemas, entretanto, está nos termos de erro \(e_{1t}\) e \(e_{2t}\), os quais são compostos pelos choques \(\epsilon_{yt}\) e \(\epsilon_{zt}\).
O VAR, por sua vez, não é limitado apenas a realizar previsões. O termo de erro, nesta metodologia, pode ser utilizado para “dar choques” nos modelos econômicos estimados, é a chamada função de impulso-resposta, a qual mensura a resposta na variável \(y\), dado um choque de uma unidade na variável \(z\) (FERREIRA, 2017, p.212). Outra poderosa ferramenta do VAR chama-se decomposição da variância, que informa, para cada variável de um modelo estimado, o quanto a variação percentual do erro de previsão é atribuída a cada uma, auxiliando a identificar, dado a magnitude do erro de previsão, quais variáveis são importantes para o modelo quando se quer realizar previsões, e, via de regra, quanto maior for erro atribuído a uma variável, mais importante ela é para o modelo para se ter previsões mais robustas em termos de confiança.(FERREIRA, 2017, p.215).
Para mensurar a trajetória das variáveis do modelo, no que se refere a sua dinâmica de variação ao longo do tempo, foi utilizado as seguintes taxas de crescimento:
• Taxa de crescimento bruta
A taxa de crescimento bruta, ou simplesmente de ponta a ponta, se refere apenas a variação do último valor da série em relação ao valor inicial.
\[\tag{3.4.1} \Delta_X = \left[ \left( \frac{X_{tn}}{X_{t0}} \right) - 1\right]*100 \] • Taxa de crescimento composta
A taxa de crescimento aritmética, por sua vez, expressa uma taxa que incide sobre um valor constante (o valor inicial) ao longo de todos os meses considerados.
\[\tag{3.4.2} \Delta_X~mensal = \left[ \left( \frac{(X_{tn} - X_{t0})}{X_{t0}*n} \right)-1 \right] *100\] • Taxa de crescimento geométrica
A taxa de crescimento geométrica, por sua vez, incide sobre o valor do primeiro instante, ou seja, o valor inicial, e no período seguinte incide sobre tal valor acrescido da taxa, ou seja, a taxa geométrica vai compondo os valores tal como os juros compostos alargam um dado capital na matemática financeira.
\[\tag{3.4.3} \Delta_X~mensal = \left[\sqrt[n]{\left(\frac{X_{tn}}{X_{t0}} \right)}-1\right]*100\]
• Taxa de crescimento log-lin
A última taxa utilizada no presente trabalho foi obtida através de um modelo semilogarítmico de regressão linear em função do tempo, neste caso, mensurado em mês, e a variável explicativa foi submetida ao algoritmo em log.
\[\tag{3.4.4} lnY_t = \beta_0 + \beta_1t + u_t\]
A equação 3.3.4, caracterizando o modelo log-lin, nos diz que a variável \(Y\) no período t depende de um intercepto \(\beta_0\) e do tempo, o qual contribui para o valor de \(Y\) de acordo com o \(\beta_1\) estimado; e do termo de erro. O coeficiente angular, nesta regressão, mensura o quanto a variação proporcional ou relativa constante em \(Y\) corresponde da variação absoluta no valor do tempo discreto. Como o objetivo desta regressão é encontrar a taxa de crescimento, basta apenas multiplicar o coeficiente angular por 100.
Os modelos estimados passaram por uma avaliação estatística, econométrica e econômica, com a finalidade de apontar as fragilidades de cada método, bem como a validação dos seus resultados.
Para avaliar o quão bem ajustado está a reta de regressão estimada, para o caso dos modelos a partir de duas variáveis explanatórias, é utilizado o coeficiente de determinação múltiplo, cuja interpretação é a proporção da variável \(Y\) que é explicada pelas variáveis explanatórias em conjunto.
O coeficiente de determinação múltiplo, por sua vez, pode assumir valores entre 0 e 1, onde 1 a regressão explica 100% da variação da variável dependente, e 0 é, respectivamente, a lógica oposta. Para se chegar no resultado, a estatística é calculada da seguinte forma, onde \(y\) é a variável \(Y\) em termos de desvio em relação a média:
\[\tag{3.5.1} R^2 = 1 - \frac{\sum û_i^2}{\sum y_i^2}\]
Para estimar a significância estatística dos parâmetros estimados no modelo MQO, é utilizado o teste t-Student, ou simplesmente o teste de t, que consiste nas seguintes hipóteses:
\[ \left\{ \begin{array}{ll}H_0: O\ parâmetro\ não\ tem\ significância\ estatística.\\ H_1: O\ parâmetro\ tem\ significância\ estatística.\\ \end{array}\right.\]
O teste consiste em defrontar \(t_{cal}\) com \(t_{\beta_n}\), considerando um nível de significância de 5%4, para tomar a decisão da reijeição ou não rejeição da hipótese nula.
Se o teste de t avalia a significância do parâmetro estimado no modelo, o teste de F-Snedecor, ou apenas teste F, avalia a significância estatística de uma variável sobre a sua influência na variável dependente. Em termos de regressão múltipla, é feito um teste global do modelo, com as seguintes hipóteses:
\[ \left\{ \begin{array}{ll}H_0: Todos\ os\ \hat{\beta_n}\ =0\\ H_1: Pelo\ menos\ um\ \hat{\beta_n}\ \neq 0\\ \end{array}\right.\]
Portanto, caso a hipótese nula seja aceita, pode-se afirmar que a regressão estimada não existe. Caso contrário, a regressão existe e pelo menos uma variável explanatória possui influência sobre a variável dependente.
O efeito marginal de uma variável explanatória sobre uma variável independente é tanto de fácil interpretação quanto de fácil obtenção.
Dado uma regressão linear qualquer, de forma funcional \(Y = \beta_0 + \beta_1 X_1 + \beta_2 X_2\), e resgatando o conceito de derivada parcial, o efeito marginal é obtido através do seguinte simples exercício de cálculo diferencial:
\[EM_{X_n} = \frac{\partial Y}{\partial X_n} = \beta_{X_n}\]
Portanto, dado uma variação de uma unidade na variável \(X_n\), \(Y\) vai ser impactada na magnitude de \(B_{X_n}\), desde que as demais variáveis permaneçam constante.
A elasticidade nada mais é do que a variação pertencial da variável dependente, dado uma variação percentual na variável explanatória. A elasticidade é classificada em elástica, quando o seu valor calculado for maior que 1; inélastica, quando o seu valor calculado for inferior a 1; e unitária, quando o valor é exatamente 1.
Caso seja elástica, uma variação percentual na variável explanatória vai levar a uma variação percentual maior do que a dela na variável dependente. Caso seja inelástica, a variação percentual da variável explanatória vai levar a uma variação percentual menor que a dela na variável dependente. Caso a elasticidade seja unitária, a variação percentual da variável explanatória vai levar a uma variação percentual igual na variável dependente.
A elasticidade pode ser calculada de várias formas, entretanto, no presente trabalho, a elasticidade foi obtida através da regressão log-log5, onde os coeficientes betas estimados são as respectivas elasticidades.
A heterocedasticidade é a variância dos erros heterogênea. A presença da heterocedasticidade em um modelo MQO, por exemplo, viola uma de suas hipóteses (a de homocedasticidade), e, portanto, pode gerar a incerteza acerca das estatísticas calculadas. Para o diagnóstico da heterocedasticidade, foi utilizado no presente trabalho o teste de White.
O Teste de White consiste em, dado uma regressão linear qualquer \(Y = \beta_0 + \beta_1 X_1 + \beta_2 X_2\), é estimado uma nova regressão igualada ao quadrado do resíduo (\(û^2_i = \alpha_0 + \alpha_1 X_1 + \alpha_2 X_2 + v_i\)), e levantado as seguintes hipóteses:
\[ \left\{ \begin{array}{ll}H_0: Homocedasticidade\ (\alpha_0 = \alpha_1 = \alpha_2 = 0)\\ H_1: Heterocedasticidade\ (\alpha_0, \alpha_1, \alpha_2 \neq 0)\\ \end{array}\right. \] A estatística calculada, por sua vez, é o \(R^2\) da nova regressão multiplicado pelo tamanho da amostra, seguindo uma distribuição Qui-Quadrado com o número de regressores sendo os graus de liberdade.
Segue das hipóteses do MQO que os resíduos não podem ser autocorrelacionados, ou seja, a covariância entre eles deve ser igual a zero. Para o diagnóstico de autocorrelação, foi utilizado o Teste de Durbin-Watson e o Teste de Breusch-Godfrey.
O Teste de Durbin-Watson corresponde a soma do quadrado dos desvios do termo de erro no tempo \(t\) em relação ao tempo imediatamente anterior, em relação a soma do quadrado dos resíduos.
\[\tag{3.5.2} d = \frac{\sum^{t=n}_{t=2}(û_t - û_{t-1})^2}{\sum^{t=n}_{t=1} \sum û^2_t}\]
Aplicando o produto notável, e considerando que \(\sumû^2_t\) é aproximadamente igual a \(\sumû^2_{t-1}\), pode-se chegar em 3.5.3, e posteriormente a 3.5.4 e 3.5.5.
\[\tag{3.5.3} d = \frac{\sumû^2_t - 2 \sum û_tû_{t-1} + \sumû^2_{t-1}}{\sum^{t=n}_{t=1} \sum û^2_t}\] \[\tag{3.5.4} d \cong 2 \left ( 1 - \frac{\sum û_t \sum û_{t-1}}{\sum û^2_t} \right ) \]
\[\tag{3.5.5} p = \frac{\sum û_t \sum û_{t-1}}{\sum û^2_t}\]
Por sua vez, \(p\) e \(d\) são coeficientes de autocorrelação, onde os valores que p pode assumir estão no círculo unitário e d é uma estatística positiva que pode ir do nulo até um.
Já para se calcular o Teste de Breusch-Godfrey, supondo que o resíduo possa ser modelado por um processo autorregressivo de ordem p \(e_t = p_1e_{t-1} + p_2e_{t-2} + ... + p_p e_{t_p} + \epsilon_t\), a hipótese nula é que \(p_1 = p_2 = p_n = 0\), portanto, sendo todos os \(p\) iguais a zero, não há a influência de nenhum termo de erro do passado.
A multicolinearidade ocorre quando os coeficientes beta possuem uma relação linear perfeita, acarretando na possibilidade de torná-los estatisticamente insignificantes. Além do mais, com a presença de multicolinearidade na regressão, há um incremento na dificuldae de isolar os efeitos de cada uma das variáveis explanatórias sobre a variável dependente.
O teste para a multicolinearidade adotado neste trabalho foi o de Fator de Incremento da Variância (FIV), calculado a partir da seguinte equação:
\(\tag{3.5.6} FIV = \frac{1}{r^2_{X_{1}X_{2}}}\)
A ausência de colinearidade, o valor calculado do FIV é exatamente 1. Para este trabalho, a colinearidade será atestada caso o FIV de uma variável exceda 10.
Para a avaliação da normalidade dos resíduos, visto que é uma propriedade bastante desejável para as estimações, foi utilizado dois testes, o de Jarque-Bera e o de Shapiro-Wilk.
O teste de Jarque-Bera leva em consideração a assimetria e a curtose, admitindo como a hipótese nula de que os dados possuem distribuição normal, a qual será aceita caso o p-valor for superior ao nível de signficância. Ele é calculado da seguinte forma:
\[\tag{3.5.7} JB = n \left [\frac{S^2}{6} + \frac{(K-3)^2}{24} \right]\]
O teste de Shapiro-Wilk neste trabalho, por sua vez, vem para dar mais robustez à afirmação da normalidade, caso chegue a ser confirmada pelo teste de Jarque-Bera, para evitar um erro do tipo II no teste de hipótese, que é de aceitar a hipótese nula, quando o correto seria rejeitá-la.
\[\tag{3.5.8} W = \frac{b^2}{S^2}\] Onde \(S^2\) é a variância e \(b^2\) é calculado como o somatório do produto entre um coeficiente \(a\) dado na tabela de coeficientes Shapiro-Wilk e a diferença entre o valor observado na posição \(i\) e o valor \(n-i+1\). Assim como o teste de Jarque-Bera, a hipótese nula é a da normalidade.
Para o nível deste trabalho, entende-se como um processo estacionário aquele cuja média e variância é constante ao longo do tempo, e a covariância dependa apenas da distância, do intervalo ou da defasagem entre os dois períodos. A estacionariedade é um processo desejável pois os dados tornam-se mais previsíveis, portanto, há maiores chances de haver uma estimação mais precisa.
O primeiro método para analisar a estacionariedade é o da função de correlação (FAC), e o gráfico desta função, o correlograma. A função de correlação nada mais é que a razão da covariância da amostra com defasagem k e a variância da amostra, segue abaixo a formalização matemática.
\[\tag{3.5.9} \hat\rho = \frac{\sum(Y_i-\overline{Y})(Y_{t+k}-\overline{Y})}{\frac{\sum(Y_i-\overline{Y})^2}{n}} \]
O gráfico de \(\rho\) contra \(k\), por sua vez, é o correlograma amostral, que permite checar via inspeção gráfica se a série é estacionária ou não, dado o intervalo destacado no gráfico o qual os \(\rho\) devem estar inclusos para ser considerado estacionária.
Outra ferramenta para verificar a estacionariedade da série é a estatística Q, onde se testa a hipótese conjunta de que todos os \(\rho_k\) até determinada defasagem são todos iguais a 0.
\[\tag{3.5.10} Q = n \sum\limits_{k=1}^{m} \hat\rho_k^2\] Onde \(n\) é o tamanho da amostra e \(m\) o tamanho da defasagem. A estatística Q também foi usada para verificar se o resíduo é ruído branco i.i.d, isto é, independente e identicamente distribuído. É importante que o resíduo seja caracterizado como ruído branco para que o seu processo gerador seja puramente aleatório, e não movido por outras fontes que interfiram no resultado, como a influência de outras variáveis.
A implicação da função de autocorrelação e da estatística Q negando a estacionariedade de uma variável, é uma sugestão de que a trajetória desta variável possua um fenômeno chamado de passeio aleatório, ou seja, o valor da série hoje é igual ao valor de ontem mais um choque aleatório. Em termos algébricos:
\[\tag{3.5.11} Y_t = Y_{t-1} + u_t\]
A equação acima é conhecida na literatura como modelo de passeio aleatório puro, pois há apenas a variável defasada e o termo de erro. Além disso, fazendo uma simples manipulação ao subtrair \(Y_{t-1}\) de ambos os lados da equação, chega-se em \(\Delta Y = u_t\), sugerindo que a primeira diferença de uma série com passeio aleatório é estacionária.
Por fim, assim como o histograma sugere um diagnóstico sobre a normalidade dos dados, e esta deveria ser submetida a um teste formal para confirmar a inspeção visual, o mesmo acontece com o correlograma, onde é desejado um teste para embasar de forma mais robusta o diagnóstico. Neste caso, o teste de Raíz Unitária Dickey-Fuller vem para dar o veredito acerca do comportamento estacionário da série.
\[\tag{3.5.12} Y_t = \rho Y_{t-1} + u_t \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ -1 \leq \rho \leq 1\]
Partindo da equação 3.5.12, é possível visualizar que se \(\rho = 1\), trata-se de uma série não estacionária com passeio aleatório puro. Subtraindo \(Y_{t-1}\) de ambos os lados da equação, e isolando \(Y_{t-1}\), chega-se em \(\Delta Y = (\rho - 1) Y_{t-1} + u_t\), ou, simplesmente \(\Delta Y = \delta Y_{t-1} + u_t\), onde \(\delta = (\rho - 1)\). Por sua vez, caso \(\delta\) for igual a 0, \(\rho\) é igual a 1, portanto, há raíz unitária e consequentemente passeio aleatório. Entretanto, sendo \(\Delta Y\) a primeira diferença da série, \(\delta = 0\) implica em \(\Delta Y = u_t\), e, sendo \(u_t\) ruído branco, a primeira diferença de uma série com raíz unitária é estacionária.
Há também a versão ampliada do teste Dickey-Fuller, onde é considerado que os \(u_t\) são correlacionados. O teste assume a hipótese de que \(Y_t\) é um passeio aleatório com deslocamento em torno de uma tendência determinística, ou seja, possui uma forma funcional \(\Delta Y_t = \beta_1 + \beta_2t + \delta Y_{t-1} + \sum\limits_{i=1}^{m} \alpha_i Y_{t-i} + \epsilon_t\), onde \(H_0: \delta = 0\) e \(H_1: \delta < 0\), \(\epsilon\) é um termo de erro de ruído branco e \(t\) representa a tendência temporal.
A metodologia da Causalidade de Granger se baseia em verificar se os valores passados de uma variável corroboram para obter bons resultados na previsão de outra. É válido ressaltar que, apesar do nome, o teste não é para testar a causalidade em termos literais, mas sim, apenas para prover evidências estatísticas de que oscilações anteriores de uma certa variável possuem correlação com as oscilações de uma outra variável. Supondo um sistema bivariado, com \(Y_1\) e \(Y_2\), segue as hipóteses do modelo:
\[ \left\{ \begin{array}{ll}H_0: Y_1\ não\ causa\ Y_2\ no\ sentido\ de\ Granger\\ H_1: Y_1\ causa\ Y_2\ no\ sentido\ de\ Granger\\ \end{array}\right. \]
Todos os dados a respeito das variáveis estudadas foram coletados no site do Banco Central do Brasil (BACEN) e concatenados em uma única base de dados. Segue a lista das variáveis macroeconômicas, bem como seu código para rápida consulta no site do Bacen, assim como também o seu significado, unidade de medida e periodicidade.
Todas as variáveis listadas acima estão expressas em valores nominais, isto é, sofrem influência da variação dos preços. Após o devido tratamento matemático em todas elas para descontar a inflação (exceto o câmbio), as variáveis utilizadas de fato no estudo foram:
O início do ciclo de crescimento da economia brasileira emerge com a posse do Governo de Lula da Silva. Naquele ano, a balança comercial já apresentava superávit em função, tanto do alívio da sobrevalorização cambial, realizado em 1999, como do crescimento da demanda chinesa por produtos brasileiros. Os crescentes saldos positivos na balança comercial ajudaram, no período inicial, a retomada da economia.
De fato, entre 2004 e 2011 o país foi beneficiado por uma bonança externa de dimensões talvez únicas em nossa experiência histórica. Essa bonança, de quase 10% do PIB, foi gerada por uma explosão dos preços das commodities que exportamos e por um extraordinário influxo de capitais estrangeiros. Ela não somente gestou, mas também financiou um enorme aumento da demanda interna, incluindo uma maior taxa de investimento, que gerou maior crescimento do PIB. Esse crescimento pôde se manifestar sem pressões inflacionárias devido à apreciação do câmbio e à maciça incorporação de mão de obra ao processo produtivo.
Segundo Giambiagi (2014), a partir de 2003 o Brasil pôde contar com uma combinação de circunstâncias que constituíram um verdadeiro “paraíso zodiacal” em termos de arranjo de elementos favoráveis ao crescimento econômico, elementos esses que foram denominados de “quadrado mágico” composto pelos termos de troca, pelas taxas de juros internacionais, pela taxa de câmbio e pela disponibilidade inicial de mão de obra.
Em relação aos termos de troca é importante destacar o espantoso aumento dos preços das exportações após o ano de 2003, enquanto em 1975 e 2002 o índice de preço das exportações de produtos básicos do Brasil foi o mesmo, com oscilações durante o período, naturalmente em 2013, mesmo após uma certa queda em relação a 2011, a variável foi nada menos que 237% superior à de 2002. No tocando as taxas de juros, o 11 de setembro, criou uma incerteza tamanha na economia americana que o FED (Banco central norte americano) se viu perante uma “obrigação” em baixar as taxas de juros para que a economia não entrasse em recessão.
A combinação dos preços das commodities nas nuvens e taxas de juros no chão gerou o que no jargão dos financistas se denomina “apetite ao risco”. Investimentos que sequer seriam considerados em épocas de taxas de juros normais tornaram-se, com o tempo, quase irresistíveis. Um, porque comparativamente ao retorno próximo de zero das economias centrais, qualquer coisa parecia boa. E dois, porque com os preços das exportações nos níveis em que se encontravam, emprestar dinheiro para as economias emergentes não envolvia o tipo de riscos tão elevados como nos anos de endividamento de tipo “bola de neve” das décadas de 1960, 1970 e 1980 (Giambiagi, 2014).
Disso surgiu o terceiro elemento do “quadrado mágico”: o comportamento benigno da taxa de câmbio. A taxa do dólar caiu em forma praticamente contínua desde o final de 2002 até o começo do Governo Dilma Rousseff, com uma breve interrupção, rapidamente revertida, na crise de 2008. Mesmo com a inflexão ocorrida nos anos 2010/2011 quando o governo passou a agir no sentido de reverter esse processo e o ambiente externo mudou em parte, a taxa de câmbio nominal em 2013 foi ainda em torno de R$ 2, muito abaixo da cotação de mais de 10 anos antes. O dólar, cuja alta arrasou com o controle da inflação em 2001 e 2002, foi um ingrediente primordial da política anti-inflacionária posterior a 2002 (Giambiagi, 2014).
Finalmente, o quarto elemento do quadrado que junto com os preços das commodities, as baixas taxas de juros externas e a cotação do dólar, foi a base do êxito das políticas implementadas nos governos do PT, foi a existência de um enorme contingente de desempregados no início do ciclo econômico (Giambiagi, 2014).
Com efeito, em 2003 a taxa de desemprego foi de 12% e, em 2013, caiu para menos da metade, sendo da ordem de 5,5%. Nesses 10 anos, o contingente de desempregados foi reduzido em 50%, gerando uma óbvia sensação de melhora de bem-estar na população, não apenas porque havia menos gente desempregada, como também porque quem estava empregado tinha menos receio de perder o emprego. A importância dessa questão é que entender que havia uma multidão de pessoas prontas para serem empregadas em 2003 explica por que a produção aumentou nos 10 anos seguintes, mesmo tendo sido observada uma baixa produtividade da economia (Giambiagi, 2014).
Nas palavras Giambiagi (2014), O Brasil cresceu ocupando gente, mas não se preparou devidamente para quando chegasse o momento de não mais poder depender da ocupação de mais e mais pessoas. Agora, esse momento está chegando. O crescimento, em suas fases iniciais, caracterizou-se pela migração da mão de obra de um setor com baixa produtividade, a agricultura, para outro de produtividade mais elevada, a indústria, no processo conhecido como urbanização. Quando, porém, o processo de urbanização chega ao fim, esgotam-se também as fontes “fáceis” de crescimento da produtividade (Giambiagi, 2014).
Nos anos 1997 a 2003, produto potencial continuou crescendo pouco, mas como o crescimento médio da economia foi pífio, na verdade criou-se certa ociosidade, ou seja, espaço para crescer depois, quando a economia deslanchasse. Foi o que aconteceu a partir de 2004: o produto potencial acelerou, mas como nos cinco anos entre o ano-base de 2003 e 2008, a economia cresceu a um ritmo superior, o país foi ocupando capacidade ociosa. Depois, nos quatro anos entre o ano-base de 2008 e 2012, o crescimento do produto potencial arrefeceu, pois houve queda no crescimento tanto da oferta de mão de obra como da produtividade total dos fatores, mas como o crescimento médio caiu muito apesar do ponto fora da curva do PIB de 2010 criou-se alguma ociosidade, que eventualmente poderá ser usada por um ou dois anos daqui em diante, mas não por muito tempo (Giambiagi, 2014).
Dilma iniciou seu governo enfrentando acentuada subida da inflação, que vinha não só dos problemas internacionais, mas também das políticas adotadas para garantir sua eleição um ano antes: a expansão desenfreada do crédito público e dos gastos do governo, que, no embalo do resto do mundo, permitiu que a economia brasileira registrasse crescimento espantoso. Crescimento que começava a dar os primeiros sinais de fadiga no início de 2011, embora, àquela altura, o Banco Central ainda projetasse expansão de 4% da atividade para o ano.
A presidente não parecia satisfeita com 4%. Era pouco ante o desempenho extraordinário de 2010 e para garantir o nível de desenvolvimento que desejava deixar como legado para o país. Desconfortável com a projeção do Banco Central e embalada por suas convicções, começou a flertar com a ideia de que um pouco mais de inflação não tinha problema, desde que viesse acompanhada de mais crescimento, espécie de “inflação do bem”, contradição que predomina até hoje entre alguns de seus principais interlocutores.
O Brasil dos juros mais altos do mundo era ímã para os investidores estrangeiros, cuja alternativa era estacionar o dinheiro nos Estados Unidos, na Europa e no Japão quase sem rendimento. O problema é que grandes deslocamentos de recursos para a compra de ativos brasileiros e a procura por reais que disso resultava pressionavam o câmbio, valorizando nossa moeda. Os produtos brasileiros ficavam mais caros em dólares, o que prejudicava as exportações, principalmente da indústria. É a guerra cambial, bradava Mantega (DE BOLLE, 2016).
Conforme descrito por de Bolle (2016), para combater a guerra cambial, uma palavra esquisita foi introduzida no vocabulário econômico. Todos falavam em medidas “macroprudenciais”, termo hermético, terrível e de gosto duvidoso. A ideia resumia-se à necessidade de dar aos Bancos Centrais uma forma mais eficaz de contornar os problemas gerados pelo excesso de recursos externos que entravam nos diferentes países. Dinheiro em excesso, além de valorizar o câmbio, estimula a tomada imprudente de risco nos mercados de crédito quando se tem mais dinheiro para emprestar, o cuidado com o destino desses recursos naturalmente diminui. As medidas macroprudenciais eram uma forma de tornar os Bancos Centrais mais atuantes e capazes de preservar a estabilidade financeira, impedindo que crises como a de 2008 voltassem a ocorrer.
Com a Taxa de juros caindo, havia a tentativa de provocar crescimento econômico e alongamento da dívida, o que gerava a criação de créditos consignados, constituindo uma tentativa que o PIB cresça pelo consumo, ou seja, medidas tipicamente keynesianas onde é feito uma tentativa de aumentar a renda nacional através do consumo, investimento e gastos do governo.
A partir de agosto de 2011, teve início aquilo que alguns comentaristas econômicos e políticos descreveriam como “a virada” do governo Dilma, com uma abrupta reversão de curso da política monetária, que passou a ser relaxada, com o amparo inicial de uma política fiscal ainda restritiva.4 A inflexão da política monetária foi uma das decisões mais controversas tomadas pelo Copom desde sua criação, tanto pelo caráter inédito (a primeira mudança de direção entre duas reuniões consecutivas), quanto pelas condições iniciais (inflação corrente e esperada bem distantes do centro da meta).
Note-se, também, a importância atribuída pelas autoridades ao movimento, o que acabou alimentando a aparência de que a taxa de juros poderia ter se transformado em objetivo, e não mero instrumento de política econômica. Nesse ambiente, em que a redução das taxas de juros passa a ser vista, por parte do público, como um objetivo em si, não surpreende que tenha aumentado o tradicional questionamento da missão da autoridade monetária, que resulta de um contexto institucional inadequado, falta de autonomia legal do BC (MESQUITA ,2014).
As políticas econômicas do governo Dilma têm elementos consistentes com episódios clássicos do populismo macroeconômico latino-americano (PML). Uma similaridade é a aparente crença de que manter a demanda agregada suficientemente aquecida é condição necessária para despertar os espíritos animais e, assim, incentivar o investimento. A visão de que a demanda criaria a própria oferta é expressa de forma clara em texto sobre o governo Lula, mas que se aplica de forma mais clara ao governo Dilma: “somente com a aceleração do crescimento, a economia poderia iniciar um círculo virtuoso no qual o aumento da demanda agregada geraria aumento nos lucros e na produtividade, o que por sua vez, produziria um aumento no investimento e, dessa forma, criaria a capacidade produtiva necessária para sustentar a expansão (MESQUITA ,2014).
O governo adotou uma política de intervenção cambial típica do PML tradicional, visto que contribui para evitar depreciação da moeda. De fato, o governo Dilma, por sua presença constante no mercado cambial, demonstrou ter, em comum com o PML, resistências à ideia de que a taxa de câmbio deve ser determinada pelo mercado.
Durante o período o gasto público primário entrou em trajetória de forte expansão, saltando de 16% do PIB em 2008 para 19% em 2013. Note-se que, mesmo considerando os subsídios do programa Minha Casa Minha Vida (MCMV), os investimentos do governo federal ficaram praticamente estagnados nos últimos três anos, representando 1,3% do PIB. Para agravar o problema dos gastos crescentes, o crescimento fraco e o ambicioso programa de desonerações têm minado a capacidade de arrecadação do governo. As desonerações totalizaram quase R\(\text{\$}\) 80 bi em 2013 e devem ultrapassar R$ 90 bi em 2014. Sendo assim, para alcançar metas já reduzidas de superávit primário, o governo optou por recorrer a receitas atípicas, além de operações contábeis.
O ano de 2012 começa com um grande afrouxamento monetário, as medidas do Banco Central Europeu (BCE) para evitar a quebradeira bancária na zona do euro, que anunciava, ao fim de 2011, a linha de empréstimos de 1 trilhão de euros denominada operações de refinanciamento de longo prazo. Tal medida seria, no início do ano, o pano de fundo de que o governo precisava para executar seus planos imediatistas de turbinar o crescimento sem timidez.
A estratégia estava cada vez mais clara: promover um contingenciamento de gastos para abrir espaço à redução continuada dos juros, ao passo que os investimentos em infraestrutura e os programas sociais do governo, como o Minha Casa, Minha Vida, seriam privilegiados e impulsionados com o dinheiro dos bancos públicos. Enquanto isso, a presidente queria que as famílias continuassem consumindo, o que, para ela, era a principal fonte de criação de empregos. Só que o consumo seria também uma das principais fontes de pressão inflacionária, culminando no abandono do regime de metas de inflação em sua forma “pura”.
O excesso de liquidez global criado com as expansões monetárias dos grandes Bancos Centrais dava enorme dor de cabeça ao governo — guerra cambial e tudo o mais. O Banco Central intervinha desesperadamente nos mercados de câmbio para impedir que o real se fortalecesse e prejudicasse as exportações. A finalidade era também evitar uma valorização da moeda que trouxesse danos à indústria brasileira, já sobrecarregada pelos problemas estruturais que caracterizam o chamado Custo Brasil, composto dos principais problemas que atrapalhavam a competitividade de nossos produtos, como a alta carga tributária, a infraestrutura precária, o custo elevado da mão de obra, dada a inflexibilidade das leis trabalhistas, e por aí vai. Essas intervenções não eram baratas. Ao fazê-las, o Banco Central aumentava o estoque de ativos em dólares, cujo rendimento é muito baixo, elevando seu passivo em reais e tendo, eventualmente, de pagar juros atrelados à Selic.
Ajudar a indústria, proteger a indústria, fazer tudo o que for preciso para reerguer a indústria esse era o mantra do governo brasileiro em meados de 2012. O pacote de medidas para alcançar esses objetivos incluía a maior disponibilidade de crédito barato dos bancos públicos, desonerações das folhas de pagamento das empresas — trocando a fonte de tributação da folha para o faturamento das companhias —, além das medidas protecionistas como regras de conteúdo nacional e impostos sobre produtos industrializados (IPIs) diferenciados sobre importados e bens domésticos que o governo insistia em dizer que eram apenas medidas defensivas (DE BOLLE ,2016). Em julho de 2012, Mantega anunciaria oficialmente o enterro do tripé macroeconômico. A base da política econômica brasileira não seria mais formada pelo triângulo do câmbio flutuante, das metas de inflação e do superávit primário.
O ano de 2013 inicia com uma série de mudanças na economia mundial, no início do ano, o novo primeiro-ministro japonês, Shinzo Abe, anunciara um pacote imenso de estímulos para resgatar a economia do marasmo renitente. As compras de títulos do governo de porte inédito e as medidas de expansão fiscal que compunham o chamado Abenomics, como ficaria conhecido o esforço do Japão para resgatar a economia, tornariam a assombrar os países emergentes com o espectro do dinheiro em excesso e suas consequências sobre a valorização das moedas, tal qual vinha ocorrendo nos anos anteriores. Os ministros de Dilma voltariam ao palavrório cambial, as incessantes declarações que deixavam os mercados completamente aturdidos.
A desarticulação global no início de 2013 tinha diversas causas. De um lado, as crescentes desavenças entre republicanos e democratas nos Estados Unidos que acabariam, mais uma vez, levando a um impasse doloroso. O teto da dívida pública americana, o limite de novos títulos do governo que o Tesouro pode emitir a cada ano, voltaria a ser tema contencioso, a despeito de as dificuldades em elevá-lo não acabarem em novo rebaixamento da classificação de risco americana, como ocorrera um ano antes. O embate político renovaria os temores de que a maior economia do planeta não pudesse dar prosseguimento às políticas que sustentavam a recuperação e enfraqueceria os Estados Unidos no xadrez geopolítico global. A crise de 2008 e suas consequências políticas e econômicas motivaram profundos questionamentos a respeito do papel dos Estados Unidos na geopolítica global que ainda repercutem mundo afora.
Enquanto cresciam os riscos econômicos de curto e médio prazos, Mantega, em fase zen, prometia mais calma e serenidade em 2013, afirmando que a maioria das medidas para reanimar a economia brasileira já fora tomada. Uma coisa, contudo, era certa: a saraivada de medidas adotadas em 2012 cobraria seu preço, mas não desviaria o governo da rota tortuosa. O trem de Dilma prosseguia, resoluto (DE BOLLE,2016).
Salários que cresciam acima da produtividade não eram novidade no Brasil de 2013, mas, àquela altura, estava cada vez mais claro que a situação se tornara insustentável. Salários onerosos levavam não só ao aumento dos preços, como também à redução do investimento privado asfixiadas pelos custos que enfrentavam, empresas de diversos setores foram forçadas a alterar seus planos de investimento. Em outras palavras, uma política que tinha por objetivo explícito garantir a redução da desigualdade —se os salários crescem, sobretudo entre os mais pobres, a desigualdade cai começava a ser o tiro que saía pela culatra. Não porque reduzir a desigualdade não fosse algo louvável, mas porque a forma de redistribuir encontrada pelo governo não era sustentável. Mais cedo ou mais tarde, estrangularia o crescimento e aumentaria a inflação.
Em meados de 2013, os mercados internacionais passavam por uma forte turbulência em função dos indícios de que o Federal Reserve (FED), o Banco Central americano, estava prestes a anunciar o cronograma para o término dos estímulos monetários excepcionais, as compras mensais de títulos do Tesouro. Para os investidores que haviam se acostumado nos últimos cinco anos com a abundância de dólares no mundo, a perspectiva de que o FED reduzisse em breve o ritmo de emissão de moeda provocava cegueira. Sem saber como a atitude das autoridades americanas influenciaria os preços dos ativos, principalmente daqueles de maior risco, emitidos por países emergentes, os investidores internacionais iniciaram um movimento de saída sincronizada mundo afora.
A ameaça de que a política monetária excepcional dos Estados Unidos estava com os dias contados foi suficiente para fortalecer o dólar globalmente, enquanto os investidores retiravam seus recursos, em especial daqueles países mais vulneráveis. Evidentemente, o Brasil estava à frente dessa lista e a moeda brasileira se enfraqueceu.
A recuperação da economia americana, que já não necessitava de tanta ajuda do FED, enterraria a guerra cambial do ministro da Fazenda, Guido Mantega, acabaria de vez com o período prolongado de valorização da moeda brasileira que tanto o incomodava. Ironicamente, isso ocorreria mesmo com a reversão do Banco Central, que seria novamente obrigado a elevar os juros, pondo fim ao sonho de Dilma Rousseff de acabar de vez com as altas taxas brasileiras. O novo ciclo de altas de juros do Banco Central se iniciaria em abril de 2013, levando a taxa Selic de 7,25% para 11% um ano depois.
O ano de 2014 desvelaria os piores resultados econômicos em quase duas décadas, a soma de todos os erros cometidos anteriormente. O ano da reeleição de Dilma Rousseff consagraria sua obstinação e a de sua equipe econômica, que, até o fim, insistiria em dizer que a crise financeira internacional os obrigara a tomar determinados rumos na gestão econômica, ainda que a realidade mostrasse os equívocos e a estupidez de ignorar os críticos.
O PIB do Brasil cresceu 0,1% em 2014 contrariando as expectativas do mercado e do Banco Central, que esperavam uma retração da economia brasileira. O resultado é influenciado pela nova metodologia empregada pelo Instituto Brasileiro de Geografia e Estatística (IBGE), que passou a incorporar gastos bélicos e com pesquisa e desenvolvimento para a conta de investimento, por exemplo. O crescimento foi puxado pelos setores de serviços, que teve alta de 0,7% ao ano, e da agropecuária, que avançou 0,4%. Já a indústria mostrou queda de 1,2%, influenciada pela retração de 2,6% em construção civil e eletricidade e gás, água, esgoto e limpeza urbana.
Preços controlados, taxas de juros controladas, câmbio controlado, desonerações forçadas que acabariam tendo de ser revertidas com os ajustes promovidos por Joaquim Levy no início de 2015, quando o Ministério da Fazenda afirmaria que as desonerações atrapalhadas de Dilma e Mantega ao longo do primeiro mandato seriam responsáveis por um rombo de 0,8% do PIB na receita tributária brasileira.
A combinação de economia fechada com o desprezo pelo mecanismo de preços demonstrado pelo governo brasileiro levou o país à lona em 2014 e talvez tenha sido a faceta mais nefasta e menos visível, ao menos em 2013, da Nova Matriz Econômica, uma das principais razões para o sumiço do investimento e a falta de crescimento da economia brasileira. Para que a economia funcione, é preciso que os preços sinalizem onde há abundância e onde há escassez, que indiquem o que está sobrando e o que está faltando.
Em 2015, Dilma cometeu a estupidez de emitir decretos que violavam a LOA. Não parou por aí; houve uma terceira estupidez. No mesmo ano, ela continuou a utilizar recursos dos bancos públicos e do Fundo de Garantia do Tempo de Serviço (FGTS) para cobrir os rombos orçamentários cada vez maiores devido à queda brutal da arrecadação. Ou seja, depois de ter suas contas de 2014 rejeitadas por causa da violação do Art. 36 da Lei de Responsabilidade Fiscal — que proíbe expressamente o financiamento dos bancos públicos pelo Tesouro —, Dilma usou novamente recursos dos bancos públicos para se financiar. Violou, portanto, duas leis fundamentais, demolindo de vez as instituições que regiam a política fiscal e garantiam a proteção dos recursos públicos, do dinheiro suado do contribuinte. Ambas as violações dariam fundamento à petição de impeachment.
Diante de tamanha confusão, o câmbio deixou de ser âncora, inverteu tendência, desvalorizou-se. O Banco Central, preocupado com os efeitos do deslizamento da moeda sobre a inflação, passou a intervir nos mercados por meio das operações de swap cambial. Nessas operações, o Banco Central oferece um seguro contra a alta do dólar em troca de certos tipos de pagamento — no caso, a variação dos juros de mercado durante o período de vigência do contrato.
Como as transações são conduzidas em reais, não afetam diretamente as reservas do país, mas custam caro, sobretudo quando o dólar se fortalece continuamente ou o real se desvaloriza sem trégua. Nesse caso, o Banco Central é obrigado a pagar aos investidores valores maiores do que recebe em troca para oferecer proteção cambial. Portanto, eram essas operações as responsáveis pelas perdas de cerca de 2% do PIB então sofridas pelo Banco Central; eram elas também que explicavam o salto quântico do custo da dívida. Com déficit nominal galopante e o elevadíssimo custo da dívida pública, o Brasil travou um reencontro inevitável com sua filha pródiga: a dominância fiscal. Esgotara-se a capacidade do Banco Central de elevar os juros para combater a inflação, uma vez que, se o fizesse, agravaria o problema das contas públicas, pressionando o custo da dívida. Não à toa a autoridade monetária assistia de braços cruzados à inflação de 9,5% ao ano. Chegaria perto de inacreditáveis 11% no fim de 2015.
O ano de 2015 terminaria em tragédia. A economia encolheria impressionantes 3,8%, a inflação alcançaria 11%, o desemprego começaria a subir de forma assustadora — no início de 2016 seriam 11 milhões os desempregados. A tão alardeada inclusão social começaria a sumir; a classe média, vulnerável, a encolher; a Classe C tornava-se D ou E. A política, cada vez mais enrolada no escárnio revelado pela Lava-Jato, acabaria por dominar todo o cenário econômico e a selar os destinos de Joaquim Levy e Dilma.
Michel Temer assumiu o principal posto político do país com o afastamento da então presidente Dilma Rousseff. Em dois anos, ele se concentrou na recuperação da economia do país, redução da taxa de juros, queda da inflação e equilíbrio das contas públicas (AGÊNCIA BRASIL, 2018).
De junho 2016 a março de 2018, a taxa básica de juros da economia, Selic, saiu de 14,25% para 6,50%, de acordo com dados do Banco Central (BC). No mesmo período, o Índice de Preços ao Consumidor Amplo (IPCA), a taxa oficial da inflação, caiu de 9,32% para 2,76% (AGÊNCIA BRASIL, 2018).
De junho 2016 a março de 2018, a taxa básica de juros da economia, Selic, saiu de 14,25% para 6,50%, de acordo com dados do Banco Central (BC). No mesmo período, o Índice de Preços ao Consumidor Amplo (IPCA), a taxa oficial da inflação, caiu de 9,32% para 2,76% (AGÊNCIA BRASIL, 2018).
Pela proposta, o governo federal, o Congresso Nacional e órgãos do Ministério Público e do Judiciário ficam limitados a gastar em um ano o mesmo valor aplicado no ano anterior acrescido da correção pela inflação. Não entram nessa obrigação a despesa com o pagamento de juros da dívida pública. O índice usado para medir a inflação é o IPCA. Se o limite for descumprido, o órgão fica proibido de aumentar salários, contratar pessoal, fazer concursos e ter novas despesas até se adequar (AGÊNCIA BRASIL, 2018).
O início do governo Bolsonaro se deu sob grandes expectativas de recuperação da economia. Após a longa depressão, os índices de confiança de consumidores e empresários retomavam os níveis de seis anos antes. As taxas de juro caíam, e os preços das ações subiam. O ministro da economia festejado pelo mercado se permitia anunciar reiteradamente suas previsões de múltiplas reformas e de rápida retomada. O Brasil voltaria a “crescer 3,5% no curto prazo” (FGV,2019).
Diante das doenças da economia brasileira herdadas do governo Dilma Rousseff (crise fiscal e estagnação), o governo Bolsonaro adotou uma estratégia sequencial de combate à crise fiscal, cuja primeira etapa é a reforma da Previdência Social (FGV,2019).
Segundo Barbosa (2019), não resta dúvida que a aprovação desta reforma é fundamental para, numa perspectiva intertemporal, interromper o jogo de Ponzi da dívida pública iniciado no governo Dilma, com o Tesouro tomando emprestado para financiar não somente os juros da dívida, mas também parcela dos gastos primários.
No que diz respeito a estagnação, Barbosa (2019) descreve que para iniciar a retomada econômica é necessário que o governo aumente o investimento em infraestrutura usando todos os recursos provindos das privatizações, pois é a única fonte onde se possa buscar recursos sem que aumente a crise fiscal.
O cenário mundial tem piorado, tanto em termos dos dados recentes, quanto em termos das expectativas. A inflação alta e persistente provocou o início de ciclos de aperto monetário nos Estados Unidos e na Europa, com discursos cada vez mais duros dos dirigentes dos bancos centrais e taxas de juros esperadas maiores. Adicionalmente, destacam-se o prolongamento do conflito na Ucrânia e de suas consequências econômicas; na China, os lockdowns para levar a cabo a política de “covid zero” e a grave crise no mercado imobiliário; e a reversão das políticas fiscais expansionistas face ao recuo da pandemia e à necessidade de combater a inflação. Em consequência, as projeções de crescimento no mundo têm se reduzido de forma substancial (IPEA, 2022).
A carta de conjunta do IPEA estima que a desaceleração externa deverá afetar negativamente o Brasil, mas a situação do país é diferente da observada na maioria dos países desenvolvidos e em muitos emergentes. O ciclo de aperto monetário, iniciado há um ano e meio pelo Banco Central do Brasil (BCB), parece já ter chegado ao fim e a discussão passa a se concentrar em quando o BCB poderá iniciar a redução da Selic. A inflação está em queda, bem como suas previsões; o nível de atividade vem surpreendendo positivamente e as projeções de crescimento para 2022 vêm sendo revistas para cima.
As projeções do Ipea para o produto interno bruto (PIB) no primeiro semestre de 2022, embora estivessem acima da mediana do mercado, também se revelaram aquém do observado, ensejando a necessidade de revisão das previsões para o ano. Assim, nossa previsão de crescimento do PIB em 2022 está sendo elevada de 1,8% para 2,8% (IPEA, 2022).
Cabe ressaltar que, após as surpresas positivas do crescimento nos primeiros trimestres do ano, dados mais recentes de atividade mostram alguma desaceleração na margem. Contudo, o terceiro trimestre ainda deve ser de crescimento. Para o final de 2022 e início de 2023, espera-se alguma desaceleração em função do aperto monetário doméstico e da piora do cenário externo, mas indicadores robustos de mercado de trabalho, as medidas governamentais de apoio à renda e redução de impostos, e o investimento já observado ou contratado, além de um possível efeito continuado das reformas implementadas nos últimos anos, devem evitar uma queda muito expressiva do crescimento. A gradual retomada de alguns setores dos serviços com atividade ainda abaixo dos níveis pré-pandemia, a melhora no comportamento dos preços de bens ou serviços administrados, e o aumento da confiança dos consumidores também representam contribuições positivas para o crescimento (IPEA, 2022).
O aperto monetário interno e a manutenção de um arcabouço de regras fiscais compatível com o compromisso com a disciplina fiscal – que mantenha, portanto, sob controle o risco associado à evolução das contas públicas – devem permitir a gradual redução da inflação ao longo de 2023 e propiciar as condições para a recuperação do crescimento ao longo do próximo ano (IPEA, 2022). Quanto à inflação, ao contrário do que vem ocorrendo em grande parte dos países, nos últimos três meses, a inflação brasileira surpreendeu favoravelmente, beneficiada, sobretudo, pela melhora no comportamento dos preços administrados. E, nas últimas semanas, o cenário prospectivo para a inflação vem se tornando melhor. As novas projeções do Grupo de Conjuntura do Ipea indicam variação menor do Índice de Preços ao Consumidor Amplo (IPCA), em 2022, de 5,7%, comparativamente à estimada na edição anterior da Visão Geral da Carta de Conjuntura de 6,6%, há três meses (IPEA, 2022).
Quanto à taxa de câmbio, a sua dinâmica permanece bastante volátil devido à elevada incerteza externa e interna. Durante os primeiros meses de 2022, mesmo com o conflito Rússia versus Ucrânia, houve um movimento importante de apreciação da taxa nominal de câmbio, revertido a partir de final de abril. Desde então, têm sido observados períodos de valorização e desvalorização, com respectivo aumento da volatilidade (IPEA, 2022).
As expectativas do relatório Focus apontam para um câmbio de R\(\text{\$}\) 5,20/US\(\text{\$}\) em dezembro de 2022 e ao fim de 2023, com o real mais forte do que na expectativa vigente ao final de 2021 – em 31 de dezembro, a previsão da taxa de câmbio para 2022 era de R\(\text{\$}\) 5,60/US\(\text{\$}\) e, para 2023, de R\(\text{\$}\) 5,40. Porém, persistem vários elementos de incerteza devido ao cenário mundial e interno, especialmente considerando a existência do conflito entre Rússia e Ucrânia, a crise energética na Europa, políticas monetárias contracionistas ao redor do mundo e o ano eleitoral no Brasil. Como pontos positivos para a dinâmica da taxa de câmbio, há que se destacar os fluxos cambial (houve entrada líquida de US$19,56 bilhões no acumulado do ano até setembro,11 de acordo com dados do BCB) e comercial positivos durante 2022.
A conjuntura fiscal continua marcada por resultados positivos nas contas do governo federal, relativamente a 2021. De acordo com dados da Secretaria do Tesouro Nacional (STN), o superávit primário do governo federal acumulado no ano até agosto atingiu R\(\text{\$}\) 24,4 bilhões, contra um déficit de R\(\text{\$}\) 89,3 bilhões em igual período de 2021. Essa melhora no resultado primário decorreu do forte crescimento da receita federal, que cresceu 14,4% em termos reais no acumulado do ano, levando a uma alta de 13,1% da receita líquida de transferências nessa base de comparação, contra crescimento de apenas 2,6% da despesa total. Cabe notar que esse resultado foi atingido apesar do elevado déficit primário observado em agosto, da ordem de R$ 50 bilhões, fortemente impactado pelo pagamento de sentenças judiciais e precatórios e pelo pagamento do acordo relativo ao “Campo de Marte”, em São Paulo (IPEA, 2022).
A primeira variável analisada foi o Produto Interno Bruto (PIB) acumulado 12 meses. A série acima já foi descontada o efeito da inflação, portanto, se trata de produto em termos reais. Foi observado uma trajetória ascendente no período Lula (2003 a 2010), com uma breve pausa em 2008 dado a crise financeira dos subprimes, crise a qual, em termos de produto, o Brasil superou em pouco tempo.
É importante frisar que, na crise de 2008, não houve queda de produto significativa, apenas uma estagnação em termos de avanço de produção. O governo Dilma (2011 a 2016/8), por sua vez, apresentou desaceleração no crescimento e até breves estagnações da produção em alguns momentos do seu governo, dado a postura ultra-intervencionista do governo que ecoava no mercado.
Embora o Brasil tenha se recuperado sem dificuldades da crise de 2008, o mesmo não pode se afirmar com a crise política instaurada no país em 2015, onde não só houve uma pausa no crescimento do produto como também uma trajetória de declínio do mesmo. Desse momento em diante, o PIB brasileiro, após atingir o menor valor observado desde 2013, teve dificuldades de recuperação, ao passo que, superado a pandemia de COVID-19, o PIB brasileiro foi superar os níveis pré-crise política já em meados de 2022.
Tabela 1: Estatística descritiva do PIB Real
Estatística | Valor |
---|---|
Mínimo observado (R$ mi) |
4590291.954 |
Máximo observado (R$ mi) |
9333101.1 |
Média (R$ mi) |
7574600.7972585 |
Mediana (R$ mi) |
8345768.2665 |
Desvio Padrão (R$ mi) |
1453984.9480583 |
Coeficiente de Variação (%) | 19.1955324 |
Jarque-Bera (probabilidade) | 0.0000003 |
Shapiro-Wilk (probabilidade) | 0 |
Tabela 2: Taxas de crescimento do PIB Real
Taxa | Valor (%) |
---|---|
Taxa Bruta | 102.8325444 |
Taxa Aritmética | 0.4357311 |
Taxa Geométrica | 0.3001149 |
Taxa Log-Lin | 0.2797235 |
Tabela 3: Estatística descritiva da Selic real
Estatística | Valor |
---|---|
Mínimo observado (R$ mi) |
-3.675734 |
Máximo observado (R$ mi) |
23.5913651 |
Média (R$ mi) |
7.1526715 |
Mediana (R$ mi) |
7.1401543 |
Desvio Padrão (R$ mi) |
5.7498708 |
Coeficiente de Variação (%) | 80.3877375 |
Jarque-Bera (probabilidade) | 0.0038154 |
Shapiro-Wilk (probabilidade) | 0.0000433 |
Tabela 4: Taxas de crescimento da Selic real
Taxa | Valor (%) |
---|---|
Taxa Bruta | -70.7091078 |
Taxa Aritmética | -0.2996149 |
Taxa Geométrica | -0.5189427 |
Taxa Log-Lin | -0.9841938 |
Tabela 5: Estatística descritiva da NFSPR real
Estatística | Valor |
---|---|
Mínimo observado (R$ mi) |
-288399.3048 |
Máximo observado (R$ mi) |
807656.8587 |
Média (R$ mi) |
-37463.2146754 |
Mediana (R$ mi) |
-150211.5302 |
Desvio Padrão (R$ mi) |
234216.7271254 |
Coeficiente de Variação (%) | -625.1912153 |
Jarque-Bera (probabilidade) | 0 |
Shapiro-Wilk (probabilidade) | 0 |
Tabela 6: Taxas de crescimento da NFSPR real
Taxa | Valor (%) |
---|---|
Taxa Bruta | 22.8761478 |
Taxa Aritmética | 0.0969328 |
Taxa Geométrica | 0.0873291 |
Taxa Log-Lin | 1.632668 |
Tabela 7: Estatística descritiva do câmbio
Estatística | Valor |
---|---|
Mínimo observado (R$ mi) |
1.5555 |
Máximo observado (R$ mi) |
5.7712 |
Média (R$ mi) |
2.9445305 |
Mediana (R$ mi) |
2.6388 |
Desvio Padrão (R$ mi) |
1.1603215 |
Coeficiente de Variação (%) | 39.4059922 |
Jarque-Bera (probabilidade) | 0.0000001 |
Shapiro-Wilk (probabilidade) | 0 |
Tabela 8: Taxas de crescimento do câmbio
Taxa | Valor (%) |
---|---|
Taxa Bruta | 46.9049645 |
Taxa Aritmética | 0.1987498 |
Taxa Geométrica | 0.1631056 |
Taxa Log-Lin | 0.3684052 |
Tabela 9: Estatística descritiva do câmbio
Estatística | Valor |
---|---|
Mínimo observado (R$ mi) |
-286715.6900299 |
Máximo observado (R$ mi) |
278984.8981993 |
Média (R$ mi) |
0 |
Mediana (R$ mi) |
11802.0673695 |
Desvio Padrão (R$ mi) |
102648.1616849 |
Coeficiente de Variação (%) | 1513025505479922432 |
Jarque-Bera (probabilidade) | 0.003608 |
Shapiro-Wilk (probabilidade) | 0.0000142 |
Tabela 10: Taxas de crescimento do câmbio
Taxa | Valor (%) |
---|---|
Taxa Bruta | 806.2849153 |
Taxa Aritmética | 3.4164615 |
Taxa Geométrica | 0.9383512 |
Taxa Log-Lin | 0.4363415 |
O primeiro modelo estimado foi um MQO cuja janela temporal compreende de janeiro de 2003 até agosto de 2022, e os dados submetidos ao modelo estavam em nível. Esta regressão foi estimada com o principal interesse de informar a direção da mudança do hiato, dado a variação em uma unidade das variáveis explanatórias. A forma funcional da regressão segue a especificada no Working Paper 01, ou seja, o hiato sendo função das suas duas últimas defasagens, da taxa de juros e da Necessidade de Financiamento do Setor Público (NFSP) em proporção do PIB.
FONTE: Elaboração
própria no software R Studio.
No primeiro momento, o sumário acima resume as principais implicações do MQO acerca dos coeficientes da curva IS. Primeiro, ambas as variáveis explanatórias (taxa de juros e a NFSP) possuem o seu sinal negativo, sugerindo uma relação inversa de ambas as variáveis com o hiato. A implicação econômica deste resultado será mais detalhada na seção da avaliação dos critérios econômicos.
A significância estatística dos parâmetros estimados pelo teste de t, considerando um nível de significância de 5%, foi observado que apenas a taxa de juros não possui significância estatística para o modelo estimado.
Quanto ao \(R^2\) múltiplo, a regressão explica 94% da variação do hiato do produto, e o teste F, por sua vez, aceita a hipótese alternativa de que pelo menos uma variável incluída no modelo influencia o hiato.
Tabela 11: Diagnóstico dos resíduos
Teste | Probabilidade (exceto FIV) |
---|---|
Teste de White (Heterocedasticidade) | 0.25 |
Teste de Durbin-Watson (Autocorrelação) | 0.53 |
Teste de Breusch-Godfrey (Autocorrelação) | 0.54 |
Teste de Shapiro-Wilk (Normalidade) | 0 |
FIV (\(h_{t-1}\)) | 11.61 |
FIV (\(h_{t-2}\)) | 11.23 |
FIV (\(r_{t-1}\)) | 2.23 |
FIV (\(pr_{t-1}\)) | 2.47 |
Segue da tabela acima, por sua vez, que os resíduos do modelo são homocedásticos, isto é, possuem variância constante, além de que não são correlacionados com eles mesmos e que, por fim, o resíduo não possui distribuição normal. Quanto ao Fator de Incremento de Variância (FIV), o teste informou que nas variáveis além do próprio hiato defasado, não há multicolinearidade. O próximo conjunto de gráficos ilustra o diagnóstico de tais testes acerca dos resíduos do modelo.
Quanto a avaliação pelo critério econométrico, o modelo MQO estimado não conseguiu fornecer a elasticidade das variáveis, uma vez que a média do hiato é bem próxima próxima de zero, comprometendo o cálculo. Contudo, outra forma de se calcular a elasticidade, apresentada na metodologia, é a regressão log-log. A tabela abaixo informa o efeito marginal das variáveis, extraídas do modelo MQO geral, e a elasticidade, estimada através de uma regressão dos dados em log.
Tabela 12: Efeito Marginal e Elasticidade (2003/01 - 2022/08)
Variável | Efeito Marginal | Elasticidade (MQO log-log) |
---|---|---|
\(h_{t-1}\) | 1.5551 | 0.3% |
\(h_{t-2}\) | -0.6382 | 0.21% |
\(r_{t-1}\) | -667.3953 | -0.13% |
\(pr_{t-1}\) | -161937.1916 | -8.96% |
Portanto, objetivamente, uma variação em um ponto percentual acumulado ao ano na taxa real de juros, há uma queda no hiato em 667 milhões de reais, e para cada 1% de variação na taxa real de juros, há uma variação negativa em 0.13% no hiato. O resultado do modelo, em termos de direção da variação, é condizente com a teoria econômica.
Quanto ao componente fiscal, ou seja, a Necessidade de Financiamento do Setor Público em proporção do PIB, é verificado uma relação elástica, onde uma variação na NFSP de 1% leva a uma variação negativa de 8.96% no hiato, e um aumento de 1% na proporção da NFSP em relação ao PIB leva a uma queda de cerca de 162 bilhões de reais.
O modelo geral, apresentado acima, não viola as hipóteses do modelo de regressão linear, e, portanto, é um modelo válido para estudar a dinâmica da Curva IS via hiato. Entretanto, o período de tempo dos dados é uma janela bastante ampla, de quase vinte anos, e durante esse tempo aconteceu muita coisa no Brasil e no mundo, como foi apresentado no capítulo da conjuntura.
Portanto, visando separar os efeitos e características de cada época, a série foi fracionada nas seguintes janelas:
Portanto, para cada governo, foi estimado duas regressões pelo método MQO, sendo uma modelada com os dados em nível para o efeito marginal, e a outra modelada com os dados em logaritmo, para a elasticidade.
FONTE: Elaboração própria no software R Studio.
FONTE: Elaboração própria no software R Studio.
Apesar dos dois modelos “passarem” no teste F, onde o resultado obtido é que pelo menos uma variável impacta no hiato, ambos tiveram resultados distintos quanto ao \(R^2\). O modelo em nível, por sua vez, consegue explicar 95.5% da variação do hiato, enquanto o modelo log-log consegue explicar apenas 39.9%.
Tabela 13: Diagnóstico dos resíduos
Teste | Lula nível | Lula log-log |
---|---|---|
Teste de White (Heterocedasticidade, %) | 0.90 | 0 |
Teste de Durbin-Watson (Autocorrelação, %) | 0.56 | 0.33 |
Teste de Breusch-Godfrey (Autocorrelação, %) | 0.39 | 0.21 |
Teste de Shapiro-Wilk (Normalidade, %) | 0.92 | 0 |
FIV (\(h_{t-1}\)) | 12.20 | 1.75 |
FIV (\(h_{t-2}\)) | 11.69 | 1.61 |
FIV (\(r_{t-1}\)) | 1.87 | 3.12 |
FIV (\(pr_{t-1}\)) | 2.77 | 3.85 |
Apesar de ambos os modelos não apresentarem problemas de autocorrelação, o modelo em nível não há problemas de heterocedasticidade, enquanto a equação em log-log sim, além de que os resíduos do modelo em nível também apresentam distribuição normal, a log-log não. Quanto ao FIV, não foi atestado problemas de multicolinearidade para os juros nem para o componente fiscal em ambas as regressões.
Tabela 14: Efeito Marginal e Elasticidade no Governo Lula
Variável | Efeito Marginal | Elasticidade |
---|---|---|
\(r_{t-1}\) | -160.32 | -0.07 |
\(pr_{t-1}\) | -432,718.30 | -82.33 |
No período Lula, tanto o efeito marginal quanto a elasticidade do componente fiscal possuem uma enorme influência no hiato do produto, entretanto, por estar mensurado em proporção do PIB, e portanto, os dados estão em números decimais, um aumento na unidade da NFSP em proporção ao PIB seria equivalente à necessidade atingir 100% do PIB, o que pode explicar o efeito marginal de tão grande magnitude de queda de 432 bilhões no hiato. Quanto a taxa de juros, o seu efeito sobre o hiato foi consideravelmente menor.
FONTE: Elaboração própria no software R Studio.
FONTE: Elaboração própria no software R Studio.
Quanto aos modelos do governo Dilma, em termos estatísticos, a avaliação é semelhante ao do governo Lula. O modelo com os dados em nível possui um \(R^2\) múltiplo de 0.97, portanto, as variáveis selecionadas para explicar a variação do hiato cumprem bem o seu papel. E o teste F também embasa o modelo quanto a influência das variáveis sobre o hiato. Todavia, o modelo log-log, apesar de também passar no critério estatístico do teste F, possui um \(R^2\) múltiplo baixo em relação ao modelo em nível.
Tabela 15: Diagnóstico dos resíduos
Teste | Dilma Nível | Dilma log-log |
---|---|---|
Teste de White (Heterocedasticidade, %) | 0.80 | 0.02 |
Teste de Durbin-Watson (Autocorrelação, %) | 0.45 | 0.51 |
Teste de Breusch-Godfrey (Autocorrelação, %) | 0.40 | 0.25 |
Teste de Shapiro-Wilk (Normalidade, %) | 0.82 | 0 |
FIV (\(h_{t-1}\)) | 22.48 | 1.42 |
FIV (\(h_{t-2}\)) | 21.60 | 1.36 |
FIV (\(r_{t-1}\)) | 1.37 | 1.21 |
FIV (\(pr_{t-1}\)) | 1.48 | 1.56 |
Em relação aos critérios econométricos, o padrão que ocorreu nos modelos do governo Lula também manteve-se presente nos resultados para o período de Dilma, onde o modelo em nível apresenta homocedasticidade e normalidade nos resíduos, enquanto que o modelo log-log não. Além disso, o FIV de ambas as variáveis - juros e NFSPR proporção do PIB - também estão dentro do limite tolerável.
Tabela 16: Efeito Marginal e Elasticidade no Governo Dilma
Variável | Efeito Marginal | Elasticidade |
---|---|---|
\(r_{t-1}\) | -1,345.38 | -0.03 |
\(pr_{t-1}\) | -213,916.00 | -25.29 |
Os resultados econômicos dos modelos estimados apontam que, primeiramente, tanto os juros quanto a necessidade de financiamento foram menos eficazes no controle do hiato no governo Dilma, em relação ao governo Lula, onde no governo anterior uma variação positiva de 1% nos juros causava uma queda de 0.07% no hiato, no governo Dilma passou a ser uma contração de apenas 0.03%. O componente fiscal também perdeu bastante peso no modelo, apesar de ainda ser extremamente elástico.
FONTE: Elaboração própria no software R Studio.
FONTE: Elaboração própria no software R Studio.
O governo Temer foi breve, ele assumiu logo após o impeachment da Dilma e manteve-se no poder até o governo Bolsonaro. Um detalhe importante do governo Temer, é que por não pretender uma corrida presidencial, ou seja, não estava interessado em reeleição, ele foi um presidente que impôs medidas amargas para a economia, as quais um presidente populista seria duramente criticado e teria alto risco de rejeição nas urnas, caso adotasse. Entre tais medidas, as que se destacam são o controle do teto de gastos, a reforma trabalhista e a liberalização da terceirização.
A grande diferença dos modelos estimados para o governo de Michel Temer consta na mudança dos sinais. Há uma contradição tanto teórica quanto entre os próprios modelos. No modelo em nível, o sinal para a taxa de juros é negativo, e para o componente fiscal é positivo. Enquanto que, no modelo log-log, a taxa de juros possui um sinal positivo, entrando em conflito tanto com a teoria quanto no sinal do coeficiente estimado nos dados em nível, e o componente fiscal possui sinal negativo, entrando em contradição com o sinal estimado no modelo em nível.
Diferente dos modelos estimados para governo Lula e Dilma, ambos os modelos estimados para o governo Temer possuem um \(R^2\) múltiplo superior a 0.90. O teste F, por sua vez, sugere que as variáveis possuíram influência no hiato naquele período.
Tabela 17: Diagnóstico dos resíduos
Teste | Temer Nível | Temer log-log |
---|---|---|
Teste de White (Heterocedasticidade, %) | 0.18 | 0.74 |
Teste de Durbin-Watson (Autocorrelação, %) | 0.11 | 0.37 |
Teste de Breusch-Godfrey (Autocorrelação, %) | 0.18 | 0.68 |
Teste de Shapiro-Wilk (Normalidade, %) | 0.96 | 0.17 |
FIV (\(h_{t-1}\)) | 12.79 | 28.48 |
FIV (\(h_{t-2}\)) | 18.86 | 13.11 |
FIV (\(r_{t-1}\)) | 27.73 | 19.41 |
FIV (\(pr_{t-1}\)) | 3.09 | 7.15 |
Tanto o modelo em nível quanto o modelo log-log passaram em todos os testes da avaliação econométrica, exceto pelo fato de, o teste FIV apontou que a taxa de juros naquele período foi colinear com o hiato, prejudicando o resultado dos modelos.
Tabela 18: Efeito Marginal e Elasticidade no Governo Temer
Variável | Efeito Marginal | Elasticidade |
---|---|---|
\(r_{t-1}\) | -15,124.44 | 0.02 |
\(pr_{t-1}\) | 435,418.62 | -6.26 |
Pelo fato do efeito marginal e da elasticidade estarem em contradição entre si, não há a necessidade de discutir o impacto de cada um sobre o hiato.
FONTE: Elaboração própria no software R Studio.
FONTE: Elaboração própria no software R Studio.
Por fim, foi estimado dois modelos para o atual governo, o do presidente Jair Bolsonaro. Em termos de critério estatístico, o \(R^2\) do modelo em nível sugere que os juros e o componente fiscal, além das prórpias defasagem do hiato, explicam 92% da variação do hiato. Entretanto, o \(R^2\) da regressão log-log obteve um valor muito abaixo se comparado ao do modelo em nível, explicando apenas 26% da variação do hiato. Diferente do modelo para o período do Temer, o sinal das variáveis mantiveram-se em acordo de um modelo para o outro.
Tabela 19: Diagnóstico dos resíduos
Teste | Bolsonaro Nível | Bolsonaro log-log |
---|---|---|
Teste de White (Heterocedasticidade, %) | 0.46 | 0.23 |
Teste de Durbin-Watson (Autocorrelação, %) | 0.48 | 0.35 |
Teste de Breusch-Godfrey (Autocorrelação, %) | 0.31 | 0.92 |
Teste de Shapiro-Wilk (Normalidade, %) | 0.60 | 0 |
FIV (\(h_{t-1}\)) | 8.20 | 1.37 |
FIV (\(h_{t-2}\)) | 6.62 | 1.33 |
FIV (\(r_{t-1}\)) | 9.81 | 16.20 |
FIV (\(pr_{t-1}\)) | 17.07 | 17.44 |
Segue do diagnóstico dos resíduos que as variáveis, no período do governo Bolsonaro, tiveram uma alta associação linear com o hiato do produto, em especial o componente fiscal, que superou o tolerável de 10 no FIV em ambos os modelos. Quanto aos outros critérios, apenas o da normalidade dos resíduos que o modelo log-log difere do modelo em nível, onde os seus resíduos não possuem uma distribuição normal. Todavia, é válido ressaltar que, em 2020, a pandemia da COVID-19 impôs restrições ao funcionamento da economia mundial, e além dos governos terem se endividado, a produção também foi muito prejudicada.
Tabela 20: Efeito Marginal e Elasticidade no Governo Bolsonaro
Variável | Efeito Marginal | Elasticidade |
---|---|---|
\(r_{t-1}\) | -4,494.51 | -0.58 |
\(pr_{t-1}\) | -1,036,618.01 | -34.57 |
Quanto ao critério econômico dos modelos, para cada 1% a mais na Selic acumulada 12 meses, havia uma retração do hiato em 4 bilhões de reais, e em termos de elasticidade, para cada 1% de variação positiva nos juros, havia uma retração no hiato em cerca de 0.58%. O componente fiscal, por sua vez, sustentou uma elasticidade alta, como nos demais modelos.
A tabela abaixo resume tanto os efeitos marginais como a elasticidade de cada governo.
Tabela 21: Efeito Marginal
Governo | \(r_{t-1}\) | \(pr_{t-1}\) | ||
---|---|---|---|---|
Lula | -160.3162 | -432,718.3005 | ||
Dilma | -1,345.3771 | -213,916.0009 | ||
Temer | -15,124.4397 | 435,418.6215 | ||
Bolsonaro | -4,494.5115 | -1,036,618.0051 |
Tabela 22: Elasticidade
Governo | \(r_{t-1}\) | \(pr_{t-1}\) | ||
---|---|---|---|---|
Lula | -0.07% | -82.33% | ||
Dilma | -0.03% | -25.29% | ||
Temer | 0.02% | -6.26% | ||
Bolsonaro | -0.58% | -34.57% |
A taxa de juros e o componente fiscal do modelo afetaram o hiato do produto de diferentes maneiras ao longo do tempo. A taxa de juros foi menos eficaz no controle do hiato no governo Dilma, o que não é nenhuma surpresa, dado que a presidente adotou uma espécie de experimentalismo macroeconômico, inclusive desvirtuando a taxa de juros de seu objetivo principal, que é o controle da inflação através do regime de metas. Quanto ao componente fiscal, por sua vez, surtiu maior efeito no hiato no período Lula, onde houve um volumoso gasto do governo em programas sociais e afins, como também no governo Bolsonaro, que enfrentou uma das maiores crises do século, onde o governo teve de injetar liquidez na economia como há muito tempo não se via, frente a uma retração da renda internacional.
Após a análise do MQO fornecer o a elasticidade e o efeito marginal das variáveis em relação ao hiato, chega a hora de se analisar como o hiato responde a mudanças de tais variáveis sob outra metodologia, a do modelo VAR, cuja principal diferença consiste que o foco do modelo orbita o termo de erro. Para este trabalho, o modelo VAR serviu para análise do impulso-resposta, da decomposição do erro da variância e também realizou previsões.
Antes de introduzir o modelo, faz-se necessário explicar o processo da pré-modelagem. Para ser submetida ao modelo, a variável deve ser estacionária, para gerar um modelo estável. Além disso, a ordem das variáveis a ser inseridas no modelo também importa. Então, após ter as variáveis estáveis em termos de variância e já ter sido definido a ordem de entrada, também há a seleção das defasagens. O modelo VAR estimado, por sua vez, segue a especificação da curva IS apresentada no Working Paper 24, onde há a introdução da taxa de câmbio, e também sendo acrescentado como componente fiscal a NFSP, desta vez em seus próprios termos, e não como proporção do PIB.
Partindo da estacionariedade das variáveis, foi utilizado o teste de Dickey-Fuller aumentado para testar a presença de raíz unitária. Todas as variáveis, por sua vez, foram transformadas em número índice, posteriormente transformadas em logaritmo natural, e, por fim, foi extraído a primeira diferença. Portanto, todas as variáveis submetidas ao modelo, sem exceção, estão em primeira diferença do logaritmo natural do número índice da variável. Além disso, houve recorte temporal nos dados para se obter um modelo mais sólido, portanto, os dados partem de janeiro de 2017 até agosto de 2022. Segue, abaixo, o diagnóstico do teste de raíz unitária.
Tabela 23: Teste de raíz unitária
Variável | Valor calculado | Valor crítico |
---|---|---|
Hiato | -6.17 | -3.43 |
Selic | -4.90 | -3.43 |
NFSP | -5.42 | -3.43 |
Câmbio | -9.75 | -3.43 |
Para o diagnóstico da série ser a estacionariedade, a estatística calculada deve ser inferior ao valor crítico, o que aconteceu após as transformações descritas acima, portanto, as variáveis estão prontas para serem submetidas ao modelo. O próximo passo foi determinar a ordem de entrada, o método usado para isso foi a Causalidade de Granger. A ordem de entrada definida pela causalidade de Granger foi: hiato, juros, NFSP, câmbio. Segue, abaixo, o resultado da causalidade de Granger, testando se a variável em questão causa o hiato.
Tabela 24: Teste de Causalidade de Granger em relação ao Hiato
Variável | P-valor |
---|---|
Selic | 0 |
NFSP | 0 |
Câmbio | 0.30 |
Dado que a causalidade está na hipótese alternativa, segue dos resultados acima que tanto os juros quanto a necessidade de financiamento causam o hiato. O câmbio, por sua vez, caiu na aceitação da hipótese nula de que ele não causa o hiato. Entretanto, será mantido no modelo por já ser uma variável estabelecida na literatura econométrica para a curva IS.
O próximo passo foi definir as defasagens do modelo VAR, sendo norteado pelo critério da parcimônia, isto é, quanto menos defasagens melhor, até mesmo para reduzir a complexidade e a exigência da quantidade mínima dados a serem submetidos ao modelo.
Tabela 25: Seleção de defasagens do VAR (2017/01 - 2022/08)
Critério | AIC(n) | HQ(n) | SC(n) | FPE(n) |
---|---|---|---|---|
Defasagens | 4 | 3 | 2 | 4 |
Dado a tabelea acima, e tomando como base a parcimônia para se decidir o número de defasagens, apesar de duas defasagens ter sido o menor, o modelo gerado não foi estável em termos de homocedasticidade e autocorrelação. Portanto, o menor número de defasagens que gerou um modelo estável, foi 3, do critério HQ.
Tabela 26: Avaliação da curva IS estimada pelo VAR
Teste | p-valor |
---|---|
Portmanteau | 0 |
ARCH | 0.09 |
Shapiro-Wilk | 0 |
Há, na tabela acima, uma contradição entre os testes. O teste de Portmanteau apontou para a presença de autocorrelação dos resíduos, enquanto o teste de ARCH, que testa conjuntamente autocorrelação e heterocedasticidade, rejeitou tais hipóteses. Como o teste de ARCH possui mais robustez, o modelo foi selecionado para figurar o presente trabalho. O teste de Shapiro-Wilk, por sua vez, apontou a não normalidade dos resíduos.
O gráfico acima informa que um choque positivo no hiato vai ter um efeito negativo sobre si mesmo até o quinto período, e em seguida o impacto vai direcionando-se para o quadrante positivo com leves oscilações no sentido da variação, até estabilizar-se depois do décimo sexto período.
Um choque positivo na Selic tem, em seu primeiro momento, um efeito positivo até cerca de 6% no hiato, atingindo o pico do efeito positivo por volta do quinto período. A partir deste momento, há uma queda com apenas um ponto de inflexão até o décimo período. Do décimo período em diante, o efeito do choque dos juros no hiato vai oscilando em pequenas magnitudes até estabilizar-se por volta do vigésimo período.
Um choque positivo na Necessidade de Financiamento do Setor Público, por sua vez, em seus primeiros momentos, oscila entre efeito positivo e efeito negativo até por volta do décimo quinto período, sendo a maior parte desses efeitos no quadrante negativo. Tal choque leva cerca de vinte períodos para perder a força.
Até os cinco primeiros períodos do efeito, há um impacto negativo sobre o hiato, com uma breve interrupção e rápida retomada para o quadrante positivo por volta do terceiro período. Do quinto período em diante, após surtir o máximo de efeito negativo, o impacto vai tomando uma trajetória ascendente ao longo dos períodos até retomar a influenciar positivamente no hiato pouco depois do décimo primeiro período e perder a força após o vigésimo período.
Resgatando da metodologia, a decomposição da variância informa o quanto a variação percentual do erro de previsão é atribuída às variáveis do modelo. Ou seja, quanto maior for o erro de previsão atribuído a uma variável, mais importante ela é para estar contida no modelo e assim realizar boas previsões.
É notável o quão dependente o hiato é de suas defasagens, dado a grande variação do erro de previsão atribuída a si mesmo. A segunda variável macroeconômica que mais contribui para o erro de previsão da curva IS, por sua vez, é o componente fiscal do modelo, a Necessidade de Financiamento do Setor Público no sentido de Resultado Primário, o qual se estabiliza em torno de 13%. A terceira variável mais influente no erro de previsão é a taxa de juros, que se estabiliza em torno de 9%, e por fim, o câmbio, a variável menos influente do modelo, sendo responsável após a estabilização por cerca de 2% da variância do erro de previsão da curva IS.
Por último, há a modelagem da curva IS pelo modelo ARIMA. Neste caso, foi estimado um modelo na qual o hiato é função apenas de si próprio, seguindo um processo autorregressivo em conjunto com um processo de média móvel, diferenciado uma vez para ter mais estabilidade.
Ao fim do processo de identificação dos parâmetros \(p\) e \(q\) via correlograma e correlograma parcial, bem como avaliação da acurácia dos resultados através do erro quadrado médio, a identificação do modelo escolhido para a curva IS foi de um processo autorregressivo de ordem 2, uma diferenciação, e um processo média móvel de ordem 4, sendo assim, um modelo ARIMA(2,1,4).
A avaliação do modelo ARIMA via análise dos resíduos segue na tabela abaixo:
Tabela 27: Avaliação do modelo ARIMA
Teste | p-valor (exceto RMSE) |
---|---|
\(Q_1\) | 0.960 |
\(Q_2\) | 0.999 |
\(Q_4\) | 1 |
\(Q_8\) | 0.995 |
\(Q_{12}\) | 0.981 |
\(Q_{16}\) | 0.889 |
Shapiro-Wilk | 0 |
RMSE | 24,258.23 |
Em linhas gerais, o resultado da tabela acima informa que o resíduo mo modelo ARIMA estimado é ruído branco e não possui distribuição normal, além da raíz quadrática média ser a menor dentro de todos os outros modelos estimados na fase de execução do estudo no software.
A previsão foi realizada utilizando quatro modelos: o modelo MQO geral, que pega de 2003 até agosto de 2022, o modelo MQO do governo Bolsonaro, já que é o recorte temporal atual, o modelo ARIMA e o modelo VAR. Para o cálculo da previsão do MQO, cada variável do modelo foi estimada via ARIMA.
Tabela 28: Comparação da previsão do hiato
Período | MQO Geral | MQO Bolsonaro | ARIMA | VAR |
---|---|---|---|---|
2022/09 | 301904.6 | 280866.00 | 301028.4 | 0.05851378 |
2022/10 | 318817.6 | 243859.20 | 341146.4 | -0.27759372 |
2022/11 | 305047.8 | 157123.70 | 342042.6 | -0.17265316 |
2022/12 | 272591.6 | 58006.58 | 314043.6 | -0.18184150 |
Para os modelos em MQO, o resultado está em milhões de reais em nível, enquanto que o resultado do modelo var está em primeira diferença do logaritmo do número índice.
As previsões do modelo geral e as do modelo ARIMA estão relativamente semelhantes, se comparado ao do modelo Bolsonaro. Os coeficientes beta da regressão do governo Bolsonaro é caracterizada por ser a que mais é influenciada em termos de efeito marginal pela necessidade de financiamento do setor público em proporção ao PIB, e a segunda mais influenciada pela taxa de juros, também em termos de efeito marginal.
O presente trabalho analisou a dinâmica da curva IS sob a especificação do Banco Central como sendo o hiato em função da taxa de juros, necessidade de financiamento público (NFSP) e câmbio. Através dos modelos estimados em Mínimos Quadrados Ordinários (MQO), foi extraído o efeito marginal das variáveis sobre o hiato, bem como também a elasticidade, e posteriormente a previsão. Os modelos apontaram uma forte relação do hiato com o componente fiscal, no caso a NFSP, e também com a taxa de juros, ambas com uma relação inversa com o hiato.
O modelo VAR, por sua vez, teve o foco do seu uso direcionado para analisar o efeito de choques dados na curva IS através das variáveis especificadas no Working Paper 24 do Banco Central, contando com duas ferramentas poderosas para tais análises: a da função impulso-resposta e a decomposição da variância. Pela função de impulso-resposta, foi observado que em média, os choques tem uma duração significante até por volta do décimo quinto mês seguinte, e a decomposição da variância explicitou o quanto o componente fiscal do modelo influencia na variância do erro de previsão do hiato do produto.
O modelo ARIMA, por sua vez, foi utilizado exclusivamente para a previsão, tanto do hiato em si, que foi identificado como um processo autorregressivo de ordem 2, com uma diferença, e de processo de média móvel de ordem 4, como também para fazer a previsão das variáveis dependentes do modelo MQO para que, através dos coeficientes beta estimados, seja possível fazer a previsão também pelo método dos Mínimos Quadrados Ordinários, embora a sua abordagem neste trabalho tenha sido para destacar mais aspectos estruturais do que a previsão em si.
Apesar da maior parte dos resultados estarem de acordo com a literatura econômica, há algumas falhas e limitações dos modelos apresentados neste trabalho, como por exemplo as regressões log-log para extrair a elasticidade, dado que a média do hiato é um valor extremamente pequeno que impossibilita a obtenção de tal critério econômico através do cálculo convencional. Houve também contradição tanto com a teoria econômica quanto em relação entre os próprios modelos, nas regressões estimadas do governo Michel Temer.
Froyen, R. T. Macroeconomia: teorias e aplicações - 2ª edição. São Paulo: Editora Saraiva, 2012. 9788502175235. Disponível em: https://integrada.minhabiblioteca.com.br/#/books/9788502175235/. Acesso em: 16 Dec 2022.
Giambiagi, F. Complacência - Entenda Por Que o Brasil Cresce Menos do Que Pode. Rio de Janeiro: Grupo GEN, 2014. 9788595156814. Disponível em: https://integrada.minhabiblioteca.com.br/#/books/9788595156814/. Acesso em: 16 Dec 2022.
CENTRO DE DEBATE DE POLÍTICAS PUBLICAS. Sob a luz do sol, setembro 2014. Disponível em: https://cdpp.org.br/wp-content/uploads/2017/02/SobLuzDoSol.pdf. Acesso em: 16 Dec. 2022.
MESQUITA, Mario. A política econômica do governo Dilma: a volta do experimentalismo, setembro 2014. Disponível em: https://cdpp.org.br/wp-content/uploads/2017/02/Coletanea-Sob-a-Luz-do-Sol_v2509.pdf, Acesso em: 16 Dec. 2022.
DE BOLLE, Monica, Como Matar a Borboleta-Azul: Uma Crônica da Era Dilma. Rio de Janeiro: Editora Intrínseca, 26 de setembro de 2016.
Lopes, Luiz M. Macroeconomia - Teoria e Aplicações de Política Economica, 4ª edição. Disponível em: Minha Biblioteca, Grupo GEN, 2018.
Morettin, Pedro, A. e Wilton de O. Bussab. Estatística básica. Disponível em: Minha Biblioteca, (9th edição). Editora Saraiva, 2017.
Bueno, Rodrigo De Losso da S. Econometria de Séries Temporais - 2ª edição revista e atualizada. Disponível em: Minha Biblioteca, (2nd edição). Cengage Learning Brasil, 2018.
Gujarati, Damodar, N. e Dawn C. Porter. Econometria Básica. Disponível em: Minha Biblioteca, Grupo A, 2011.
Gujarati, Damodar, et al. Econometria. Disponível em: Minha Biblioteca, Editora Saraiva, 2019.
Vasconcellos, Marco Antonio Sandoval D. ECONOMIA: Micro e Macro. Disponível em: Minha Biblioteca, (6th edição). Grupo GEN, 2015.
ENDERS, W. Applied econometric time series. New York: John Wiley & Sons, Inc. 1995.
Ferreira, P. G. C. et. al. Análise de Séries Temporais em R: curso introdutório. 1 ed. - Rio de Janeiro: Elsevier: FGV IBRE, 2018.
Consultar Econometria Básica, Gujarati, 5ª ed, Apêndice 3A.↩︎
Consultar Econometria Básica, Gujarati, 5ª ed, Capítulo 3.↩︎
O Teorema de Gauss-Markov diz que, dada as hipóteses do modelo de regressão linear, os estimadores MQO dos estimadores lineares não tendenciosos possuem uma variância mínima. Para mais detalhes, consultar Econometria Básica, Gujarati, 5ª ed, Apêndice 3A.↩︎
O nível de singificância de 5% é o padrão para os testes de t deste trabalho. Na literatura, há vários testes feitos considerando outros níveis de significância.↩︎
O fundamento de extrair a elasticidade através da regressão log-log consta em Econometria Básica, Gujarati, 5ª ed., Capítulo 6.↩︎