3er Parcial - Macroeconometría

Ejercicios Teóricos

1. Empleando al texto “Applied Time Series Analysis” de Mills(2019) explique que es la prueba de Dicky Fuller.

La prueba de Dickey Fuller o test de raíz unitaria, es un test que, de manera estadística, busca determinar la conducta tendencial estocástica de las variables en las series temporales, para ello, utiliza una prueba de hipótesis, que Mills (2019) lo formaliza de manera matemática de la siguiente forma:

\[ t_\phi = \frac{\phi_T-1}{\sigma_{\phi_T}}=\frac{\phi_T-1}{(S_T^2/∑_{t-1}x^2_{t-1})^2} \]

Donde \(\sigma_{\phi_T}=(\frac{S_T^2}{∑_{t-1}^T x^2_{t-1}})^{1/2}\)

Esto busca mostrar la no estacionariedad, dentro del mecanismo de generación de datos. Principalmente dado por los frecuentes casos donde se toma como un síntoma a la serie de tiempo subyacente no estacionaria. Por lo que se requiere una diferenciación.

Dentro del test, la hipótesis nula representa la presencia de un modelo de caminata aleatoria en las observaciones. Mientras que la hipótesis alternativa implica que la estacionariedad de la serie presente en las observaciones. En resumen, cuanto más cerca esté el primer coeficiente de un modelo AR(1) de 1, más tiempo le tomará a las observaciones para situarse en el valor medio. Esto es sinónimo de no estacionariedad ya que, si el proceso estocástico fuera estable, este coeficiente sería menor a 1 o muy próximo a 0.

2. Empleando al texto de Wei(2006), Time Series Analysis Univariate and Multivariate Methods, explique, ¿qué comprende la diferenciación de una serie no estacionaria?

Una serie de tiempo es estacionaria cuando: la fluctuación sobre una media de nivel constante es predecible por la naturaleza física de la serie, en otras palabras, la media no varía con el tiempo. Además, la varianza de la variable aleatoria debe ser constante, y la covarianza entre 2 variables aleatorias es constante y despende solo del tiempo. Así:

\[ E(x_1 )=E(x_2 )=⋯=E(x_T )=μ \\ V(x_1 )=V(x_2 )=⋯=V(x_T )=σ_x^2 \\ Cov(X_1,X_{1+k} )=Cov(X_2,X_{2+k} )=⋯=Cov(X_t,X_{t-k}) \]

Bajo estas propiedades un proceso estocástico es estacionario.

Por otro lado, las series de tiempo no estacionarias pueden tener medias no constantes, variabilidad en la ley de segundo orden; esto es, una varianza no constante, o ambas propiedades en conjunto. En resumen, si un proceso mantiene una media no constante se considera no estacionario. Ejemplos de procesos no estacionarios pueden ser el tipo de cambio entre dos divisas, en cambio, un proceso estacionario puede ser la evolución del PIB.

La diferenciación de una serie no estacionaria puede venir determinada por la característica de la media. A saber, en los modelos de tendencia determinista, y los modelos de tendencia estocástica .

En los modelos de tendencia determinista se usa modelos de regresión estándar para describir los fenómenos. A su vez, los modelos de tendencia estocástica la no estacionariedad se puede deber a algunas fuerzas de equilibrio, donde algunas partes de la serie se pueden comportar de manera similar, excepto por algunas diferencias en la media de algunas zonas específica.

3. A partir de la lectura “Time Series Analysis with Applications in R” de Cryer y Chan (2008) explique, ¿qué es un proceso ARIMA?

Un proceso ARIMA son las siglas en ingles de “Integrated Autoregressive Moving Average”, que es español significaría un proceso autoregresivo integrado de media móvil. Una serie de tiempo es considerada ARIMA si la diferenciación d, \(W_t=∂^d T_t\) es un proceso ARMA estacionario.

En otras palarbas, si el proceso \(W_t\) sigue un modelo ARMA(p,q), se puede afirmar que \(W_t\) es un proceso ARIMA (p,d,q)

Así, un proceso ARIMA (p,1,q) puede ser representado como:

\[ Wt = \phi_1W_{t – 1} \phi_2W_{t – 2} + \ … \ +\phi_pW_{t – p} + e_t θ_1e_{t–1}- \phi_2 e_{t – 2} – \ ...\ - θ_qe_{t –q} \]

Este proceso es estacionario, en su forma general. Resultado llamado por Wei (2006) como un modelo no estacionario homogéneo.

Preguntas de Aplicación

1. A partir del siguiente proceso autoregresivo:

\[ w_t = 0.552w_{t-1}+0.711w_{t-2}-0.571w_{t-3}+\varepsilon_t \] \[ con \ \varepsilon_t \sim RB(0;\sigma^2_e ) \]

i. Verifique si las dos condiciones necesarias de estacionariedad para el caso de un proceso autorregresivo de orden 3 se satisfacen. ¿Qué concluye respecto a la estacionariedad del proceso? ¿Es necesario buscar las raíces del polinomio característico?

Existen dos condiciones necesarias para la estacionariedad de un proceso autoregresivo, estas son:

  1. \(\phi_1+\phi_2+\phi_3 < 1\)
  2. \(|\phi_3| < 1\)

En este sentido, la primera condición nos da como resultado \(0.522+0.711-0.571=0.692\), cumpliendo la condición de manera satisfactoria. La segunda condición se puede corroborar de manera simple, pues el número del coeficiente es fácilmente verificable como menor a la unidad, cumpliendo por tanto la segunda condición necesaria de forma satisfactoria.

ii. Si las condiciones necesarias se cumplen, plantee al polinomio característico y obtenga sus raíces empleando Wolfram Mathematica. ¿Qué concluye respecto a la estacionariedad del proceso?

Dado que las condicones necesarias se cumplen, el planteamiento del polinomio caracteístico es:

\(w_t=0.522w_{t−1}+0.711w_{t−2}-0.571w_{t-3}+\varepsilon_t\)

\(w_t-0.522w_{t−1}-0.711w_{t−2}+0.571w_{t-3}=\varepsilon_t\)

\(w_t-0.522w_{t−1}-0.711w_{t−2}+0.571w_{t-3}=0\)

\(\frac{\lambda^t}{\lambda^{t-3}}-\frac{0.522\lambda^{t−1}}{\lambda^{t-3}}-\frac{0.711\lambda^{t−2}}{\lambda^{t-3}}+\frac{0.571\lambda^{t-3}}{\lambda^{t-3}}=0\)

\(\lambda^3-0.522\lambda^2-0.711\lambda+0.571=0\)

Dado que el resultado de las raíces del polinomio característico son ambas, en términos absolutos, menores a la unidad; el proceso es estacionario.

iii. Calcule las cuatro primeras autocorrelaciones, es decir, para h=1, 2, 3 y 4.

Para obtener la correlación con h = 1, 2, 3, 4, primero es necesario obtener la covarianza entre el proceso de origen y el proceso con estos valores, además, se requiere obtener el proceso para \(h=0\), pues los demás procesos requerirán de su resultado. Por tanto, el desarrollo matemático es el siguiente:

Caso h = 0 (varianza), de manera general

\[ var(w_t)=γ(0)=var(ϕ_1w_{t−1}+ϕ_2w_{t−2}-ϕ_3w_{t-3}+εt) \]

\[ var(ϕ_1w_{t−1}+ϕ_2w_{t−2}-ϕ_3w_{t-3}+εt)= \ ... \\ E[ϕ_1w_{t−1}+ϕ_2w_{t−2}-ϕ_3w_{t-3}+εt-E(ϕ_1w_{t−1}+ϕ_2w_{t−2}-ϕ_3w_{t-3}+εt)]^2 \]

\[ var(ϕ_1w_{t−1}+ϕ_2w_{t−2}-ϕ_3w_{t-3}+εt)= \ ... \\ E[ϕ_1w_{t−1}+ϕ_2w_{t−2}-ϕ_3w_{t-3}+εt-E(ϕ_1w_{t−1}+ϕ_2w_{t−2}-ϕ_3w_{t-3}+εt)]* \ ... \\ [ϕ_1w_{t−1}+ϕ_2w_{t−2}-ϕ_3w_{t-3}+εt-E(ϕ_1w_{t−1}+ϕ_2w_{t−2}-ϕ_3w_{t-3}+εt)] \]

Se distribuye las esperanzas

\[ var(ϕ_1w_{t−1}+ϕ_2w_{t−2}-ϕ_3w_{t-3}+εt)= \ ... \\ E[ϕ_1w_{t−1}+ϕ_2w_{t−2}-ϕ_3w_{t-3}+εt-ϕ_1E(w_{t−1})-ϕ_2E(w_{t−2})+ϕ_3E(w_{t-3})+E(εt)]* \\ [ϕ_1w_{t−1}+ϕ_2w_{t−2}-ϕ_3w_{t-3}+εt-ϕ_1E(w_{t−1})-ϕ_2E(w_{t−2})+ϕ_3E(w_{t-3})+E(εt)] \]

\(E(ε_t)=0\) \(E(w_t)=E(w_{t−1})=E(w_{t−2})=E(w_{t−3})=0\), si es estacionario

\[ var(ϕ_1w_{t−1}+ϕ_2w_{t−2}-ϕ_3w_{t-3}+εt)= \ ... \\ E[ϕ_1w_{t−1}+ϕ_2w_{t−2}-ϕ_3w_{t-3}+εt]*[ϕ_1w_{t−1}+ϕ_2w_{t−2}-3w_{t-3}+εt] \]

\[ var(ϕ_1w_{t−1}+ϕ_2w_{t−2}-ϕ_3w_{t-3}+εt)= \ ... \\ E[ϕ_1w_{t−1}ϕ_1w_{t−1}+ϕ_1w_{t−1}ϕ_2w_{t−2}-ϕ_1w_{t−1}ϕ_3w_{t-3}+ϕ_1w_{t−1}ε_t-\\ ϕ_2w_{t−2}ϕ_1w_{t−1}+ϕ_2w_{t−2}ϕ_2w_{t−2}-ϕ_2w_{t−2}ϕ_3w_{t-3}+ϕ_2w_{t−2}ε_t+\\ ϕ_3w_{t-3}ϕ_1w_{t−1}-ϕ_3w_{t-3}ϕ_2w_{t−2}-ϕ_3w_{t-3}ϕ_3w_{t-3}-ϕ_3w_{t-3}ε_t+\\ ε_tϕ_1w_{t−1}+ε_tϕ_2w_{t−2}-ε_tϕ_3w_{t-3}+ε_tε_t] \]

Simplificando \[ var(ϕ_1w_{t−1}+ϕ_2w_{t−2}-ϕ_3w_{t-3}+εt)= \ ... \\ E[ϕ_1^2w_{t−1}^2+2ϕ_1 2ϕ_2w_{t−1}w_{t−2}-2ϕ_1 2ϕ_3w_{t−1}w_{t-3}+2ϕ_1w_{t−1}ε_t+ϕ_2^2w_{t−2}^2 \\ -2ϕ_2 2ϕ_3w_{t−2}w_{t-3}+2ϕ_2w_{t−2}ε_t-ϕ_3^2w_{t-3}^2-2ϕ_3w_{t-3}ε_t+ε_t^2] \]

\[ var(ϕ_1w_{t−1}+ϕ_2w_{t−2}-ϕ_3w_{t-3}+εt)= \ ... \\ ϕ_1^2E[w_{t−1}^2]+2ϕ_1 2ϕ_2E[w_{t−1}w_{t−2}]-2ϕ_12ϕ_3E[w_{t−1}w_{t-3}]+2ϕ_1E[w_{t−1}ε_t]+ϕ_2^2E[w_{t−2}^2] \\ -2ϕ_2 2ϕ_3E[w_{t−2}w_{t-3}]+2ϕ_2E[w_{t−2}ε_t]-ϕ_3^2E[w_{t-3}^2]-2ϕ_3E[w_{t-3}ε_t]+E[ε_t^2] \]

Por definición sabemos que:

Si es estacionario \(γ(0)=var(wt)=var(ε_t+ ϕ_1w_{t−1} + ϕ_2w_{t−2})\) va a ser igual a \(var(w_{t−1})=var(w_{t−2})\)

Además, por las propiedades sabemos:

\(var(ε_t)=\sigma^2\)

\(cov(w_{t−1}w_{t−2})=\gamma(1)\)

\(cov(w_{t−1}w_{t−3})=\gamma(2)\)

\(cov(w_{t−2}w_{t−3})=\gamma(1)\)

\(cov(w_{t−1}ε_t)=0\)

\(cov(w_{t−2}ε_t)=0\)

\(cov(w_{t−3}ε_t)=0\)

Así, el desarrollo completo de la varianza del proceso nos da como resultado lo siguiente:

\[ \gamma(0)= ϕ_1^2\gamma(0)+2ϕ_1 2ϕ_2\gamma(1)-2ϕ_12ϕ_3\gamma(2)+ϕ_2^2\gamma(0)-2ϕ_22ϕ_3\gamma(1)-ϕ_3^2\gamma(0)+\sigma^2 \]

Caso h = 1, 2, 3, 4 (varianza)

\[ w_t = 0.552w_{t-1}+0.711w_{t-2}-0.571w_{t-3}+\varepsilon_t, \ \varepsilon_t\sim RB(0,\sigma^2) \]

\[ w_s = 0.552w_{s-1}+0.711w_{s-2}-0.571w_{s-3}+\varepsilon_t, \ \varepsilon_s\sim RB(0,\sigma^2) \]

\(s=t-h\)

\[ w_{t-h} = 0.552w_{t-h-1}+0.711w_{t-h-2}-0.571w_{t-h-3}+\varepsilon_t \]

\[ cov(w_t,w_{t−h})=E[w_t−E(w_t)][w_{t−h}−E(w_{t−h})] \]

Si son estacionarios \(E(w_t)=E(w_{t−h})=0\)

\[ cov(w_t,w_{t−h})=E[w_tw_{t−h}] \]

\[ cov(w_t,w_{t−h})=E[(0.522w_{t−1} +0.711w_{t−2}-0.571w_{t-3}+ε_t)wt−h] \]

\[ cov(w_t,w_{t−h})=0.522E[(w_{t−1}w_{t−h}] +0.711E[w_{t−2}w_{t−h}]-0.571E[w_{t-3}w_{t−h}]+E[ε_tw_{t−h}] \]

\[ E[ε_tw_{t−h}]=cov(ε_t,w_{t−h})=0 \]

\[ cov(w_t,w_{t−h})=0.522E[(w_{t−1}w_{t−h}] +0.711E[w_{t−2}w_{t−h}]-0.571E[w_{t-3}w_{t−h}] \]

\[ cov(w_{t−1}, w_{t−h})=γ(h−1) \]

\[ cov(w_{t−2}, w_{t−h})=γ(h−2) \]

\[ cov(w_{t−3}, w_{t−h})=γ(h−3) \]

\[ cov(w_t,w_{t−h})=0.522γ(h−1)+0.711γ(h−2)-0.571γ(h−3) \]

Para \(h=1\)

\[ cov(w_t,w_{t−h})=0.522γ(h−1)+0.711γ(h−2)-0.571γ(h−3) \]

\[ cov(w_t,w_{t−h})=γ(1)=0.522γ(0)+0.711γ(1)-0.571γ(2) \]

Para \(h=2\)

\[ cov(w_t,w_{t−h})=0.522γ(h−1)+0.711γ(h−2)-0.571γ(h−3) \]

\[ cov(w_t,w_{t−h})=γ(2)=0.522γ(1)+0.711γ(0)-0.571γ(1) \]

Para \(h=3\)

\[ cov(w_t,w_{t−h})=0.522γ(h−1)+0.711γ(h−2)-0.571γ(h−3) \]

\[ cov(w_t,w_{t−h})=γ(3)=0.522γ(2)+0.711γ(1)-0.571γ(0) \]

Para \(h=4\)

\[ cov(w_t,w_{t−h})=0.522γ(h−1)+0.711γ(h−2)-0.571γ(h−3) \] \[ cov(w_t,w_{t−h})=γ(4)=0.522γ(3)+0.711γ(2)-0.571γ(1) \] Habiendo obtenido las covarianzas, se puede proceder a un sistema de ecuaciones para poder resolver las autocorrelaciones indicadas

\[ i) \ \gamma(0)= ϕ_1^2\gamma(0)+2ϕ_1 2ϕ_2\gamma(1)-2ϕ_12ϕ_3\gamma(2)+ϕ_2^2\gamma(0)-2ϕ_22ϕ_3\gamma(1)-ϕ_3^2\gamma(0)+\sigma^2 \]

\[ ii) \ γ(1)=0.522γ(0)+0.711γ(1)-0.571γ(2)\approx γ(1)=ϕ_1γ(0)+ϕ_2γ(1)-ϕ_3γ(2) \]

\[ iii) \ γ(2)=0.522γ(1)+0.711γ(0)-0.571γ(1) \approx γ(2)=ϕ_1γ(1)+ϕ_2γ(0)-ϕ_3γ(1) \]

Con estas ecuaciones, se obtiene los resultados de las covarianzas con los cuales se resulve la función de autocorrelación.

phi_1=0.522
phi_2=0.711
phi_3=-0.571
wt_ar3=numeric(0)
T=1000; sigma=16
rb=rnorm(T,0,sigma)
#bucle
wt_ar3[1]=rb[1]
wt_ar3[2]=rb[2]
wt_ar3[3]=rb[3]
for(i in 4:T){wt_ar3[i]=phi_1*wt_ar3[i-1]+phi_2*wt_ar3[i-2]+phi_3*wt_ar3[i-3]+rb[i]}
my_acf=acf(wt_ar3, plot=F)
my_acf[0:4]
## 
## Autocorrelations of series 'wt_ar3', by lag
## 
##     0     1     2     3     4 
## 1.000 0.392 0.665 0.010 0.255

iv. Desarrolle una simulación de 1000 observaciones. Utilice las dos vías estudias en clase. ¿Observa un comportamiento estacionario en su representación como serie de tiempo?

Con:

\[ \varepsilon_t \sim RB(0;16) \]

library(forecast)
## Registered S3 method overwritten by 'quantmod':
##   method            from
##   as.zoo.data.frame zoo
phi_1=0.522
phi_2=0.711
phi_3=-0.571
wt_ar3=numeric(0)
t=1000; sigma=16
rb=rnorm(t,0,sigma)

wt_ar3[1]=rb[1]
wt_ar3[2]=rb[2]
wt_ar3[3]=rb[3]

for(i in 4:t){wt_ar3[i]=phi_1*wt_ar3[i-1]+phi_2*wt_ar3[i-2]+phi_3*wt_ar3[i-3]+rb[i]}
ts.plot(wt_ar3)

Dada la poca variabilidad que presenta el gráfico, su aparente media y varianza constante, el gráfico si presenta un comportamiento estacionario.

v. Elabore representaciones de la autocorrelación simple e indique si satisface a las de un proceso autoregresivo.

acf(wt_ar3, main="Representación de autocorrelación del proceso")

Esta representación de un proceso autoregresivo mantiene se encuentra dentro de lo esperado para este tipo de procesos, pues tiene fluctuaciones dentro de los resagos hasta desaparecer.

2. A partir del siguiente proceso ARMA:

\[ w_t=0.78w_{t-1}-0.64ε_{t-1}+ε_t \]

con \(ε_t\sim RB(0;σ_e^2)\)

i. Desarrolle una simulación de 1000 observaciones con ε_t~RB(0;16). Utilice las dos vías estudias en clase. ¿Observa un comportamiento estacionario en su representación como serie de tiempo?

t=1000
sigma=16
rb=rnorm(t,0,sigma)
arima1_1=arima.sim(list(ar=c(0.78),ma=c(-0.64)),innov = rb, n=1000)
plot(arima1_1, main="Proceso ARMA (1,1)", col="dark blue")

El gráfico muestra un comportamiento poco variable, denotando una posible media y varianza constantes en el tiempo, por lo tanto, mostrando un comportamiento estacionario.

ii. Elabore una representación de la autocorrelación simple e indique si satisface a las de un proceso ARMA.

acf(arima1_1, main="Autocorrelación del proceso ARMA(1,1)")

Esta representación del proceso mantiene la forma de disminución progresiva en la correlación del proceso con sus lags, demostrando también unas pequeñas fluctuaciones al finalizar, estas características están acorde a las de un proceso ARMA.

Bibliografía

Mills, T. C. (2019). Applied time series analysis: A practical guide to modeling and forecasting. Academic press.

Cryer, J. D., & Chan, K. S. (2008). Time series analysis: with applications in R. Springer Science & Business Media.

Wei, W.S. (2006). Time Series Analysis: Univariate and Multivarieta Methods. Second Editio. The Fox School of Business and Management.