Para un proceso estacionario demuestre las siguientes propiedades:
Dem.
\[\text{Por definición sabemos que: } \gamma_k=E([Z_t-\mu][Z_{t+k}-\mu]) \\ \text{recordemos que como estamos hablando de un proceso estacionario } E[Z_t]=\mu \quad \forall t \in T\\ Así: \gamma_0=E([Z_t-\mu][Z_t-\mu])=E[Z_T-\mu]^2=E[Z_t-E[Z_t]]^2=Var[Z_t] \quad \blacksquare\]
Dem.
\[\rho_k=\frac{Cov(Z_t,Z_{t-k})}{\sqrt{Var[Z_t]}\sqrt{Var[Z_{t-k}]}}\] \[\Rightarrow \rho_0=\frac{Cov(Z_t,Z_{t})}{\sqrt{Var[Z_t]}\sqrt{Var[Z_{t}]}}=\frac{Var[Z_t]}{Var[Z_t]}=1 \quad \blacksquare\]
Dem.
\[|\gamma_k|= Cov(Z_t,Z_{t-k}) \\ \text{ y por la desigualdad de Cauchy Schwarz para variable aleatorias}:\\ Cov(X,Y) \leq \sqrt{Var[X] \cdot Var[Y]}\\ \text{Para nuestro caso: } Cov(Z_t,Z_{t-k})\leq \sqrt{Var[Z_t] \cdot Var[Z_{t-k}]}\\ \text{Y como } Var[Z_t]=Var[Z_{t-k}] \text{ entonces } \gamma_k \leq Var[Z_t]=\gamma_0 \quad \blacksquare\]
Dem.
\[\rho_k=\frac{Cov(Z_t,Z_{t-k})}{\sqrt{Var[Z_t]}\sqrt{Var[Z_{t-k}]}}\\ \text{Nuevamente recurriendo a la desigualdad de Cauchy-Schwarz tenemos que: }\\ Cov(Z_t,Z_{t-k})\leq \sqrt{Var[Z_t] \cdot Var[Z_{t-k}]} \Rightarrow \frac{Cov(Z_t,Z_{t-k})}{\sqrt{Var[Z_t]}\sqrt{Var[Z_{t-k}]}} \leq \frac{\sqrt{Var[Z_t]}\sqrt{Var[Z_{t-k}]}}{\sqrt{Var[Z_t]}\sqrt{Var[Z_{t-k}]}}=1 \quad \blacksquare\]
Dem.
\[\gamma_k=E([Z_t-\mu][Z_{t+k}-\mu])\\ \text{Tenemos que como la autocovarianza es invariante al tiempo y sólo depende de la distancia entre los retardos }\\ k \text{ y } -k es \text{ simétrica con respecto al } 0. Así:\\ E([Z_t-\mu][Z_{t+k}-\mu])=E([Z_t-\mu][Z_{t-k}-\mu])= \gamma_{-k} \quad \blacksquare\]
Dem.
\[\rho_k=\frac{Cov(Z_t,Z_{t-k})}{\sqrt{Var[Z_t]}\sqrt{Var[Z_{t-k}]}} \text{ y por el inciso anterior }\\ \rho_k=\frac{Cov(Z_t,Z_{t+k})}{\sqrt{Var[Z_t]}\sqrt{Var[Z_{t+k}]}}=\rho_{-k} \quad \blacksquare\]
Muestre que los porcesos \(MA(1)\) siguientes:
\(Z_t=a_t+\theta a_{t-1}\)
\(Z_T=a_T+\frac{1}{\theta}a_{t-1}\)
Con \(0<|\theta|<1\) tiene las mismas funciones de autocorrelación.
\(Sol.\)
La función de autocorrelación de un modelo \(MA(1)\) esta dafinida como :
\[\rho_k=\begin{cases} 1 \text{ para } k=0 \\ \frac{-\theta}{1+\theta^2} \text{ para } k=1 \\ 0 \text{ para } k>1 \end{cases}\]
Para el caso a).
\[\rho_1=\frac{Cov(a_t+\theta a_{t-1},a_{t-1}-\theta a_{t-2})}{\sqrt{Var[a_t+\theta a_{t-1}]\cdot Var[a_{t-1}+\theta a_{t-2}]}}=\frac{\theta}{(1+\theta^2)}\] Para el caso b).
\[\rho_1=\frac{Cov(a_t+\frac{1}{\theta} a_{t-1},a_{t-1}-\frac{1}{\theta} a_{t-2})}{\sqrt{Var[a_t+\frac{1}{\theta} a_{t-1}]\cdot Var[a_{t-1}+\frac{1}{\theta} a_{t-2}]}}=\frac{1/\theta}{1+1/\theta^2}=\frac{1/\theta}{\frac{\theta^2+1}{\theta^2}}=\frac{\theta}{1+\theta^2}\] Por ende, ambos procesos poseen la misma función de autocorrelación. \(\blacksquare\)
Encuentre los valores \(\lambda_1\) y \(\lambda_2\) tales que el proceso \(AR(2)\) definido por:
\(Z_t=\lambda_1Z_{t-1}+\lambda_2Z_{t-2}+a_t\) sea estacionario. Si \(\lambda_1=\frac{1}{3}\), \(\lambda_2=\frac{2}{9}\), demuestre que la función de autocorrelación de \(Z_t\) está dada por:
\(\rho_k=\frac{16(2^{|k|})}{21(3^{|k|})}\) donde \(k=0,\pm1,\pm2,\ldots\)
Tenemos \(Z_t=\lambda_1Z_{t-1}+\lambda_2Z_{t-2}+a_t\) entonces el polinomio catacterístico asociado es:
\(\phi(z)=1-\lambda_1z-\lambda_2z^2\) así, buscamos las raíces de \(\phi\) fuera del círculo unitario. Para esto hay que considerar la parametrización:
\(C=\{(\lambda_1, \lambda_2)|1-\lambda_1z-\lambda_2z^2\neq0, ||z||\leq1\}\) con \(z\in\mathcal{C}\) (complejos).
Así \(\phi(z)=1-\lambda_1z-\lambda_2z^2=(1-\frac{z}{\alpha_1})(1-\frac{z}{\alpha_2})\) tal que \(\alpha_i\) son las raíces de \(\phi\) en \(\mathcal{C}\)
Tomamos \(\tilde{\phi}(z)=(1-z \alpha_1)(1-z\alpha_2)=1+\frac{\lambda_1}{\lambda_2}z+\frac{1}{\lambda_2}z^2\) el cual es el polinomio dual de \(\phi\).
Entonces las raíces, fuera del círuclo unitario, de \(\phi\) son iguales a las raíces dentro del círculo unitario de \(\tilde{\phi}\), tomando \(\tilde{\phi}(z)=\frac{1}{\lambda_2}\bigg(z^2-\lambda_1z-\lambda_2\bigg)\) y considerando \(\bar{\phi}(z)=z^2-\lambda_1z-\lambda_2\), podemos encontrar las raíces \(\beta=\frac{1}{2}(\lambda_1\pm\sqrt{\lambda_1^2+4\lambda_2})\)
Sea \(\bigtriangleup=\lambda_1^2+4\lambda_2\), entonces si \(0<\bigtriangleup\) se tiene que \(-1<\frac{1}{2}(\lambda_1\pm\bigtriangleup)<1\) y de aquí , \(\lambda_2>-1\), \(\lambda_2-\lambda_1<1\) y \(\lambda_2+\lambda_1<1\)
Si sucede que \(\bigtriangleup=o\), entonces tenemos solo una raíz y \(|\lambda_1|<2\)
Si \(\bigtriangleup<o\) tenemos dos raíces (conjugadas) en los complejos y \(||\beta||^2=-\lambda_2\), por lo que \(\lambda_2>-1\)
Así que para el proceso \(AR(2)\) sea estacionario debe de cumplr de manera necesaria y suficiente que
\(\lambda_2-\lambda_1<1\)
\(\lambda_2+\lambda_1<1\)
\(|\lambda_2|<1\)
\(|\lambda_1|<2\)
Para el modelo \((1-B)(1-.2B)Z_t=(1-.5B)a_t\):
El polinomio asociado al modelo \(ARIMA\) es:
\(\phi_p(B)(1-B)^dZ_t=\theta_q(B)a_t\) donde
\(\phi_p=a-\phi_1B-\ldots-\phi_pB\rightarrow AR(p)\) y
\(\theta_q=a-\theta_1B-\ldots-\theta_qB\rightarrow MA(q)\)
\(\implies\) \((1-B)=(1-B)^d\) \(\implies\) \(d=1\), \((1-.02B)=\theta_q=1-\theta_1B\) \(\implies\) \(\theta_1=0.2\) \(\implies\) \(p=1\)
y \((1-0.5B)=\theta_q\) \(\implies\) \(\theta_1=0.5\) \(\implies\) \(\theta_q=\theta_1\) \(\implies\) \(q=1\)
Por lo tanto tenemos un modelo \(ARIMA(1, 1, 1)\).
Para que el proceso sea estacionario necestia cumplirse \(|\phi_1|<1\), aquí \(|\phi_1|=0.2\), por lo tanto el proceso es estacionario.
Para que el proceso sea invertible \(|\theta_1|<1\), de hecho \(|\theta_1|=0.5\), entonces el proceso es invertible.
Encuentre la función de autocorrelación parcial del proceso \(AR(2)\) dado por:
\[ Z_{t}= \frac{1}{3}Z_{t-1}+\frac{2}{9}Z_{t-2}+a_t\]
\(Sol.\)
Primeramente recordemos la definición de la función de autocrrelación parcial (PACF):
\[\phi_{\tau \tau}= \begin{cases} \rho_1 \text{ para } \tau=1 \\ \rho(Z_{\tau}-f_{\tau-1},Z_0-f_{\tau-1}) \text{ para }\tau \geq 2 \end{cases}\]
Donde \(f_{\tau-1}=f(Z_{\tau-1},...,Z_1)=\beta_{1} Z_{t-1}+...+\beta_{\tau-1}Z_{t-\tau+1}\) y minimiza a \(E[X_\tau-f_{\tau-1}]^2\).
Entonces:
\[\phi_{11}=\rho(1)\] Por definición. Ahora veamos el caso de \(\phi_{22}\).
\[\phi_{22}= \rho(Z_{2}-f_{1},Z_0-f_{1}) \text{ donde } f_{1}=\beta Z_1\] \[\Rightarrow E[Z_2-Z_1]^2=E[Z_2^2-2Z_1Z_2+Z_1^2]=\gamma_0-2\beta\gamma_1+\beta^2\gamma_0^2\] Minimizando la función obtenemos que \(\beta=\frac{\gamma_1}{\gamma_0}=\phi_1=\rho_1\).Entonces
\[\phi_{22}=\rho(Z_2-\rho_1Z_1,Z_0-\rho_1Z_1)=\rho(\rho_2Z_0+a_t,Z_0-\rho_1Z_1)=\frac{\rho_2-{\rho_{1}}^2}{1-{\rho_{1}^2}}\] \[\therefore \phi_{\tau \tau}=\begin{cases} \rho_1 \text{ para } \tau=1 \\ \frac{\rho_2-{\rho_{1}}^2}{1-{\rho_{1}^2}} \text{ para } \tau=2\\ 0 \text{ para } \tau > 2 \end{cases}\] Y para este caso: \[\phi_{\tau \tau}=\begin{cases} \frac{3}{7} \text{ para } \tau=1 \\ \frac{2}{9} \text{ para } \tau=2\\ 0 \text{ para } \tau > 2 \quad \dagger \end{cases}\]
Suponga que el correlograma de una serie de tiempo con 100 observaciones tiene: \(\hat{\rho_1}=0.31,\hat{\rho_2}=0.37,\hat{\rho_3}=-0.05,\hat{\rho_4}=0.06,\hat{\rho_5}=-0.21,\hat{\rho_6}=0.11,\hat{\rho_7}=0.08,\hat{\rho_8}=0.05,\hat{\rho_9}=0.12,\hat{\rho_10}=-0.01\) ¿Qué modelo \(ARMA\) es apropiado?
\(Sol.\)
Primeramente para poder proponer un modelo de forma visual notamos que hacen falta las bandas de confianza para el autocorrelograma ACF. Por lo que con los datos podemos estimar el orden del modelo con \(2/\sqrt{n}\) donde \(n=100\). Así la banda de confianza o significancia se ubica en 0.2. Por lo que sólo hay dos observaciones significativas \(\hat{\rho_1},\hat{\rho_2}\). Y por tratarse de un autocorrelograma simple el modelo indicado es un \(MA(2)\dagger\).
plot(deere3, xlab="Tiempo", ylab="Xt", col="darkcyan")
Parece ser que la serie es estacionaria, ya que no hay tendencia y tampoco hay un comportamiento de estacionalidad, incluso en el intervalo de tiempo (20, 40) la media es constante
Al graficar las medias móviles es fácil ver el comportamiento de la media con el transcurso del tiempo.
medmov<-function(D, ord, cen){ #D must be a time serie
require(forecast)
trend<-ma(D, order = ord, centre = cen)
plot(D)
lines(trend, col="deepskyblue4")
}
medmov(D=deere3, ord=4, cen=TRUE)
Una forma visual para ver si la serie es estacionaria es el histograma, si la distribución parece la de una norma, entonces es factible pensar que la serie es estacionaria. Además el gráfico de cajas ayuda a ver el punto en donde se acumula la mitad de los datos.
hist(deere3)
boxplot(deere3)
En el histograma se ven los datos distribuidos como una distribución normal, además están centrados al 0; en el gráfico de cajas se observa que la mitad de los datos están distribuidos de manera simétrica alrededor del cero. Por lo tanto tenemos evidencia visual de que la serie es estacionaria. Por lo cual tiene sentido aplicar un modelo ARMA.
Para identificar los parámetros p y q hay que ver las gráficas de ACF y PACF. Los parámetros del modelo AR se pueden obtener al ver la gráfica de la PACF
stats::pacf(deere3)
En la gráfica están las autocorrelaciones parciales y una banda de confianza que dice señala si el lag es significativo. El primer lag rebasa las bandas de confianza, por lo que el modelo adecuado sería AR(1).
Ahora, para identificar el modelo MA hay que usar la gráfica de ACF.
stats::acf(deere3)
Los lags 1 y 2 son significativos, por lo tanto el modelo es MA(2).
Entonces una propuesta para modelo es el ARMA(1,2).
Se tiene una serie de tiempo de un proceso químico industrial. La variable medida es la propiedad de color de lotes consevutivos en el proceso, los cuales se han observado durante 35 días. Se necesita realizar un pronóstico de sicha variable sobre el día 36, 37 y 38. ¿Cuál es el pronóstico?
Primero hay que graficar la serie de tiempo y ver si es estacionaria para poderle ajustar un modelo.
plot(color)
A simple vista se ve que hay la manera en que cambia la serie se mantiene conforme pasa el tiempo. Viendo las medias móviles se ve que hay un patrón.
medmov(color, ord=4, cen=TRUE)
Parece que el comportamiento de la serie se mantiene, ahora hay que fijarse en el histograma y el gráfico de caja de la serie de tiempo.
hist(color)
boxplot(color)
Los datos están al rededor del 75 ligeramente sesgados hacia la izquierda, sin embargo el histograma de los datos sí se parece al de una distribución normal. Por lo tanto se puede ajustar un modelo ARMA y con éste predecir.
Primero los parámetros del AR
stats::pacf(color)
Solo el primer lag es significativo, por lo tanto es un AR(1).
Ahora los parámetros del MA.
stats::acf(color)
Hay dos lags significativos, por lo tanto es el modelo MA(2), así el modelo final es ARMA(1,2), con esto ya se puede predecir.
model<-stats::arima(color, order=c(1, 0, 2))
p<-predict(model, 3)
c<-c(p$pred[1], p$pred[2], p$pred[3])
color1<-append(color, c)
plot(as.ts(color1), ylab="Xt", xlab="Tiempo")
points(c(36:38), c, col="darkred")
Haciendo la preicción sobre los días 36, 37 y 38 se obtienen los siguientes valores: 70.53, 71.36 y 72.41. En estos tres puntos la propiedad del color aumenta, así que el pronóstico es que en los días siguientes haya un aumento en la propiedad del color.