Tenemos que \(X_t\) y \(Y_t\) son estacionarios y no correlacionados
Entonces:
\(E[X_t]=a\) \(E[Y_t]=b\) \(Var(X_t)=c\) \(Var(Y_t)=d\) \(Cov(X_t, Y_t)=0\)
donde:
\(\{a,b,c,d\} \subset \mathbb{R} \hspace{0.5cm} \forall t\)
P.D \(E[Xt+Y_t], Var[X_t + Y_t]\) son constantes
\(E[X_t+ Y_t]= E[X_t]+ E[Y_t]= a + b\)
\(Var(X_t + Y_t)= Var(X_t)+ Var(Y_t)+ 2Cov(X_t, Y_t)= Var(X_t)+ Var(Y_t) + 2* 0 =c+d\)
Pro lo tanto \(X_t\) y \(Y_t\) son estacionarios
P.D. \(Cov(X_t+Y_t, X_{t+k}+Y_{t+k})=Cov(X_t, X_{t+k})+ Cov(Y_t,Y_{t+k})\)
\(Cov(X_t+Y_t, X_{t+k}+Y_{t+k})=Cov(X_t, X_{t+k})+Cov(Y_t, X_{t+k})+Cov(Y_t, Y_{t+k})+Cov(X_t, Y_{t+k})=Cov(X_t, X_{t+k})+ Cov(Y_t,Y_{t+k})\)
pues \(X_t\) y \(Y_t\) son no correlacionados y son vaiid
Sabemos que \(a_t\) es vaiid, entonces se tiene que:
\[ Cov(a_i,a_j)=\left \{ \begin{matrix} \sigma^{2} & \mbox{si } i=j \\ 0 & \mbox{si } i\neq j \end{matrix}\right. \]
Para la media tenemos que:
\[ E(Z_t)=E(a_t + \theta a_{t-1})=E(a_t)+\theta E(a_{t-1})=0 \]
Para la varianza tenemos que:
\[ Var(Z_t)=E(Z_t-E(Z_t))^{2}=E(a_t+\theta a_{t-1})^{2}=E(a_t)^{2} +\theta^{2}E(a_{t-1})^{2}-2 \theta E(a_t a_{t-1})=\sigma^{2}+\theta^{2}\sigma^{2}-0=(1+\theta^{2})\sigma^{2} \]
Ahora tenemos para \(\gamma_k\)
\[ \gamma_k=E[(Z_t-E[Z_t])(Z_{t-k}-E[Z_{t-k}])] \]
Entonces para k=o tenemos que
\[ \gamma_0=Var(Z_t)=(1+\theta^{2})Var(a_t)=(1+\theta^{2})\sigma^{2} \]
Para k=1 tenemos que
\[ \gamma_1=Cov(Z_t,Z_{t-1})=E[(Z_t-E(Z_t))(Z_{t-1}-E(Z_{t-1}))]=E((a_t+\theta a_{t-1})(a_{t-1}+\theta a_{t-2}))) \] \[ =E(a_t a_{t-1})+\theta E(a_{t-1} a_{t-1})+\theta E(a_t a_{t-1})+\theta^{2} E(a_{t-1} a_{t-2})=\theta E(a_{t-1} a_{t-1})=\theta \sigma^{2} \] Para k=2 tenemos que
\[ \gamma_2=E[(Z_t-E[Z_t])(Z_{t-2}-E[Z_{t-2}])]=E[Z_t Z_{t-2}]=0 \]
Entonces la función de autocovarianzas de \(Z_t\) es:
\[ \gamma_k=\left \{ \begin{matrix} (1+\theta^{2})\sigma^{2} & \mbox{si } k=0 \\ \theta \sigma^{2} & \mbox{si } k=1 \\ 0 & \mbox{si } k>1 \end{matrix}\right. \] Y la correspondiente función de autocorrelación es:
\[ \rho_k=\frac{\gamma_k}{\gamma_0}=\left \{ \begin{matrix} 1 & \mbox{si } k=0 \\ \frac{\theta}{1+\theta^{2}} & \mbox{si } k=1 \\ 0 & \mbox{si } k>1 \end{matrix}\right. \] b)
Haciendo el mismo procedimiento de (a) se tiene que:
\[ Var(X_t)=E(Z_t-E(Z_t))^{2}=E(a_t+\frac{1}{\theta} a_{t-1})^{2}=E(a_t)^{2} +\frac{1}{\theta^{2}}E(a_{t-1})^{2}-2 \frac{1}{\theta} E(a_t a_{t-1})=\sigma^{2}+\frac{1}{\theta^{2}}\sigma^{2}-0 \] \[ =(1+\frac{1}{\theta^{2}})\sigma^{2} \]
Ahora \[ \gamma_0=(1+\frac{1}{\theta^{2}})\sigma^{2} \] \[ \gamma_1=\frac{1}{\theta}\sigma^{2} \]
\[ \gamma_2=0 \] Entonces la función de autocovarianzas de \(X_t\) es: \[ \gamma_k=\left \{ \begin{matrix} (1+\frac{1}{\theta^{2}})\sigma^{2} & \mbox{si } k=0 \\ \frac{1}{\theta}\sigma^{2} & \mbox{si } k=1 \\ 0 & \mbox{si } k>1 \end{matrix}\right. \] Y la correspondiente función de autocorrelación es: \[ \rho_k=\frac{\gamma_k}{\gamma_0}=\left \{ \begin{matrix} 1 & \mbox{si } k=0 \\ \frac{\theta}{1+\theta^{2}} & \mbox{si } k=1 \\ 0 & \mbox{si } k>1 \end{matrix}\right. \] Donde \(\frac{\gamma_1}{\gamma_0}\) es: \[ \frac{\frac{1}{\theta}}{1+\frac{1}{\theta^{2}}}=\frac{\frac{1}{\theta}}{\frac{\theta^{2}+1}{\theta^{2}}}=\frac{1}{\frac{\theta^{2}+1}{\theta}}=\frac{\theta}{\theta^{2}+1}=\frac{\theta}{1+\theta^{2}} \] \(\therefore Z_t\) y \(X_t\) tienen la misma función de autocorrelación.
Veamos que el proceso \((1-B)(1-0.2B)Z_t=(1-0.5B)a_t\) es lo mismo que escribirlo de la forma\((1-1.2B+0.2B^2)Z_t=(1-0.5B)a_t\) por lo que se trata de un ARMA(2,1)
Veamos que
\(\theta(B)=(1-1.2B+ 0.2B^2)=0\)
\(B=\frac{1.2\pm \sqrt{1.2^2-4(0.2)}}{2(0.2)}\)
\(B_1=5>1\) cae fuera del circulo unitario
\(B_2=1\) cae dentro del circulo unitario
por lo tanto No es invertible
Veamos ahora
\(\phi(B)=(1-0.5B)a_t=0\)
\(B=1/0.5=2>1\) por lo que cae fuera del circulo unitario por lo tanto el proceso es estacionario
Vemos que no hay decrementos exponenciales por lo que \(p=0\) Por lo que un ARMA(0,2) se ajustaria a dichas observaciones pues
\(\rho_k=0\) para todo \(k>2\) \(\rho_k\not=0\) para \(k<=2\)
Veamos que la tendencia de los precios empieza a cambia en los ultimos 100 días
Veamos que hay mucha volatilidad
No se logra ver un patrón de estacionalidad con facilidad ya que crecen y decrecen entre 50 a 100 dias
Vemos que al disminuir la escala y obtener una diferenciacion sobre los logaritmos se observa un comportamiento aleatorio
Al parecer el comportamiento de los ultimos 100 es recomendable: Encontra el punto de quiebre, es decir enconcontrar el punto donde se cambia la tendencia y ajustar un modelo por aparte ya que si agarramos la informacion completa es muy seguro que el pronostico para los siguientes días no es el adecuado
Vemos que los decrementos en los ACF podrian indicar que se trata de un modelo AR, es decir el valor t depende de valores anteriores, si se diera que depende del tiempo anterior, y debido a que vemos que los ultimos dias se comportanta distinto que valores anteriores a esos 100 dias, podemos intuir que depende de un valor anterior y esto si seria una caminata aleatoria.
a) Ajuste Modelo AR(1)
Usando Metodos Numericos y la funcion arima vemos que el parametro
## ar1 intercept
## 0.307574831 0.001452947
por lo que el modelo es el siguiente
\(X_t=0.3076X_{t-1}+Z_t\)
## 2.5 % 97.5 %
## 0.2041031 0.4110465
## ar1 ma1 intercept
## 0.947326221 -0.806241005 0.001477419
El modelo ajustado es:
\(X_t=0.9473X_{t-1} + Z_t + 0.8062Z_{t-1}\)
Por lo tanto el ARMA(1,1) es un mejor modelo para modelar los datos de “robot”
Tenemos que \(x_3=a_1x_2+a_2x_1\)
Saquemos la matriz de Covarianzas:
\[ \begin{pmatrix} \gamma_0 & \gamma_1 \\ \gamma_1 & \gamma_0 \\ \end{pmatrix} \begin{pmatrix} a_1 \\ a_2 \\ \end{pmatrix} = \begin{pmatrix} \gamma_1 \\ \gamma_2 \\ \end{pmatrix} \] Sustituyendo valores y recordando que estamos trabajando con un modelo MA(1)
\[ \begin{pmatrix} (1+ \theta^2) \sigma^2 & \theta \sigma^2 \\ \theta \sigma^2 & (1+ \theta^2) \sigma^2 \\ \end{pmatrix} \begin{pmatrix} a_1 \\ a_2 \\ \end{pmatrix} = \begin{pmatrix} \theta \sigma^2 \\ 0 \\ \end{pmatrix} \]
Por que nos quedan las siguientes ecuaciones:
\((1+ \theta^2) \sigma^2 a_1 + \theta \sigma^2 a_2= \theta \sigma^2\)
\(\theta \sigma^2 a_1 + (1+ \theta^2) \sigma^2 a_2= 0\)
Resolviendo el sistema de ecuaciones nos queda: \[ a_1= - (\frac{1+ \theta^2}{\theta})a_2 \] y \[ a_2= \frac{\theta^2}{\theta^2-(1+\theta^2)^2} \]
Por lo que: \[ a_1= - (\frac{\theta(1+ \theta^2)}{\theta^2-(1+\theta^2)^2}) \]
\[ \therefore x_3= - (\frac{\theta(1+ \theta^2)}{\theta^2-(1+\theta^2)^2}) x_2+ \frac{\theta^2}{\theta^2-(1+\theta^2)^2} x_1 \]
Tenemos que \(x_3=a_1x_5+a_2x_4\)
Saquemos la matriz de Covarianzas:
\[ \begin{pmatrix} \gamma_0 & \gamma_1 \\ \gamma_1 & \gamma_0 \\ \end{pmatrix} \begin{pmatrix} a_1 \\ a_2 \\ \end{pmatrix} = \begin{pmatrix} \gamma_2 \\ \gamma_1 \\ \end{pmatrix} \] Sustituyendo valores y recordando que estamos trabajando con un modelo MA(1)
\[ \begin{pmatrix} (1+ \theta^2) \sigma^2 & \theta \sigma^2 \\ \theta \sigma^2 & (1+ \theta^2) \sigma^2 \\ \end{pmatrix} \begin{pmatrix} a_1 \\ a_2 \\ \end{pmatrix} = \begin{pmatrix} 0 \\ \theta \sigma^2 \\ \end{pmatrix} \]
Por que nos quedan las siguientes ecuaciones:
\((1+ \theta^2) \sigma^2 a_1 + \theta \sigma^2 a_2= 0\)
\(\theta \sigma^2 a_1 + (1+ \theta^2) \sigma^2 a_2= \theta \sigma^2\)
Resolviendo el sistema de ecuaciones nos queda:
\[ a_1= - (\frac{\theta a_2}{1+ \theta^2}) \] y \[ a_2= \frac{\theta (1+ \theta ^2)}{\theta^2+(1+\theta^2)^2} \]
Por lo que: \(a_1= - (\frac{ \theta^2}{\theta^2+(1+\theta^2)^2})\)
\(\therefore x_3= - (\frac{ \theta^2}{\theta^2+(1+\theta^2)^2}) x_5+ \frac{\theta (1+ \theta ^2)}{\theta^2+(1+\theta^2)^2} x_1\)
Tenemos que \(x_3=a_1x_5+a_2x_4+a_3x_2+a_4x_1\)
Saquemos la matriz de Covarianzas:
\[ \begin{pmatrix} \gamma_0 & \gamma_1 & \gamma_3 & \gamma_4 \\ \gamma_1 & \gamma_0 & \gamma_2 & \gamma_3 \\ \gamma_3 & \gamma_2 & \gamma_0 & \gamma_1 \\ \gamma_4 & \gamma_3 & \gamma_1 & \gamma_0 \\ \end{pmatrix} \begin{pmatrix} a_1 \\ a_2 \\ a_3 \\ a_4 \\ \end{pmatrix} = \begin{pmatrix} \gamma_2 \\ \gamma_1 \\ \gamma_1 \\ \gamma_2 \\ \end{pmatrix} \]
\((1+ \theta^2) \sigma^2 a_1 + \theta \sigma^2 a_2= 0\)
\(\theta \sigma^2 a_1 + (1+ \theta^2) \sigma^2 a_2= \theta \sigma^2\)
\((1+ \theta^2) \sigma^2 a_3 + \theta \sigma^2 a_4= \theta \sigma^2\)
\(\theta \sigma^2 a_3 + (1+ \theta^2) \sigma^2 a_4= 0\)
Por lo que nos quedan los siguientes resultados:
\[ a_1= - (\frac{ \theta^2}{\theta^2+(1+\theta^2)^2}) \]
\[ a_2= \frac{\theta (1+ \theta ^2)}{\theta^2+(1+\theta^2)^2} \]
\[ a_3= - (\frac{\theta(1+ \theta^2)}{\theta^2-(1+\theta^2)^2}) \]
\[ a_4= \frac{\theta^2}{\theta^2-(1+\theta^2)^2} \]
\[ \therefore x_3= - (\frac{ \theta^2}{\theta^2+(1+\theta^2)^2})x_5+\frac{\theta (1+ \theta ^2)}{\theta^2+(1+\theta^2)^2}x_4+- (\frac{\theta(1+ \theta^2)}{\theta^2-(1+\theta^2)^2})x_2+\frac{\theta^2}{\theta^2-(1+\theta^2)^2}x_1 \]
Veamos que los datos no tienen un comprotamiento de estacionaridad
Al ajustar un modelo vemos que es un ARIMA(1,0,0)
## Series: color
## ARIMA(1,0,0) with non-zero mean
##
## Coefficients:
## ar1 mean
## 0.5705 74.3293
## s.e. 0.1435 1.9151
##
## sigma^2 estimated as 26.34: log likelihood=-106.07
## AIC=218.15 AICc=218.92 BIC=222.81
Es decir es una ARIMA rescalado con la media, solo estimamos el comportamiento de la tendencia
Estmacion
Los valores estimados con intervalos de confianza son:
Graficamente vemos estos puntos con los valores anteriores:
a)Debido a que las acciones dependen de la volatilidad del mercado y si solo se pudiera elegir entre un AR y un MA es mejor considerar la volatilidad de los periodos anterioreses decir un MA, aunque considero que deberia hacer con ambos para observar el precio de los periodos anteriores y deberiamos considerar un ARMA
b)Los mercados diarios son dificil de modelar ya que dependen del tiempo en el año, es decir deberiamos considerar el mes, pero si se quiesiera hacer un pronostico para algunos días posteriores deberia haber al menos 30 o 60 observaciones
c)No es bueno estimar periodos tan largos ya que que el error en la estimacion crece bastante y poco a poco el pronóstico te ira estimando “promedios” lo cual no seria una buena estimación