Sea \(\{Z_t\}\) ruido independiente e idénticamente distribuido (IID) con distribución normal \(N(0, 1)\), y define la secuencia \(\{X_t\}\) de la siguiente manera:
\[ X_t = \begin{cases} Z_t, & \text{si } t \text{ es par}, \\ \frac{Z_{t-1}^2 - 1}{\sqrt{2}}, & \text{si } t \text{ es impar}. \end{cases} \]
Demostrar que \(\{X_t\}\) es un proceso de ruido blanco \(WN(0, 1)\) pero no un ruido iid \(N(0, 1)\).
Encontrar \(\mathbb{E}(X_{n+1} \mid X_1, \dots, X_n)\) para \(n\) impar y para \(n\) par, y comparar los resultados.
\(\mathbb{E}(X_t) = 0\),
\(\text{Var}(X_t) = 1\),
\(\mathbb{E}(X_t X_s) = 0\) para \(t \neq s\).
Es claro que cumple con esas propiedades puesto que \(X_{t}\) cumple con estas propiedades porque para cualquier \(X_{t}\) bien sea par o impar tiene una distribucion \(Z_{t}\sim WN (0,1)\). además no es iid \(N(0,1)\) puesto que por def de \(X_{t}\) depende de \(t\) si es par o impar, lo que introduce una depencia entre los términos impares y pares.
caso 1 si n es par, si es par, entonces \(X_{t}\) es impar, luego.
\[ X_{n+1} = \frac{Z_{n}^{2}-1}{\sqrt{2}} \] Luego sabemos que $ Z_{n}N(0,1)$, entonces \(E(Z_{n}^2)=1\) Esperanza usando propiedades de la Esperanza se tiene:
\[ E(X_{n+1})= E(\frac{Z_{n}^{2}-1}{\sqrt{2}}) =\frac{1}{\sqrt{2}}-\frac{1}{\sqrt{2}}=0\] Caso 2 si n es impar intonces \(X_{n+1}\) es par, luego \(X_{n+1} = Z_{n+1}\) así tenemos: \[E(X_{n+1}|X_{1},...,X_{n})=E(Z_{n+1}|X_{1},...,X_{n})\] Como \(Z{t}\) es una suma secuencia de variables iid \(N(0,1) ,Z_{n+1}\) es independiente e los valores anteriores de \(X_{1},..,X_{n}\) :
\[E(X_{n+1}|X_{1},...,X_{n})=E(Z_{n+1}|X_{1},...,X_{n})=0\]
Por tanto siendo n par o impar se tiene que \(E(X_{n+1}|X_{1},...,X_{n})=0\).
\(\{S_t\}\) es paseo aleatorio definido en el ejemplo 1.33 con \(\{X_t\}\) como en el ejemplo 1.4.1, entonces \(E(S_{t})=0\) \(E(S_{t}^{2})=t\sigma^2 < \infty \ \forall t \ y \ \forall h\ge 0\ ; \ \gamma_{s}(t+h,t)=cov(S_{t+h},S_{t})=t\sigma^2\).
\(S_{t}=x_1+x_2+...+x_t\) se define como la suma de variables aleatorias \(x_{i}\sim WN(0,\sigma^2)\) iid, donde cada \(x_{i}\) es vairbale aleatoria en el tiempo i y asumimos que todo los \(x_i\) son iid , \(E(x_i)=\mu\) y \(Var(x_i)=\sigma^2\).
Veamos \(E(S_t)=E(x_1+x_2+...+x_t) = t\mu =t(0) = 0\) ; por propiedad de esperanza y ruido blanco.
Luego \(Var(S_t)= Var[x_1+x_2+..+x_t]= Var[x_1]+Var[x_2]+...+Var[x_t]=t\sigma^2\); por ser iid. t-veces y es para todo \(t\ge0\).
Veamos ahora $ {s}(t+h,t)=cov(S{t+h},S_{t})=t^2$
\[S_{t+h}=x_1+x_2+...+x_t + x_{t+1}+x_{t+2}+...+x_{t+h}\]
\[S_{t+h}=S_t +(x_{t+1}+x_{t+2}+...+x_{t+h})\] \[Cov[S_{t+h},S_{t}]=Cov[S_t +(x_{t+1}+x_{t+2}+...+x_{t+h}),S_t]\]
pero la Covarienza es lineal es su primer termino
\[Cov[S_{t+h},S_{t}]= Cov[S_{t},S_{t}]+Cov[x_{t+1},S_{t}]+...+Cov[x_{t+h},S_{t}]\] Pero como cada \(x_i\) es iid se tiene:
\(Cov[x_{t+1},S_{t}]=0\), \(Cov[x_{t+2},S_{t}]=0\),…, \(Cov[x_{t+h},S_{t}]=0\)
Así queda que:
\[Cov[S_{t+h},S_{t}]= Cov[S_{t},S_{t}]= Var[S_t]=t\sigma^2\] t-veces
Se puede concluir que la Covarianza depende de un tiempo t, por tanto NO es estacionaria.
Modelo de promedios moviles de primer orden \(MA(1)\), considere la serie definida por la siguiente ecuación: \[X_t=Z_t+\theta* Z_{t-1}\] Donde \(Z_t \sim N(0,\sigma^2)\) y \(\theta\) es una constante perteneciente a los reales.Veamos que \(E[X_t]=0\) y $Var[X_t]=^2(1+) < $.
\(E[X_t]=E[Z_t+\theta* Z_{t-1}]=E[Z_t]+ \theta*E[Z_{t-1}]= 0+\theta*0=0\)
\(Var[X_t]=E[(X_t)^2]=E[(Z_t+\theta* Z_{t-1})^2]=E[Z_t^2]+2E[Z_t*Z_{t-1}]+E[Z_{t-1}^2]=\sigma^2+\theta^{2}*\sigma^2 =\sigma^2(1+\theta^2)\)
\(Cov[X_{t+h},X_t]= E[X_t*X_{t+h}]-E[X_t]E[X_{t+h}]\)
\(=E[(Z_{t} + \theta Z_{t-1})(Z_{t+h}+\theta Z_{t-1+h})] -E[(Z_{t} + \theta Z_{t-1})]E[(Z_{t+h}+\theta Z_{t-1+h})]\)
De aquí si h=0 se tiene:
\[Cov(X_t,X_{t+0})= Var(X_t)= \sigma^2(1+\theta^2) \]
si h=1 se tiene: \[Cov(X_t,X_{t+1})= E[(X_t)(X_{t+1})]-E[X_t]E[X_{t+1}] \] \[=E[(Z_t+\theta* Z_{t-1})(Z_{t+1}+\theta* Z_{t-1+1})]-E[Z_t+\theta* Z_{t-1}]E[Z_{t+1}+\theta* Z_{t-1+1}]\]
\[=E[Z_tZ_{t+1}+\theta Z_t^2 +\theta Z_{t-1}Z_{t+1} +\theta^2 Z_{t-1}Z_t]-0*0\] Por linealidad de la esperanza.
\(E[Z_tZ_{t+1}]=0\) por ser iid
\(E[\theta Z_{t-1}Z_{t+1}]= 0\) Por ser iid
\(E[\theta^2 Z_{t-1}Z_t]=0\) Por ser iid
\(E[\theta Z_t^2=\theta E[Z_t^2]= \theta E[Z_t^2] -0^2 = \theta E[Z_t^2]-\theta E[Z_t]^2= \theta \sigma^2\)
de aquí se concluye que:
\[ =E[Z_tZ_{t+1}+\theta Z_t^2 +\theta Z_{t-1}Z_{t+1} +\theta^2 Z_{t-1}Z_t]-0*0 = \theta \sigma^2 \]
si h= n con |n|> 1 se tiene: \[Cov(X_t,X_{t+n})= E[(X_t)(X_{t+n})]-E[X_t]E[X_{t+n}] \]
\[=E[(Z_t+\theta* Z_{t-1})(Z_{t+n}+\theta* Z_{t-1+n})]-E[Z_t+\theta* Z_{t-1}]E[Z_{t+n}+\theta* Z_{t-1+n}]\] Con un procedimiento analogo al anterior se tiene que: \[Cov(X_t,X_{t+n})=0\] De aqui la funcion de Autocorrelación denotada \(\rho_x(h)=\) esta definida por:
\[\rho_x(h)= 1\ si \ h=0\] \[=\frac{\theta}{(1+\theta^2)} \ si \ |h| =1\] \[=0 \ si \ |h| >1 \]
Veamos que \(\rho_x(h) = \frac{Cov(X_t,X_{t+h})}{Var(X_t)}\), entonces si h=0.
\[\rho_x(0) = \frac{Cov(X_t,X_{t+0})}{Var(X_t)} = \frac{Var(X_t)}{Var(X_t)}= 1\] Si |h|=1. \[\rho_x(1) = \frac{Cov(X_t,X_{t+1})}{Var(X_t)} =\frac{\theta \sigma^2}{\sigma^2(1+\theta^2)}=\frac{\theta}{(1+ \theta^2)}\] Si |h|>1. \[\rho_x(h) = \frac{Cov(X_t,X_{t+h})}{Var(X_t)}=\frac{0}{\sigma^2(1+\theta^2)}=0\]
Supongamos que \(\{X_t\}\) es una serie estacionaria que satisface las siguientes ecuaciones:
\[X_t = \phi X_{t-1} + Z_t\]
donde \(\{Z_t\} \sim WN(0, \sigma^2)\), \(t = 0, \pm 1, ...\), y \(Z_t\) no está correlacionado con \(X_s\) para cualquier \(s < t\). (Demostraremos en la Sección 2.2 que existe exactamente una solución de (1.4.3).) Tomando expectativas en ambos lados de (1.4.3) y usando el hecho de que \(EZ_t = 0\), vemos que:
\[EX_t = 0\] Veamos que eso si se cumple: \[E[X_t]=E[\phi X_{t-1}+Z_t]\] Luego por linealidad de la esperanza \[E[X_t]=E[\phi X_{t-1}+Z_t] = \phi E[X_{t-1}] + E[Z_t] = \phi E[X_{t-1}]+ 0\] de aquí que sea \(\mu\) la esperanza. \[\mu = \phi \mu \] y para que esta igualdad se cumpla \(\phi=1\) ó \(\mu =0\) pero com hipotesis se tenia que era un porceso estacionario y ademas \(|\phi|<1\), luego solo queda que \(\mu =0\), por lo tanto se tiene :
\[E[X_t]=0\]
Para encontrar la función de autocorrelación de \(\{X_t\}\), multiplicamos ambos lados de (1.4.3) por \(X_{t-h}\) (\(h > 0\)) y luego tomamos expectativas para obtener:
\[\gamma_X(h) = Cov(X_t, X_{t-h})\] \[= Cov(\phi X_{t-1}, X_{t-h}) + Cov(Z_t, X_{t-h})\] \[= \phi \gamma_X(h-1) + 0 = ... = \phi^h \gamma_X(0)\]
Desglosando un poco lo anterior:
\[X_t=\phi X_{t-1}+Z_t\] Multiplicando por \(X_{t-h}\) la Ecuacion.
\[(X_t) X_{t-h}=(\phi X_{t-1}+Z_t)X_{t-h}\] Hallando la esperanza y recordanodo que \(Z_t \ y \ X_t\) No estan correlacionadas.
\[E[X_t X_{t-h}]=E[(\phi X_{t-1}+Z_t)X_{t-h}] =E[\phi X_{t-1}X_{t-h}]+E[Z_tX_{t-h}]\] \[E[X_t X_{t-h}]-0= E[\phi X_{t-1}X_{t-h}]+E[Z_tX_{t-h}] \] \(E[Z_tX_{t-h}]=0\) por ser incorrelacionados \[E[X_t X_{t-h}]-E[X_t]E[X_{t-h}]= E[\phi X_{t-1}X_{t-h}]+0 \] \[Cov[X_t,X_{t-h}]=E[\phi X_{t-1}X_{t-h}] \] \[Cov[X_t,X_{t-h}]=\phi E[X_{t-1}X_{t-h}] - 0 \] \(0=E[X_{t-1}]=E[X_{t-1}]E[X_{t-h}]\)
\[Cov[X_t,X_{t-h}]=\phi E[X_{t-1}X_{t-h}] - E[X_{t-1}]E[X_{t-h}] \] \[Cov[X_t,X_{t-h}]= \gamma _x(h)=\phi Cov[X_{t-1},X_{t-h}]\] \[\gamma _x(h)= \phi \gamma _x(h-1)\] esto significa que la autocovarianza en el desfase h depende de la autocovarienza en el desfase h-1 multiplicado por \(\phi\), podemos aplicar la rlelacion recursiva varias veces. \[\gamma _x(h)= \phi \gamma _x(h-1)=\phi^2 \gamma _x(h-2)=...=\phi^h \gamma _x(h-h)=\phi^h \gamma _x(0)\] donde \(\gamma_x(0)\) es la varianza.
Observando que \(\gamma(h) = \gamma(-h)\) y usando la Definición 1.4.3, encontramos que:
\[\rho_X(h) = \frac{\gamma_X(h)}{\gamma_X(0)} = \phi^{|h|}\] \[h = 0, \pm 1, ...\]
Se deduce de la linealidad de la función de covarianza en cada uno de sus argumentos y del hecho de que \(Z_t\) no está correlacionado con \(X_{t-1}\) que:
\[\gamma_X(0) = Cov(X_t, X_t) = Cov(\phi X_{t-1} + Z_t, \phi X_{t-1} + Z_t) = \phi^2 \gamma_X(0) + \sigma^2\]
y por lo tanto: Verifiquemos la Varianza
\[\gamma_X(0)= Cov[X_t,X_{t-0}]=Var[X_t]=E[X_t^2]-E^2[X_t]\] \[\gamma_X(0)=E[(\phi X_{t-1}+Z_t)^2]=E[\phi^2X_{t-1}^2+2\phi X_{t-1}Z_t + Z_t^2]-0^2\] \[\gamma_X(0)=E[\phi^2X_{t-1}^2]+E[2\phi X_{t-1}Z_t]+ (E[Z_t^2] -0)\] \(0=E[Z_t]\) y \(0=E[2\phi X_{t-1}Z_t]\) por no estar correlacionadas.
\[\gamma_X(0)=\phi^2 E[X_{t-1}^2]+ \sigma^2\] \[\gamma_X(0)- \phi^2 E[X_{t-1}^2]-0= \sigma^2\] \(0=\phi^2E^2[X_{t-1}]\) \[\gamma_X(0)- \phi^2 E[X_{t-1}^2]-\phi^2 E^2[X_{t-1}]= \sigma^2\] \[\gamma_X(0)-\phi^2 \gamma_X(0)= \sigma^2\] \[\gamma_X(0)(1-\phi^2)=\sigma^2\]
\[\gamma_X(0) = \frac{\sigma^2}{1 - \phi^2}\]
Determine cuales d elos siguientes procesos es causal ó invertible:
#Sacando los coheficientes
a=-0.48
b=0.2
c=1
Raiz1= (-b+ sqrt((b)^(2)-4*a*c))/ (2*a)
Raiz2= (-b- sqrt((b)^(2)-4*a*c))/ (2*a)
print(Raiz1)
## [1] -1.25
print(Raiz2)
## [1] 1.666667
Vemos que todas las raices salen del circulo unitario se puede concluir que es causal y por ende estacioanrio.
#para la parte del modelo AR
a=0.88
b=1.9
c=1
Raiz1= (-b+ sqrt((b)^(2)-4*a*c))/ (2*a)
Raiz2= (-b- sqrt((b)^(2)-4*a*c))/ (2*a)
# Para la parte del modelo MA
a1=0.7
b1=0.2
c1=1
discriminante <- (b1)^2 - 4 * a1 * c1
# la funcion as.complex es para ver la solucion en los complejos
Raiz3= (-b1+ sqrt(as.complex(discriminante)))/ (2*a1)
Raiz4= (-b1- sqrt(as.complex(discriminante)))/ (2*a1)
print(c(Raiz1,Raiz2,Mod(Raiz3),Mod(Raiz4))) # aplicamos la funcion Mod para calcular la norma del complejo
## [1] -0.9090909 -1.2500000 1.1952286 1.1952286
Como se puede ver el modelo ARMA(2,2) No es Causal pero sí invertible, luego no es estacionario.
#para la parte del modelo AR
a=0.6
b=0
c=1
discriminante1 <- (b)^2 - 4 * a * c
# la funcion as.complex es para ver la solucion en los complejos
Raiz1= (-b+ sqrt(as.complex(discriminante1)))/ (2*a)
Raiz2= (-b- sqrt(as.complex(discriminante1)))/ (2*a)
# Para la parte del modelo MA
a1=0
b1=1.2
c1=1
Raiz3 <-solve(b1,c1)
print(Mod(c(Raiz1,Raiz2,Raiz3)))
## [1] 1.2909944 1.2909944 0.8333333
Luego vemos que es causal pero no invertible por ende si es estacionario.
#Calculando los coeficientes del modelo AR
a=0.81
b=1.6
c=1
discriminante1 <- (b)^2 - 4 * a * c
Raiz1= (-b+ sqrt(as.complex(discriminante1)))/ (2*a)
Raiz2= (-b- sqrt(as.complex(discriminante1)))/ (2*a)
print(Mod(c(Raiz1,Raiz2)))
## [1] 1.111111 1.111111
Es Causal y por ende estacionario.
# Sacando los coeficientes para el modelo AR
a=1.6
b=1
Raiz1 = solve(a,b)
# Para la parte del modelo MA
a1=0.04
b1=-0.4
c1=1
discriminante <- (b1)^2 - 4 * a1 * c1
Raiz2= (-b1+ sqrt(as.complex(discriminante)))/ (2*a1)
Raiz3= (-b1- sqrt(as.complex(discriminante)))/ (2*a1)
print(Mod(c(Raiz1,Raiz2,Raiz3)))
## [1] 0.625 5.000 5.000
Luego vemos que el modelo ARMA no es causa pero sí invertible luego no es estacionario.