Column

Series de tiempo

Una serie de tiempo es una secuencia de observaciones, medidas en determinados momentos del tiempo ordenados cronológicamente. El principal objetivo del análisis de una serie de tiempo \(X_{t}\) donde \(t=1,2,3,…,n\) es su análisis para hacer un pronóstico, en diversas áreas. Un ejemplo de serie de tiempo es el siguiente:

Procesos estacionarios

Un proceso estocástico se dice que es estacionario si su media y su varianza son constantes en el tiempo y si el valor de la covarianza entre dos periodos depende solamente de la distancia o rezago entre estos dos periodos de tiempo y no del tiempo en el cual se ha calculado la covarianza.

Supongamos que tenemos una serie con las propiedades de la derecha

En resumen si una serie de tiempo es estacionaria su media, su varianza y su auto covarianza (\(\gamma_k\)) son invariantes respecto al tiempo, no depende del tiempo en que estemos parados. Esto no quiere decir que al momento de calcularlas sea siempre exactamente el mismo valor, sino que simplemente al hacer el análisis no depende de \(t\).

Un ejeplo de una serie estacionaria

Implicaciones de estacionalidad

A muy grandes rasgos vamos a explicar lo que implica cada una de las propiedades y que es lo que nos permite decir que una serie es estacionaria o no.

Entonces sea \(X_t\) una serie de tiempo.

Esperanza

La primera propiedad que nos dice que en resumen que la esperanza es constante en el tiempo, no depende del tiempo en el que estamos parados. Esto se refleja gráficamente como que los datos no tienen ninguna tendencia, es decir van oscilando alrededor de un valor constante. Y esto se ve con que los datos aunque tengan mucha variación conservan sus valores dentro de una banda de dos líneas horizontales alrededor de la media, haciendo parecer que los datos viven dentro de una barra horizontal. Caso contrario cuando la serie no tiene esperanza constante los se aprecia una tendencia en las observaciones (a la alza o a la baja), y se aprecia como si las oscilaciones estuvieran sobre una recta con pendiente distinta de cero, los datos van creciendo o disminuyendo con respecto al tiempo. Va teniendo un suave movimiento a largo plazo.

Los siguientes dibujos aunque muy básicos son muy ilustrativos. En el primero tenemos la comparación de una serie estacionaria y una que no lo es porque no tiene esperanza constante:

Varianza

La segunda propiedad que nos dice en resumen que la varianza es constante en el tiempo, no depende del tiempo en el que estamos parados. Esto se refleja gráficamente como que las variaciones son similares a lo largo del tiempo. Si bien las variaciones puntuales pueden diferir mucho, a lo largo del tiempo se nota como las observaciones llegan o alcanzan los mismos máximos, los mismos mínimos, y similares valores intermedios cuando vamos avanzando en el tiempo. Cuando no se tiene varianza constante los datos alcanzan máximos y mínimos muy diferentes y ya incluso con algún patrón o tendencia, puede ser por ejemplo que las oscilaciones sean más grandes o cada vez más chicas.

Covarianza

Para el caso de la tercera propiedad de la autocovarianza, nos dice a grandes rasgos la relación de los datos entre sí. En otras palabras esto lo podemos ver como si los datos llevan algún patrón de manera periódica. Cuando se cumple esta propiedad se pueden identificar patrones de estacionalidad, que nos marcan una pauta para la predicción. Cuando no tenemos esto, los datos pareciera que no llevan ningún patrón que se repita a lo largo del tiempo, si no que va cambiando y/o depende del tiempo la estructura del comportamiento

Es oportuno mencionar que nuestro interes por las series estacionarlas, por estudiarlas e identificarlas, surge del hecho que a nosotros nos interesa hacer un pronostico, y toda la teoria es mas sencilla en las series estacionarias. hay mucha mas teoria desarrollada para las series estacionarias, por lo cual nos conviene identificar de manera opotuna cuando una serie lo es.

Column

Experanza

\(E(X_{t})=E(X_{t+k})=\mu\)

Varianza

\(V(X_{t})=V(X_{t+k})=\sigma^2\)

Covarianza

\(\gamma_k=E((X_{t}-\mu)(X_{t+k}-\mu))\)