Para hacer inferencias estadísticas en la estructura de un proceso estocástico (o serie de tiempo) sobre el histórico observado del proceso, normalmente se deben hacer algunas suposiciones simplificadoras (y presumiblemente razonables) sobre esa estructura. El supuesto más importante es el de estacionariedad.

Dicho concepto tendrá dos versiones:

Estacionariedad Fuerte y Débil.

Una serie de tiempo se puede ver como un proceso estocástico, se dice que es estacionario si su media y varianza son constantes en el tiempo y si el valor de la covarianza entre 2 periodos depende sólo de la distancia o rezago entre los tiempos.

Sea \(Y_t\) una serie de tiempo con las siguientes propiedades se dice que es debilmente estacionaria o simplemente estacionaria:

La condición adicional para que una serie de tiempo sea fuertemente estacionaria es que la distribución conjunta de \(Y_{t_1},Y_{t_2}, \cdots, Y_{t_n}\) es la misma que la distribución conjunta de \(Y_{t_1-k}, Y_{t_2-k}, \cdots, Y_{t_n-k}\) para todas las opciones de puntos de tiempo \(t_1, t_2, \cdots, t_n\) y todas las opciones de rezago temporal \(k\). es decir, la distribución sólo depende de la diferencia de tiempo \(h\) y no del tiempo \((t_1,...,t_k)\)

En la práctica, buscamos que los datos sean estacionarios para poder proseguir con el tratamiento estadístico de los mismos.

La estacionariedad es un concepto fundamental para el análisis de las series de tiempo.

Librerias

library(foreign)
library(ggfortify)
library(forecast)
library(gridExtra)
library(seasonal)
library(lattice)
library(zoo)
library(urca)
library(dynlm)
library(TSstudio)

Asi se ve la no estacionariedad

“No estacionariedad”

Estacionariedad vs no estacionariedad

RUIDO BLANCO

El objetivo de las Series Temporales es descomponer la serie observada en dos partes: una es la parte dependiente del pasado y la otra la parte impredecible

\[Y_t=f(Y_{(t-1)}, Y_{(t-2)},....,Y_1)+ a_t \]

Un Ruido Blanco es una serie tal que su media es cero, la varianza es constante y es incorrelacionada.

Se trata de un proceso en el que todas sus variables son independientes.

Así se ve un Ruido Blanco

Generamos los datos

ruido_blanco=rnorm(1000,0,1)

Graficamos la serie de tiempo

ts_plot(ts(ruido_blanco),title = "Ruido Blanco", Xtitle = "Tiempo", Ytitle = "Valore",color = "red")

Otra forma de simular ruido blanco

set.seed(123)
ruido_blanco1 = arima.sim(n = 1000,
                         list(order = c(0,0,0)))
ts_plot(ruido_blanco1)

MODELOS

Uno de los modelos de tipo ARIMA más simples es un modelo en el que utilizamos un modelo lineal para predecir el valor en el momento actual utilizando el valor en el momento anterior. Esto se llama un modelo AR (1) , que significa modelo autorregresivo de orden 1 .

Modelo AR(\(1\))

teóricamente, el modelo AR (\(1\)) está escrito

\[x_t = \delta + \phi_1 x_{t-1} + w_t\]

AR(2)

\[x_t = \delta + \phi_1 x_{t-1}+ \phi_2 x_{t-2} + w_t\]

AR(\(p\))

\[x_t = \delta + \phi_1 x_{t-1}+ \phi_2 x_{t-2}+ \cdots\phi_{p}x_{t-p} + w_t\]

Función de autocorrelación (ACF)

El ACF de la serie da correlaciones entre \(x_t\) y \(x_{t-h}\) para \(h= 1, 2, 3\), etc.

Teóricamente, la autocorrelación entre \(x_t\) y \(x_{t-h}\) es igual

\[\dfrac{\text{Covariance}(x_t, x_{t-h})}{\text{Std.Dev.}(x_t)\text{Std.Dev.}(x_{t-h})} = \dfrac{\text{Covariance}(x_t, x_{t-h})}{\text{Variance}(x_t)}\]

AirPassengers
##      Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec
## 1949 112 118 132 129 121 135 148 148 136 119 104 118
## 1950 115 126 141 135 125 149 170 170 158 133 114 140
## 1951 145 150 178 163 172 178 199 199 184 162 146 166
## 1952 171 180 193 181 183 218 230 242 209 191 172 194
## 1953 196 196 236 235 229 243 264 272 237 211 180 201
## 1954 204 188 235 227 234 264 302 293 259 229 203 229
## 1955 242 233 267 269 270 315 364 347 312 274 237 278
## 1956 284 277 317 313 318 374 413 405 355 306 271 306
## 1957 315 301 356 348 355 422 465 467 404 347 305 336
## 1958 340 318 362 348 363 435 491 505 404 359 310 337
## 1959 360 342 406 396 420 472 548 559 463 407 362 405
## 1960 417 391 419 461 472 535 622 606 508 461 390 432
acf(AirPassengers)

ts_cor(ruido_blanco1)

Función de autocorrelación parcial PACF

En general, una correlación parcial es una correlación condicional. Es la correlación entre dos variables bajo el supuesto de que conocemos y tenemos en cuenta los valores de algún otro conjunto de variables.

Más formalmente, podemos definir la correlación parcial que se acaba de describir como

Para una serie temporal, la autocorrelación parcial entre \(x_t\) y \(x_{t-h}\) se define como la correlación condicional entre \(x_t\) y \(x_{t-h}\) condicionado a \(x_{t-h+1}\) , …,\(x_{t-1}\) , el conjunto de observaciones que se encuentran entre los puntos de tiempo \(t\) y \(t-h\)

\[\dfrac{\text{Covariance}(x_t, x_{t-2}| x_{t-1})}{\sqrt{\text{Variance}(x_t|x_{t-1})\text{Variance}(x_{t-2}|x_{t-1})}}\]

Propiedades de la AR (1)

Esto define el ACF teórico para una variable d

¡Nota! \(\phi_1\) es la pendiente en el modelo AR (\(1\)) y ahora vemos que también es la autocorrelación de retraso 1

Simular modelo autoregresivo AR(\(1\)) con \(\phi\) = 0.5

\[y_t = 0.5 * y_{t-1} + w_t\]

set.seed(123)
ar1 = arima.sim(n = 1000, list(ar = 0.5))
par(mfrow = c(1,3))
plot(ar1)
acf(ar1)
pacf(ar1)

ggtsdisplay(ar1)

library(TSstudio)
ts_cor(ar1)

simular un AR(\(1\)) serie autoregresiva con \(\phi\) = -0.9

El modelo es: \[y_t = -0.9 * y_{t-1} + w_t\]

set.seed(123)
ar2 = arima.sim(n = 1000, list(ar = -0.9))
ggtsdisplay(ar2)

ts_cor(ar2)

Otra simulación con \(\phi=-0.4\)

set.seed(123)
ar3 = arima.sim(n = 1000, list(ar = -0.4))
ggtsdisplay(ar3)

ts_cor(ar3)

Otra simulación con \(\phi=0.1\)

set.seed(123)
ar4 = arima.sim(n = 1000, list(ar = 0.6))
ggtsdisplay(ar4)

ts_cor(ar4)

Simulaciones de un de un AR(2)

set.seed(123)
ar5 = arima.sim(n = 1000, list(ar = c(0.1,0.5)))
ggtsdisplay(ar5)

ts_cor(ar5)

set.seed(123)
ar6 = arima.sim(n = 1000, list(ar =c(-0.7, 0.2)))
ggtsdisplay(ar6)

Modelos de media móvil (MA)

MA(\(1\))

\[x_t = \mu + w_t -\theta_1w_{t-1}\]

\(w_t \overset{iid}{\sim} N(0, \sigma^2_w)\)

MA(2)

\[x_t = \mu + w_t +\theta_1w_{t-1}+\theta_2w_{t-2}\]

\(w_t \overset{iid}{\sim} N(0, \sigma^2_w)\)

MA(q)

\[x_t = \mu + w_t +\theta_1w_{t-1}+\theta_2w_{t-2}+\dots + \theta_qw_{t-q}\]

¡Nota! Muchos libros de texto y programas de software definen el modelo con signos negativos antes de \(\theta\). Esto no cambia las propiedades teóricas generales del modelo, aunque sí cambia los signos algebraicos de los valores de coeficientes estimados y (no cuadrado)términos en fórmulas para ACF y variaciones.

Propiedades teóricas de una serie temporal con un modelo MA (\(1\))

Nota! Que el único valor distinto de cero en el ACF teórico es para el retraso 1 . Todas las demás autocorrelaciones son 0. Por lo tanto, una muestra de ACF con una autocorrelación significativa solo en el retraso 1 es un indicador de un posible modelo de MA (\(1\)).}

Simulaciones \(1\)

MA(\(1\)) con \(\theta=0.7\)

set.seed(123)
ma1 = arima.sim(n = 1000, list(ma =0.7))
ggtsdisplay(ma1)

set.seed(123)
ma2 = arima.sim(n = 1000, list(ma =-0.9))
ggtsdisplay(ma2)

MA(2)

set.seed(123)
ma3 = arima.sim(n = 1000, list(ma =c(-0.9,0.5)))
ggtsdisplay(ma3)

Modelos de media móvil autorregresiva (ARMA)

Al combinar los dos modelos MA y AR, obtenemos lo que se llama un modelo de promedio móvil autoregresivo (ARMA).

El caso más simple, es el proceso ARMA (\(1\),\(1\)) como

\[\begin{equation} y_{t}=\phi y_{t-1}+\varepsilon_{t}+\theta \varepsilon_{t-1} \tag{3.1} \end{equation}\]

En la discusión relacionada con los procesos de promedio móvil, notamos que el ACF daría una indicación del orden del proceso, mientras que el PACF disminuiría lentamente. En contraste, cuando discutimos los modelos autoregresivos, notamos que el PACF daría una indicación del orden del proceso, mientras que el ACF disminuiría lentamente.

Cuando consideramos el proceso ARMA combinado, generalmente notamos que ambas funciones deberían decaer ligeramente y, como tal, puede ser difícil descifrar el orden del modelo ARMA combinado.

Un ejemplo de las funciones ACF y PACF para un modelo ARMA (\(1\),\(1\)). A pesar del hecho de que sabemos que estamos tratando con un modelo ARMA (1,1), las autocorrelaciones en ACF y PACF parecen diferir de cero en

Algunas librerias

library(foreign)
library(ggfortify)
library(forecast)
library(gridExtra)
library(seasonal)
library(lattice)
library(zoo)
library(urca)
library(dynlm)

Simulación ARMA(\(1,1\))

set.seed(123)
arma1 = arima.sim(n = 1000, list(ar = 0.5,ma=0.7))
ggtsdisplay(arma1)

set.seed(123)
arma1 = arima.sim(n = 500, list(ar = 0.5,ma=0.5))
ggtsdisplay(arma1)

Los modelos ARMA (incluidos los términos AR y MA) tienen ACF y PACF que ambos se reducen a 0. Estos son los más complicados porque el orden no será particularmente obvio. Básicamente, solo tiene que adivinar que uno o dos términos de cada tipo pueden ser necesarios y luego ver qué sucede cuando estima el modelo.

ARMA(p,q)

\[\begin{equation} y_{t}=\phi_1 y_{t-1}+ \phi_2 y_{t-2}+ \cdots\phi_p y_{t-p} + \varepsilon_{t}+\theta_1 \varepsilon_{t-1}+ \theta_2 \varepsilon_{t-2}+ \cdots+ \theta_q \varepsilon_{t-q} \end{equation}\]

Diferenciación

A menudo, la diferenciación se usa para dar cuenta de la no estacionariedad que ocurre en forma de tendencia y / o estacionalidad.

La diferencia \(x_t-x_{t-1}\) puede expresarse como \((1-B)x_{t}\).

Una notación alternativa para una diferencia es

\[(\boldsymbol{1-B})=\triangle\]

Así \[\triangle x_t = \boldsymbol{(1-B)}x_t = x_t-x_{t-1}\]

Un superindice define una diferencia de retraso igual al subíndice. Por ejemplo,

\[\triangle^{12} x_t = (\boldsymbol{1-B}^{12})x_t = x_t-x_{t-12}\]

Este tipo de diferencia a menudo se usa con datos mensuales que exhiben estacionalidad

data("AirPassengers")
autoplot(AirPassengers)

AirPassengers
##      Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec
## 1949 112 118 132 129 121 135 148 148 136 119 104 118
## 1950 115 126 141 135 125 149 170 170 158 133 114 140
## 1951 145 150 178 163 172 178 199 199 184 162 146 166
## 1952 171 180 193 181 183 218 230 242 209 191 172 194
## 1953 196 196 236 235 229 243 264 272 237 211 180 201
## 1954 204 188 235 227 234 264 302 293 259 229 203 229
## 1955 242 233 267 269 270 315 364 347 312 274 237 278
## 1956 284 277 317 313 318 374 413 405 355 306 271 306
## 1957 315 301 356 348 355 422 465 467 404 347 305 336
## 1958 340 318 362 348 363 435 491 505 404 359 310 337
## 1959 360 342 406 396 420 472 548 559 463 407 362 405
## 1960 417 391 419 461 472 535 622 606 508 461 390 432
diff(AirPassengers)
##       Jan  Feb  Mar  Apr  May  Jun  Jul  Aug  Sep  Oct  Nov  Dec
## 1949         6   14   -3   -8   14   13    0  -12  -17  -15   14
## 1950   -3   11   15   -6  -10   24   21    0  -12  -25  -19   26
## 1951    5    5   28  -15    9    6   21    0  -15  -22  -16   20
## 1952    5    9   13  -12    2   35   12   12  -33  -18  -19   22
## 1953    2    0   40   -1   -6   14   21    8  -35  -26  -31   21
## 1954    3  -16   47   -8    7   30   38   -9  -34  -30  -26   26
## 1955   13   -9   34    2    1   45   49  -17  -35  -38  -37   41
## 1956    6   -7   40   -4    5   56   39   -8  -50  -49  -35   35
## 1957    9  -14   55   -8    7   67   43    2  -63  -57  -42   31
## 1958    4  -22   44  -14   15   72   56   14 -101  -45  -49   27
## 1959   23  -18   64  -10   24   52   76   11  -96  -56  -45   43
## 1960   12  -26   28   42   11   63   87  -16  -98  -47  -71   42
autoplot(diff(AirPassengers))

ggtsdisplay(AirPassengers)

ggtsdisplay(diff(AirPassengers))

ggtsdisplay(diff(AirPassengers,12))

ggtsdisplay(diff(diff(AirPassengers,12)))

AirPassengers
##      Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec
## 1949 112 118 132 129 121 135 148 148 136 119 104 118
## 1950 115 126 141 135 125 149 170 170 158 133 114 140
## 1951 145 150 178 163 172 178 199 199 184 162 146 166
## 1952 171 180 193 181 183 218 230 242 209 191 172 194
## 1953 196 196 236 235 229 243 264 272 237 211 180 201
## 1954 204 188 235 227 234 264 302 293 259 229 203 229
## 1955 242 233 267 269 270 315 364 347 312 274 237 278
## 1956 284 277 317 313 318 374 413 405 355 306 271 306
## 1957 315 301 356 348 355 422 465 467 404 347 305 336
## 1958 340 318 362 348 363 435 491 505 404 359 310 337
## 1959 360 342 406 396 420 472 548 559 463 407 362 405
## 1960 417 391 419 461 472 535 622 606 508 461 390 432
diff(AirPassengers,12) 
##      Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec
## 1950   3   8   9   6   4  14  22  22  22  14  10  22
## 1951  30  24  37  28  47  29  29  29  26  29  32  26
## 1952  26  30  15  18  11  40  31  43  25  29  26  28
## 1953  25  16  43  54  46  25  34  30  28  20   8   7
## 1954   8  -8  -1  -8   5  21  38  21  22  18  23  28
## 1955  38  45  32  42  36  51  62  54  53  45  34  49
## 1956  42  44  50  44  48  59  49  58  43  32  34  28
## 1957  31  24  39  35  37  48  52  62  49  41  34  30
## 1958  25  17   6   0   8  13  26  38   0  12   5   1
## 1959  20  24  44  48  57  37  57  54  59  48  52  68
## 1960  57  49  13  65  52  63  74  47  45  54  28  27

En general, se sabe que el punto de partida para el análisis en series de tiempo estacionarias. Es decir, que los datos involucrados cumplan unas exigencias mínimas:

Si bien el criterio visual es importante para determinar el tratamiento a tomar, son necesarios criterios técnicos para tomar tales decisiones. Es así que se postulan las

Las pruebas de raíz unitarias

Así, en el caso que sea de nuestro interés saber cuándo una serie es bien comportada en el sentido de estacionariedad, tenemos la prueba aumentada de Dickey-Fuller o Phillips- Perron que establecerá si la serie es integrada de orden 1. Es decir, formalmente

\[ \begin{cases} H_0:y_t\sim I(1) \ \ \ \ \ \ y_t \text{ no es estacionaria }\\ H_1:y_t\sim I(0) \ \ \ \ \ \ y_t \text{ es estacionaria } \end{cases} \]

En la práctica, se utiliza la prueba de Dickey-Fuller aumentada con los comandos en ,

de los paquetes \(\texttt{urca}\) y \(\texttt{tseries}\), respectivamente. Ahora, mientras que la prueba \(\texttt{adf.test()}\) reporta directamente el p-valor de la prueba de raíz unitaria, la función \(\texttt{ut.test()}\) reporta los valores de la estadística de prueba y de los valores críticos con los valores de significancia \(1\%, 5\%\) y \(10\%\).

Abordemos el siguiente ejemplo:

FASES

La metodología de Box y Jenkins se resume en cuatro fases:

Identificación de un modelo

  • Decidir si \(x_t\) necesita ser transformada para eliminar la no estacionariedad en media o la no estacionariedad en varianza (heteroscedasticidad). Puede ser conveniente utilizar logaritmos de la serie o aplicar la transformación de Box‐Cox.

  • Determinación del grado \(d\) de diferenciación adecuado.

En general, la falta de estacionariedad se manifiesta en que los coeficientes de la función de autocorrelación estimada tienden a decrecer muy lentamente.

  • Decidir los valores de \((p, q)\), y si existe una componente estacional, decidir los órdenes de los operadores estacionales \((P, Q)\). Para este apartado se utilizan las funciones de autocorrelación (ACF) y autocorrelación parcial (PACF) según el siguiente cuadro:

Metodología Box Jenkins