Parte 1.

Se realizará la identificación del modelo de serie de tiempo mediante la metodología de Box-Jenkis para la serie 6, denotada en el classroom como S6. La cual cuenta con 500 observaciones y una variable.

Analizando las gráficas descriptivas, se tiene el diagrama de barras que muestra una asimetría en la distribución de los datos, presentando la mayor parte de estos concentrada en rangos de valores desde 0 a 5, hecho que también se evidencia en el boxplot. Existen cuatro puntos atípicos influyendo significativamente; el mínimo es de \(-13.490\) y el máximo de \(15.140\), pero la mediana es de \(3.230\) y la media de la serie es de \(3.164\).

Se nota que la mediana está ligeramente desplazada hacia abajo, esto indicaría que el valor de la media, mediana y moda; serán diferentes para cada una. Revelando que la serie de tiempo que describen estos datos tiene el 50% de estos con mediciones inferiores a 3 y no es simétrica.

par(mfrow=c(1,2))
boxplot(datos.ts, col="blue",main="")
hist(datos.ts, col="blue", main="")

Graficar los datos de la serie de tiempo y elegir adecuadas transformaciones.

Es importante graficar los datos para hacer una examinación preliminar. En este caso, para tener una serie temporal, se presentan los datos de forma mensual iniciando desde enero de 1980 hasta agosto del 2021. Al observar la serie temporal, esta indica que el valor de la media no es único, este valor está cambiando durante el transcurso de la serie. La varianza, no es constante.

Se puede apreciar que la serie de tiempo modela un suceso repetitivo. Si se decidiera trazar una línea imaginaria en medio de la serie y denotar cada uno de los puntos atípicos en esta, se evidenciaría este hecho. Lo anterior, podría mostrar que los datos atípicos en esta serie hacen parte del suceso que se está modelando. Como se estaría hablando de un suceso repetitivo, podríamos imaginar que esta serie quizás modele un proceso económico, médico, de estación (como los solsticios) o festividades. En donde en algunas fechas debido algún acontecimiento los valores desciendan y en otros ascienda.

plot.ts(datos.ts,type="o",col="blue",xlab="Tiempo",ylab = "x")

Función de autocorrelación (ACF) y autocorrelación parcial (PACF)

Se grafica la función de autocorrelación desde el rezago 0 hasta 25, como se observa en el gráfico siguiente, demostrando un descenso a medida que aumenta el rezago. Como esta función decae lentamente con el tiempo y se puede apreciar que posee muchos valores altos que son significativos, podría tratarse de una serie no estacionaria. Por otro lado, la función de autocorrelación parcial desciende hasta el rezago 4 y luego presenta valores muy bajos, los cuales muestran que se anula.

par(mfrow=c(1:2))
acf(S6,main="")
pacf(S6,main="")

Prueba de Dickey-Fuller: Como se dijo en un principio que la serie era no estacionaria, lo probaremos con la prueba de Dickey - Fuller, la cual tiene como hipótesis nula la no estacionariedad de la serie. Esta prueba es un test de raiz unitaria con la intención de determinar la existencia de una tendencia estocástica en la serie temporal.

adf.test(datos.ts, alternative = "stationary")
## 
##  Augmented Dickey-Fuller Test
## 
## data:  datos.ts
## Dickey-Fuller = -3.1052, Lag order = 7, p-value = 0.1105
## alternative hypothesis: stationary

Según la prueba de Dickey-Fuller, el valor p es del 0.1105, el cual es mayor a un \(\alpha\) del 0.05, por lo tanto, no hay evidencia suficiente en los datos para rechazar la no estacionariedad de la serie temporal.

MODELOS

Se toma la primera diferencia de la serie para estabilizar la varianza. Resulta ser como la figura a continuación, se muestra que la media para el proceso ahora es constante en todo punto y que esta media es cero, Tambien es notable que la varianza ahora es un poco más constante y los puntos atípicos que hacen parte de esta serie siguen siendo notorios.

plot.ts(diff(datos.ts), main="", xlab="Tiempo",ylab="Primera diferencia",col="yellow")

Para probar si el parámetro \(\theta_0\) tiene una tendencia deterministica se aplicará el t-ratio, el cual se presenta a continuación:

wbar <- mean(diff(datos.ts))
Swbar <- sqrt(var(diff(datos.ts)) / length(diff(datos.ts)))

t_ratio <- wbar/Swbar
t_ratio
x
x 0.1366213

Con un cuantil 0.025 superior y con 498 g.l. se tiene que \(\theta_0\) si es significante.

qt(p=0.025, df=498, length(diff(datos.ts))-1, lower.tail = F)
## [1] 531.322

AFC y PACF

par(mfrow=c(1:2))
acf(diff(datos.ts),main="")
pacf(diff(datos.ts),main="")

Al realizar el ACF se puede apreciar que solo los dos primeros valores son significativos, el resto al estar dentro de las bandas de referencia su valor es equivalente a cero o son nulos. En la PACF, se percibe que hay cuatro valores significativos, el resto son ceros ya que se encuentran en la región que abarcan las líneas de referencias, Tambien se nota que esta función inicialmente decae rápidamente cuando aumenta k.

Prueba de Dickey-Fuller: Aplicando la prueba de Dickey-Fuller para determinar la estacionariedad de la serie temporal, se halla un valor p es del 0.01, el cual es menor a un \(\alpha\) del 0.05, por lo tanto, hay evidencia suficiente en los datos para rechazar la hipótesis nula de no estacionariedad de la serie temporal en primera diferencia, determinando que la serie temporar en primera diferencia es estacionaria.

adf.test(diff(datos.ts), alternative = "stationary")
## 
##  Augmented Dickey-Fuller Test
## 
## data:  diff(datos.ts)
## Dickey-Fuller = -9.9012, Lag order = 7, p-value = 0.01
## alternative hypothesis: stationary

Con la función auto.arima se puede observar que la serie es un ARIMA (0,1,2), sin embargo, según nuestro criterio, se puede tener en cuenta un AR(3) con d=1.

Modelo 1

library(forecast)
library(tseries)
modeloArima6<-auto.arima(datos.ts,d=1, seasonal=FALSE)
modeloArima6
## Series: datos.ts 
## ARIMA(0,1,2) 
## 
## Coefficients:
##           ma1     ma2
##       -0.7271  0.0725
## s.e.   0.0437  0.0462
## 
## sigma^2 estimated as 2.533:  log likelihood=-939.23
## AIC=1884.46   AICc=1884.51   BIC=1897.09

Raíces del polinomio y efectivamente están por fuera del círculo unitario.

library(UnitCircle)              
UnitCircle::uc.check(c(1,-coef(mod_w1_CSS_ML)[1],-coef(mod_w1_CSS_ML)[2]))
##        real complex outside
## 1 -1.225484       0    TRUE
## 2 11.248984       0    TRUE
## *Results are rounded to 6 digits.

El modelo con la primera diferenciación es un ARIMA(0,1,2), se probarán los supuestos sobre este modelo para finalmente escoger el modelo que modele la serie temporal propuesta.

Diagnóstico del modelo

Estimación de parámetros: Por medio del método de máxima verosimilitud condicional de un ARIMA(0,1,2), presenta un error estándar de estimación de 0.0322 y el valor mínimo para encontrar la optimización, está en -939.23. La varianza del ruido blanco es de 2.523 con un Criterio de información de Akaike de 1884.46, el cual resulta de la fórmula \(AIC=2k+ 2ln \hat{L}\), donde k es el número de parámetros y L el valor de la verosimilitud. Tener en cuenta que asumí que el componente aleatorio se tomó como ruido blanco, con distribución normal.

\[Z_t=-W_{t}+0.72W_{t-1}-0.0752W_{t-2}+d\ ; \ Donde\ d=1\]

(mod_w1_CSS_ML=arima(diff(datos.ts), c(0, 0, 2), method = c("CSS-ML")))
## 
## Call:
## arima(x = diff(datos.ts), order = c(0, 0, 2), method = c("CSS-ML"))
## 
## Coefficients:
##           ma1     ma2  intercept
##       -0.7283  0.0709     0.0174
## s.e.   0.0437  0.0463     0.0244
## 
## sigma^2 estimated as 2.52:  log likelihood = -938.98,  aic = 1885.96

Verificación de los residuos: Se debe verificar que los residuos del modelo son de media cero y varianza constante, además son variables incorrelacionadas. No hay ningún comportamiento de tendencia, oscilan en el valor central cero y su oscilación es homogénea, por ello, se tiene varianza constante.

ACF y PACF de los residuos: Para verificar el supuesto de incorrelación, puesto que se asume que la serie de los residuos tiene un proceso incorrelacionado. Se grafica la ACF y PACF esperando que, en el caso de la ACF no tenga autocorrelaciones significativamente diferentes de cero, es decir por fuera de las bandas de referencia, a partir de la hipótesis de que el proceso es un ruido blanco. En la gráfica de la ACF se aprecia que los valores son cero, lo que implica que no hay correlación. Para la PACF se evidencia que todos los valores son cero, esto muestra que ninguno es significativo, ya que, todos se encuentran dentro de las bandas de referencias.

par(mfrow=c(1,2)) 
acf(res_w1_CSS_ML,main="")
pacf(res_w1_CSS_ML,main="")

Ljung-Box proponen un test de Pruebas de hipótesis simultaneo, donde permite verificar conjuntamente si todos los coeficientes de autocorrelación son conjuntamente iguales a cero.

\(H_0:\) Simultáneamente todos los coeficientes de autocorrelación hasta de orden k son todos simultaneamente iguales a cero

\(H_1:\) Al menos uno es diferente de cero.

(L_B_prueba=Box.test(res_w1_CSS_ML, lag = 12, type = "Ljung-Box"))
## 
##  Box-Ljung test
## 
## data:  res_w1_CSS_ML
## X-squared = 7.523, df = 12, p-value = 0.8212

Según el test de Ljung-Box, no hay suficiente evidencia estadística en los residuos, para rechazar la hipótesis de que simultáneamente todos los coeficientes de autocorrelación hasta de orden k son todos simultaneamente iguales a cero.

Normalidad de los ruidos \(a_t\): Normalidad de los residuos del test de Jarque-Bera tiene potencias buenas cuando la serie es grande. O emplear el gráfico cuantil-cuantil, el cual grafica los cuantiles teóricos bajo la hipótesis de normalidad versus los cuantiles muestrales y el plot de dispersión se ajusta bien. si se alejan, evidencia para rechazar la normalidad.

res_est_w1=res_w1_CSS_ML/(mod_w1_CSS_ML$sigma2^.5)
par(mfrow=c(1,2))
plot.ts(res_est_w1,xlab = "Tiempo", ylab = "Residuos estandarizados")
qqnorm(res_est_w1,xlab = "Cuantiles Teóreticos", 
       ylab = "Cuantiles Muestrales")
qqline(res_est_w1)

De acuerdo a la gráfica del tiempo respecto a los residuos estandarizados, se presentan unas colas muy pesadas, las cuales no siguen la línea teórica de normalidad, indicando no normalidad de los residuos y la prueba de Shapiro Wilks reafirma lo anterior, se rechaza la normalidad de los residuos con un valor p menor al nivel de significancia del 0.05.

shapiro.test(res_est_w1) 
## 
##  Shapiro-Wilk normality test
## 
## data:  res_est_w1
## W = 0.784, p-value < 2.2e-16

Modelo ajustado

Se tomarán los valores ajustados y se hallarán los puntos atípicos descubiertos en el análisis descriptivo inicial de la serie temporal.

plot(as.vector(diff(datos.ts)),as.vector(ajust), type="p")  

Se observa que los datos tienen una relación lineal con pendiente positiva, también se nota la presencia de unos datos que no siguen este comportamiento general, lo que sería interpretado que serían datos atípicos.

Se hallaron como puntos atípicos: 70,71,72,112,297,299,343 y 392.

Se procede a generar las variables indicadoras y realizar la estimación del modelo con los puntos atípicos.

summary(mod_w1_atip)
## 
## Call:
## arima(x = datos.ts, order = c(0, 1, 2), xreg = atip, method = c("CSS-ML"))
## 
## Coefficients:
##           ma1     ma2    ind70   ind71   ind72  ind112    ind297  ind299
##       -0.6426  0.2227  -14.204  0.1707  1.0341  8.2071  -14.2529  1.7254
## s.e.   0.0432  0.0438    0.911  0.8795  0.9104  0.8793    0.9071  0.9073
##       ind343  ind392
##       2.3793  8.8291
## s.e.  0.8780  0.8761
## 
## sigma^2 estimated as 1.053:  log likelihood = -721.18,  aic = 1464.37
## 
## Training set error measures:
##                      ME     RMSE       MAE      MPE     MAPE     MASE
## Training set 0.02500506 1.025203 0.8255215 5.235952 64.14976 0.695132
##                     ACF1
## Training set -0.01829148

Observando la gráfica de los valores ajustados, se muestra que la media para el proceso ahora es constante en todo punto y que esta media es cero, Tambien es notable que la varianza ahora es un poco más constante y los puntos atípicos que hacen parte de esta serie siguen siendo notorios. Al observar los datos con las variables explicativas y sin estas, se tiene que la distribución de ellos alrededor de cero es exactamente igual. Un hecho que es importante resaltar en los datos con las variables explicativas es que las distancias de los que son atípicos se acortan, lo que permite que estén más cerca al resto de los datos.

plot.ts(diff(datos.ts))
lines(ajust_atip,col=2,type="o")
lines(ajust,col=4,type="o")
legend(2006, -10, legend=c("Sin variables explicativas", "Con variables explicativas"),
       col=c(2, 4), lty=1, cex=0.8)

Lo valores iguales de t, son diferentes debido a que la estimación de la desviación de ese punto, respecto a la media, varía.

Como ya se tiene la forma del modelo de la serie temporal, por medio de las comparaciones entre los ACF y PACF de modelos ARIMA y los puntos atípicos. Se tendrá en cuenta el modelo ajustado ARIMA(0,1,2) y se evaluarán de nuevo los supuestos.

tsdiag(mod_w1_atip)

Observando la gráfica de los residuos estandarizados, se puede observar que la media para estos es igual a cero. Al analizar los ACF de los residuos, se observa que todos estos se encuentran por debajo de las bandas de referencias.

Diagnóstico del modelo ajustado

Normalidad

Al observar el gráfico del Normal Q-Q plot, se evidencia que los residuos siguen en mayor proporción la línea teórica de normalidad, indicando que se cumple el supuesto de normalidad en los residuos.

res_est_w1=residuals(mod_w1_atip)/(mod_w1_atip$sigma2^.5)
qqnorm(res_est_w1,xlab ="Cuantiles Teóricos",
       ylab = "Cuantiles Muestrales")
qqline(res_est_w1)

Lo anterior se confirma con la Prueba con Shapiro Wilks, con un valor p de 0.3883 contrastado con un Alpha de 0.05 no hay suficiente evidencia para rechazar la hipótesis nula de distribución normal de los residuos, lo que indica que los residuos tienen distribución normal.

library(printr)
shapiro.test(res_est_w1)
## 
##  Shapiro-Wilk normality test
## 
## data:  res_est_w1
## W = 0.99665, p-value = 0.3883
mu<-mean(res_est_w1)
sigm<-sd(res_est_w1)
x<-seq(-4,4,length=100)
y<-dnorm(x,mu,sigm)
hist(res_est_w1,prob=T,ylim=c(0,.7),xlim=c(-5,5),col="yellow",main = "",
     xlab = "Residuos estandarizados")
lines(density(res_est_w1))
lines(x,y,lwd=2,col="blue")

Al analizar el diagrama de barras, se puede apreciar que la distribución de los residuos estandarizados, presentan un comportamiento que puede ser descrito por una distribución normal, en donde las barras de frecuencia casi tienen un comportamiento simétrico, Tambien se puede notar que están centrados en cero.

Modelo 2

\[Z_t=0.7045X_{t-1}+0.3774X_{t-2}+0.1689X_{t-3}+d \ ; \ Donde \ d=1\]

Las raíces del polinomio están por fuera del círculo unitario.

library(UnitCircle)              
UnitCircle::uc.check(c(1,-coef(mod_w3_CSS_ML)[1],-coef(mod_w3_CSS_ML)[2],
                       -coef(mod_w3_CSS_ML)[3]))
##        real   complex outside
## 1 -0.232926  1.814818    TRUE
## 2 -1.768776  0.000000    TRUE
## 3 -0.232926 -1.814818    TRUE
## *Results are rounded to 6 digits.

par(mfrow=c(1,2)) 
acf(res_w3_CSS_ML,main="")
pacf(res_w3_CSS_ML,main="")

El ACF, decae rápidamente cuando k aumenta, además todos sus valores excepto el primero, no son significativos pues se encuentran dentro de las bandas de referencias. El PACF, Tambien decae rápidamente cuando k aumenta. A diferencia del ACF, ningún valor en el PACF es significativo pues todos están dentro de las bandas de referencias.

(L_B_prueba=Box.test(res_w3_CSS_ML, lag = 12, type = "Ljung-Box"))
## 
##  Box-Ljung test
## 
## data:  res_w3_CSS_ML
## X-squared = 11.777, df = 12, p-value = 0.4638

De acuerdo con la gráfica del tiempo respecto a los residuos estandarizados, se evidencia que estos residuos poseen media igual a cero.

Al observar el normal Q-Q plot, se presentan unas colas muy pesadas, las cuales no siguen la línea teórica de normalidad, indicando la no normalidad de los residuos.

res_est_w3=res_w3_CSS_ML/(mod_w3_CSS_ML$sigma2^.5)
par(mfrow=c(1,2))
plot.ts(res_est_w3,xlab = "Tiempo", ylab = "Residuos estandarizados")
qqnorm(res_est_w3,xlab = "Cuantiles Teóreticos", 
       ylab = "Cuantiles Muestrales")
qqline(res_est_w3)

Modelo ajustado

Se hallaron como puntos atípicos: 70,71,72,112,114,297,298,299 y 392.

summary(mod_w3_atip)
## 
## Call:
## arima(x = datos.ts, order = c(3, 1, 0), xreg = atip2, method = c("CSS-ML"))
## 
## Coefficients:
##           ar1      ar2      ar3     ind70   ind71   ind72  ind112   ind114
##       -0.6682  -0.1648  -0.0475  -14.0886  0.0517  1.0789  7.6247  -1.3012
## s.e.   0.0453   0.0541   0.0453    0.9304  0.8827  0.9283  0.9310   0.9259
##         ind297   ind298  ind299  ind392
##       -14.4081  -0.0228  1.7002  8.9231
## s.e.    0.9297   0.8816  0.9283  0.8759
## 
## sigma^2 estimated as 1.055:  log likelihood = -721.59,  aic = 1469.18
## 
## Training set error measures:
##                      ME     RMSE       MAE      MPE     MAPE      MASE
## Training set 0.02819999 1.026007 0.8219402 6.213804 63.98894 0.6921164
##                       ACF1
## Training set -0.0009363628
plot.ts(diff(datos.ts))
lines(ajust_atip2,col=2,type="o")
lines(ajust2,col=4,type="o")
legend(2006, -10, legend=c("Sin variables explicativas", 
                           "Con variables explicativas"),
       col=c(2, 4), lty=1, cex=0.8)

Se observa que los datos ajustados poseen media cero, igual varianza y siguen teniendo datos atípicos. Se observa que los datos con las variables explicativas y sin las variables explicativas, tienen la distribución alrededor de cero. Un hecho que es importante resaltar en los datos con las variables explicativas es que las distancias de los datos atípicos se acortan, lo que permite que estén más cerca al resto de los datos.

tsdiag(mod_w3_atip)

Los residuos estudentizados, están distribuidos alrededor de cero y tienen poca varianza. Se puede decir que los ACF de los residuos no son significativos, pues se encuentran debajo de las bandas d referencias.

Diagnóstico del modelo ajustado

Normalidad

res_est_w3=residuals(mod_w3_atip)/(mod_w3_atip$sigma2^.5)
qqnorm(res_est_w3,  xlab = "Cuantiles Teóricos", 
       ylab = "Cuantiles Muestrales")
qqline(res_est_w3)

El normal Q-Q plot muestra como los residuos siguen la línea teórica de normalidad, salvo unos cuantos datos. Lo anterior, indica que estos residuos pueden distribuir normal. Y mediante la prueba Shapiro Wilks, no hay evidencia suficiente para rechazar la hipótesis nula de Normalidad de los errores.

shapiro.test(res_est_w3)
## 
##  Shapiro-Wilk normality test
## 
## data:  res_est_w3
## W = 0.99586, p-value = 0.2125

El diagrama de frecuencia para los residuos estudentizados, muestra que en términos generales su distribución se presenta de manera normal. Aunque no es simétrica esta distribución, los datos están centrados en cero.

mu<-mean(res_est_w3)
sigm<-sd(res_est_w3)
x<-seq(-4,4,length=100)
y<-dnorm(x,mu,sigm)
hist(res_est_w3,prob=T,ylim=c(0,.7),xlim=c(-5,5),col="yellow",main = "",
     xlab = "Residuos estandarizados")
lines(density(res_est_w3))
lines(x,y,lwd=2,col="blue")

Selección de modelos

Comparando los modelos mediante el criterio de información de Akaike (AIC) y la desviación estándar de la varianza (RMSE), el mejor modelo propuesto es el ARIMA(0,1,2).

Modelo RMSE AIC
Modelo 1 1.025203 1464.36520407489
Modelo 2 1.026007 1469.18251878367

Debido a que ya se cumplen todos los supuestos, se propone el modelo ARIMA(0,1,2) que modela la serie temporal S6.

Parte 2.

Según el modelo planteado anteriormente para modelar la serie de tiempo S6, se procede a realizar el pronóstico sobre este modelo para valores futuros de forma general para una mayor comprensión.

\[ Z_t=\left\{ \begin{array}{ll} \frac{\theta_q(B)}{\phi_p(B)}a_t & \text{si }t\neq 70,71,72,112,297,299,343,392 \\ \beta_{70}+\frac{\theta_q(B)}{\phi_p(B)}a_t & \text{si }t=70\\ \beta_{71}+\frac{\theta_q(B)}{\phi_p(B)}a_t & \text{si }t=71\\ \beta_{72}+\frac{\theta_q(B)}{\phi_p(B)}a_t & \text{si }t=72\\ \beta_{112}+\frac{\theta_q(B)}{\phi_p(B)}a_t & \text{si }t=112\\ \beta_{297}+\frac{\theta_q(B)}{\phi_p(B)}a_t & \text{si }t=297\\ \beta_{299}+\frac{\theta_q(B)}{\phi_p(B)}a_t & \text{si }t=299\\ \beta_{343}+\frac{\theta_q(B)}{\phi_p(B)}a_t & \text{si }t=343\\ \beta_{392}+\frac{\theta_q(B)}{\phi_p(B)}a_t & \text{si }t=392 \end{array} \right. \] Debido a que el modelo es un ARMA(p,d,q), puede ser escrito en términos de \(\psi(B)Z_t=\theta(B)a_t\)

Sin embargo, en este caso se tiene el llamado IMA(d,q) está descrito por \((1-B)Z_t=(1-\theta_1B-\theta_2B^2-...-\theta_qB^q)a_t\) Con \(\theta_1=0.6426\) y \(\theta_2=-0.2227\) es invertible y estacionaria.

\[ \left\{ \begin{array}{ll} \theta_2+\theta_1<1 & \\ \theta_2-\theta_1<1 \\ -1<\theta_2<1 \\ \end{array} \right. \] En términos autorregresivos infinitos se tiene \(\pi(B)Z_t=a_t\), donde

\[\pi(B)=1-\pi_1B-\pi_2B^2-...\]

Pronóstico sin la influencia de los puntos atípicos, es decir \(Z_t=\frac{\theta_q(B)}{\phi_p(B)}a_t\)

## $pred
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      8.824899 8.157296 8.157296 8.157296
## 2022 8.157296                                                                
## 
## $se
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      1.026229 1.089791 1.241795 1.377123
## 2022 1.500293

Se puede decir, que este pronóstico es bueno, porque, las predicciones están en consonancia con el comportamiento de la serie. Tambien cabe destacar, que los intervalos de predicción son amplios, lo que estaría indicando que esos pronósticos, estarían en un rango adecuado para la serie.

Pronóstico de cada punto atípico

Pronóstico de acuerdo a la influencia de cada punto atípico, debido a que no son excluídos de la serie temporal porque no se tiene un contexto ni una explicación que demuestre que son por errores de medición.

\[Z_{70}=\beta_{70}+\frac{\theta_q(B)}{\phi_p(B)}a_t \ ; \ t=70\]

## $pred
##            Jan Feb Mar Apr May Jun Jul Aug       Sep       Oct       Nov
## 2021                                       -5.379060 -6.046664 -6.046664
## 2022 -6.046664                                                          
##            Dec
## 2021 -6.046664
## 2022          
## 
## $se
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      1.026229 1.089791 1.241795 1.377123
## 2022 1.500293

Este pronóstico, está demasiado por debajo de los valores que abarca la serie de tiempo, además, teniendo en cuenta el comportamiento de la serie, no se cree que sea posible que tome estos valores, a menos que suceda un acontecimiento que afecte el transcurso que lleva la serie.

\[Z_{71}=\beta_{71}+\frac{\theta_q(B)}{\phi_p(B)}a_t \ ; \ t=71\]

## $pred
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      8.995632 8.328029 8.328029 8.328029
## 2022 8.328029                                                                
## 
## $se
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      1.026229 1.089791 1.241795 1.377123
## 2022 1.500293

Observando el pronóstico, se puede decir que posiblemente la serie tenga un comportamiento como el que está siendo descrito. Tambien se puede notar que los intervalos de predicción abarcan poco el rango de la serie.

\[Z_{72}=\beta_{72}+\frac{\theta_q(B)}{\phi_p(B)}a_t \ ; \ t=72\]

## $pred
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      9.858973 9.191370 9.191370 9.191370
## 2022 9.191370                                                                
## 
## $se
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      1.026229 1.089791 1.241795 1.377123
## 2022 1.500293

Este pronóstico, es relativamente bueno. Ya que, sigue el comportamiento de la serie, pero sus intervalos de predicción no abarca tanto rango de la serie, pareciese que sólo tomara en cuenta el último tramo de la serie para definir su rango.

\[Z_{112}=\beta_{112}+\frac{\theta_q(B)}{\phi_p(B)}a_t \ ; \ t=112\] Si se observa este pronóstico, se puede decir que está muy por encima de los valores de la serie. Se sabe que la serie va aumentando, lo que no se espera a se cree es que presente un cambio tan drástico.

## $pred
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      17.03196 16.36436 16.36436 16.36436
## 2022 16.36436                                                                
## 
## $se
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      1.026229 1.089791 1.241795 1.377123
## 2022 1.500293

\[Z_{297}=\beta_{297}+\frac{\theta_q(B)}{\phi_p(B)}a_t \ ; \ t=297\]

Este pronóstico, está demasiado por debajo de los valores que abarca la serie de tiempo, además, teniendo en cuenta el comportamiento de la serie, no se cree que sea posible que tome estos valores, a menos que suceda un acontecimiento que afecte el transcurso que lleva la serie.

## $pred
##            Jan Feb Mar Apr May Jun Jul Aug       Sep       Oct       Nov
## 2021                                       -5.428048 -6.095651 -6.095651
## 2022 -6.095651                                                          
##            Dec
## 2021 -6.095651
## 2022          
## 
## $se
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      1.026229 1.089791 1.241795 1.377123
## 2022 1.500293

\[Z_{299}=\beta_{299}+\frac{\theta_q(B)}{\phi_p(B)}a_t \ ; \ t=299\] Observando el pronóstico, se puede decir que posiblemente la serie tenga un comportamiento como el que está siendo descrito. Tambien se puede notar que los intervalos de predicción abarcan poco el rango de la serie.

## $pred
##            Jan Feb Mar Apr May Jun Jul Aug       Sep       Oct       Nov
## 2021                                       10.550331  9.882727  9.882727
## 2022  9.882727                                                          
##            Dec
## 2021  9.882727
## 2022          
## 
## $se
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      1.026229 1.089791 1.241795 1.377123
## 2022 1.500293

\[Z_{343}=\beta_{343}+\frac{\theta_q(B)}{\phi_p(B)}a_t \ ; \ t=343\]

## $pred
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      11.20422 10.53662 10.53662 10.53662
## 2022 10.53662                                                                
## 
## $se
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      1.026229 1.089791 1.241795 1.377123
## 2022 1.500293

\[Z_{392}=\beta_{392}+\frac{\theta_q(B)}{\phi_p(B)}a_t \ ; \ t=392\]

Al observar este pronóstico para la serie ahi descrita, se creería que no es muy congruente con el comportamiento que esta tiene, pues ese pronóstico está por encima del rango que esta ha abarcado.

## $pred
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      17.65401 16.98641 16.98641 16.98641
## 2022 16.98641                                                                
## 
## $se
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      1.026229 1.089791 1.241795 1.377123
## 2022 1.500293

Se llevará a cabo un criterio de agrupación de los puntos atípicos, ya que no habría otra forma para explicarlos, es decir no hay una razón del por qué apareció cada uno, ni hay una regularidad en su aparición.

Grupo: Puntos atípicos 70,71 y 72.

Pronóstico para la serie de tiempo, que está muy desplazado inferiormente, como para describir una adecuada predicción de valores futuros que pueden hacer parte de la serie.

## $pred
##            Jan Feb Mar Apr May Jun Jul Aug       Sep       Oct       Nov
## 2021                                       -4.174253 -4.841856 -4.841856
## 2022 -4.841856                                                          
##            Dec
## 2021 -4.841856
## 2022          
## 
## $se
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      1.026229 1.089791 1.241795 1.377123
## 2022 1.500293

Grupo: Puntos atípicos 297 y 299.

Observando la gráfica, es claro que los valores que abarca la serie de tiempo están en el intervalo de 0 hasta valores mayores a 10. Lo que muestra que un pronóstico que tome valores cercanos a -5, no estaría prediciendo de manera adecuada la serie de tiempo.

## $pred
##            Jan Feb Mar Apr May Jun Jul Aug       Sep       Oct       Nov
## 2021                                       -3.702616 -4.370219 -4.370219
## 2022 -4.370219                                                          
##            Dec
## 2021 -4.370219
## 2022          
## 
## $se
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      1.026229 1.089791 1.241795 1.377123
## 2022 1.500293

Grupo: Puntos atípicos 343 y 392.

Se observa que el pronóstico realizado, en este caso está tomando valores cercanos a 20, pero la serie de tiempo el valor más grande que ha alcanzado está cercano a 10. Por lo tanto, este pronóstico está tomando valores por encima de la serie.

## $pred
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      20.03334 19.36574 19.36574 19.36574
## 2022 19.36574                                                                
## 
## $se
##           Jan Feb Mar Apr May Jun Jul Aug      Sep      Oct      Nov      Dec
## 2021                                      1.026229 1.089791 1.241795 1.377123
## 2022 1.500293