En la pequeña comunidad de Apía, el manejo de los residuos sólidos es un tema crítico que refleja tanto los desafíos como los avances en sostenibilidad ambiental. Los datos analizados en este estudio se centran en las toneladas de residuos sólidos dispuestas en un relleno sanitario, un indicador clave para medir la eficiencia de las estrategias de gestión de desechos. Este proceso no solo garantiza que los residuos sean tratados con estándares ambientales rigurosos, sino que también minimiza su impacto en el suelo, el agua y el aire, contribuyendo al bienestar de la comunidad y su entorno natural.
El conjunto de datos, organizado por meses y años del flujo constante de residuos generados por el municipio. Este enfoque temporal permite identificar patrones importantes, como picos estacionales de generación de desechos que podrían estar relacionados con festividades, actividades agrícolas o cambios en el comportamiento de la población. Además, proporciona la base para entender tendencias a largo plazo, esenciales para anticipar futuras necesidades de manejo de residuos.
En este proyecto vamos a utilizar la variable toneladas dispuestas que hace referencia a la cantidad de residuos solidos mensuales en el relleno sanitario de Apia (Risaralda),obtuvimos los datos de: https://www.datos.gov.co.
Residuos_Solidos <- read_excel("Residuos Solidos.xlsx")
View(Residuos_Solidos)
La base de datos solo contiene 3 variables que son año, mes y toneladas dispuestas, obviamos el año debido a que nuestra serie se va a hacer mensual. y la variable toneladas dispuestas es la cantidad de residuos solidos que produce el relleno sanitario de el municipio de Apia (Risaralda) Tenemos datos mensuales desde enero del año 2017 hasta julio del año 2023.
ts_Residuos<-ts(Residuos_Solidos$`TONELADAS DISPUESTAS`, start=c(2017,1),
frequency=12)
ts_Residuos
## Jan Feb Mar Apr May Jun Jul Aug Sep Oct
## 2017 91.13 74.17 78.93 72.68 86.25 84.97 76.38 88.40 85.60 89.17
## 2018 96.92 79.37 76.39 82.67 88.50 87.02 96.96 93.03 77.79 92.84
## 2019 97.34 83.68 88.38 90.14 90.97 82.89 93.22 92.36 80.09 84.92
## 2020 92.86 79.24 87.26 73.77 86.12 81.39 94.17 78.13 100.50 95.69
## 2021 100.26 87.09 101.52 52.04 80.18 105.85 92.28 104.30 92.76 100.64
## 2022 98.82 85.61 93.06 92.82 96.35 84.43 94.84 88.06 96.80 86.94
## 2023 96.72 93.28 103.85 96.21 104.63 105.82 95.66
## Nov Dec
## 2017 82.03 94.57
## 2018 94.05 87.54
## 2019 98.12 107.59
## 2020 86.42 104.09
## 2021 102.42 106.70
## 2022 110.62 114.03
## 2023
plot(ts_Residuos, main="Residuos solidos (2017 - 2023)",
xlab="Mes", ylab="Cantidad")
Al observar la grafica podemos ver que hubo una caida drastica en la cantidad de residuos solidos en abril del año 2021 que se debio principalmente a unas medidas ambientales y de gestion de residuos, Esta disminución en residuos fue en parte consecuencia de estrategias de reducción y separación de residuos impulsadas por las autoridades locales y organizaciones ambientales.
al ver el grafico podemos pensar que no hay tendencia clara debido a que la serie fluctua entre 50 y 110 unidades aproximadamente, si analizamos estacionaliad vemos que no hay patrones repetitivos claros esto nos indica que si hay estacionalidad no es muy marcada, es posible que haya una estacionalidad suave pero para verificar utilizaremos una prueba que no ayude a verificar, y por ultimo al analizar heterocedasticidad es muy poco probable que la haya debido a que la variabilidad de los datos parece ser estable.
library(tseries)
adf_test <- adf.test(ts_Residuos)
print(adf_test)
##
## Augmented Dickey-Fuller Test
##
## data: ts_Residuos
## Dickey-Fuller = -4.3345, Lag order = 4, p-value = 0.01
## alternative hypothesis: stationary
\(H0\): La serie no es estacionaria (tiene raíz unitaria).
\(H1\): La serie es estacionaria
Al observar los resultados obtenemos un p-valor=0.1 menor al valor de significancia del 0.05, podemos rechazar la hipotesis nula \(H0\) es decir podemos concluir que la serie tiene raiz unitaria por ende la serie es estacionaria.
prueba <- lm(ts_Residuos ~ time(ts_Residuos))
bp_test <- bptest(prueba)
print(bp_test)
##
## studentized Breusch-Pagan test
##
## data: prueba
## BP = 0.66217, df = 1, p-value = 0.4158
\(H0\): La varianza de los errores es constante (no hay heterocedasticidad).
\(H1\): La varianza de los errores no es constante (hay heterocedasticidad).
Obtuvimos un p-valor= 0.4158 que es mucho mayor al nivel de significancia, con esto podemos concluir que no hay evidencia estadistica suficiente para rechazar \(H0\) es decir que no hay heterocedasticidad ya que la varianza de los errores es constante y con esto no necesitamos trasnformaciones para continuar con el modelo SARIMA.
Al observar la FAC vemos que las barras desminuyen pero con un decaimiento lento esto nos podria dar un indicio de que la serie no es estacionaria, ademas la FACP muestra un corte claro despues del primer rezago para verificar vamos a realizar una prueba de estacionariedad.
## Warning in pp.test(ts_Residuos): p-value smaller than printed p-value
##
## Prueba de Phillips-Perron (PP):
##
## Phillips-Perron Unit Root Test
##
## data: ts_Residuos
## Dickey-Fuller Z(alpha) = -72.645, Truncation lag parameter = 3, p-value
## = 0.01
## alternative hypothesis: stationary
La prueba de raíz unitaria de Phillips-Perron aplicada a la serie de tiempo, arrojó resultados significativos con un p-valor<0.01. Esto indica que hay suficiente evidencia para rechazar la hipótesis nula de presencia de una raíz unitaria, confirmando que la serie de tiempo es estacionaria, aun asi no debemos confiarnos debido a que al observar la FAC no decae rapidamente hacia 0.
Viendo que la FAC decae lentamente hacia 0 podemos inferir que necesitamos 1 diferencia ordinaria es decir d=1
Difresiduos_ts <- diff(ts_Residuos, lag = 12, differences = 1)
plot(Difresiduos_ts, ylab = 'dresiduos', xlab = 'periodo', type = 'o', main = "Serie de Tiempo con las Diferencias")
Al observar la serie podemos ver que no se observa una tendencia clara en esta serie diferenciada como ya se veia en la serie sin diferenciar. la amplitud de las fluctuaciones parece mantenerse constante a lo largo del tiempo aunque hay unos picos ocacionales como en el 2022 es decir no hay evidencia de heterocedasticidad. Visualmente podemos observar que la serie oscila alrededor de una media constante(cercana a cero) y tiene variailidad constante esto sugeriria que la serie es estacionaria, vamos a verificar con la siguiente prueba.
pp_test2 <- pp.test(Difresiduos_ts)
## Warning in pp.test(Difresiduos_ts): p-value smaller than printed p-value
cat("\nPrueba de Phillips-Perron (PP):\n")
##
## Prueba de Phillips-Perron (PP):
print(pp_test2)
##
## Phillips-Perron Unit Root Test
##
## data: Difresiduos_ts
## Dickey-Fuller Z(alpha) = -65.463, Truncation lag parameter = 3, p-value
## = 0.01
## alternative hypothesis: stationary
La prueba de raíz unitaria de Phillips-Perron aplicada a la serie de tiempo, indica que la serie es estacionaria, ya que el p-valor< 0.01 es significativamente bajo.
acf(Difresiduos_ts, main = "ACF de la Serie Original")
pacf(Difresiduos_ts, main = "PACF de la Serie Original")
La FAC muestra que, después de aplicar el decaimiento es más rápido en comparación con la serie original. Esto es un indicador positivo de que la diferenciación ha eliminado la tendencia no estacionaria. Hay autocorrelaciones significativas en los primeros rezagos lo que sugiere que podria ser necesario incorporar un componente de media movil. La FACP muestra un corte en el primer rezago es decir se necesita un autoregresivo igual a 1. La combinacion de la FAC y la FACP sugiere que ya se ah logrado estacionariedad.
ModeloR = auto.arima(ts_Residuos, seasonal = TRUE)
results = ModeloR
# statistics of the model
summary(results)
## Series: ts_Residuos
## ARIMA(0,1,1)(1,0,0)[12]
##
## Coefficients:
## ma1 sar1
## -0.9044 0.2658
## s.e. 0.0450 0.1143
##
## sigma^2 = 87.12: log likelihood = -285.1
## AIC=576.2 AICc=576.52 BIC=583.27
##
## Training set error measures:
## ME RMSE MAE MPE MAPE MASE ACF1
## Training set 1.585996 9.155118 7.092903 0.646118 8.07941 0.8127941 -0.01009661
## Graficos
# Calcular los residuos del modelo
residuos <- residuals(ModeloR)
# Calcular los residuos estandarizados
residuos_estandarizados <- residuos / sd(residuos)
plot(residuos_estandarizados, main = "Standardized Residuals", ylab = "", xlab = "Time", type = "h")
abline(h = 0, col = "black", lwd = 2) # Línea horizontal en 0
library(forecast)
residuos <- residuals(ModeloR)
# Crear la gráfica completa en una sola ventana
par(mfrow = c(2, 2)) # Configuración para 2x2 gráficos
# 1. Gráfico de Residuos
plot(residuos, main = "Residuals", ylab = "Residuals", xlab = "Time", type = "l")
abline(h = 0, col = "blue", lty = 2)
# 2. ACF de Residuos
acf(residuos, main = "ACF of Residuals", lag.max = 24)
# 3. PACF de Residuos
pacf(residuos, main = "PACF of Residuals", lag.max = 24)
# 4. Histograma de Residuos
hist(residuos, main = "Histogram of Residuals", xlab = "Residuals", breaks = 20, col = "lightgray", border = "black")
Grafico 1: Al observar el grafico de los residuales a lo largo del tiempo los residuales oscilan alrededor de 0 que es un buen indicador, a simple vista no se ven patrones de tendencia o estacionalidad lo que indica que el modelo ah capturado bien la estructura de la serie, pero hay ciertas fluctuaciones en algunos periodos lo que indica que podria haber heterocedasticidad, pero los residuales parecen cumplir con el supuesto de media cero.
Grafico 2: Al observar la FAC podemos ver que las barras de autocorrelacion estan dentro de los intervalos de confianza, lo que indica que no hay autocorrelacion significativa en los residuales, esto sugiere que son independientes que es un supuesto clave para la validez del modelo
Grafico 3: Al igual que en la FAC, las barras estan dentro los limites de confianza lo que refuerza la conclusion de que los residuales son independientes.
Grafico 4: Aunque no se ve perfectamente normal, la distribucion de los residuales que se observa en el histograma es aproximadamente simetrica y centrada en 0,sin embargo parece haber una ligera desviacion en los extremos esto se debe a valores atipicos.
Ljung-Box test:
\(H0\): No hay autocorrelación en los residuos hasta un número determinado de rezagos . Es decir, los residuos son independientes.
\(H1\): Existe autocorrelación en los residuos hasta el rezago . Esto indica que hay dependencia temporal no explicada en el modelo.
Dado que se obtuvo un p-valor de 0.677, que es significativamente mayor a 0.05, no se rechaza la hipótesis nula \(H0\) del test de Ljung-Box. Esto indica que no hay evidencia estadística para afirmar que exista autocorrelación en los residuos del modelo.
El modelo SARIMA(0, 1, 1)(1, 0, 0)[12] es razonablemente adecuado para la serie de tiempo. Sin embargo, podrían probarse pequeños ajustes en los componentes estacionales para manejar el posible rezago estacional en lag=12. Además, sería útil confirmar la independencia y normalidad de los residuos mediante pruebas estadísticas formales.
SARIMA(1,1,1)(0,0,0)[12]
SARIMA (1,1,0)(0,0,1)[12]
La primer propuesta del modelo la hago ya que en la FACP hay un corte en el rezago \(p=1\) En la FAC el rezago 1 tambien es significativo lo que indica que requiere un componente de media movil \(q=1\) y el \(d=1\) ya esta incluido por que la serie ah sido diferenciada 1 vez. No se observan picos regulares en multiplos del periodo estacional de la FAC por esto \(P=0\) , \(D=0\) , \(Q=0\).
La segunda propuesta de modelo se da gracias a que la FACP muestra un corte claro en el rezago 1 \(p=1\) y la FAC no muestra terminos significativos adicionales mas alla del rezago 1 lo que sugiere \(q=0\) y como la serie ah sido diferenciada 1 vez \(d=1\). Para mirar posibles fluctuaciones estacionales deviles se podria probar un componente de media movil estacional \(Q=1\) con \(P=0\) Y \(D=0\) Por que no se detectan diferencias estacionales evidentes.
modelo1 <- Arima(ts_Residuos, order = c(1, 1, 1), seasonal = list(order = c(0, 0, 0), period = 12))
modelo2 <- Arima(ts_Residuos, order = c(1, 1, 0), seasonal = list(order = c(0, 0, 1), period = 12))
modelo3 <- ModeloR
# Resumen de cada modelo
summary(modelo1)
## Series: ts_Residuos
## ARIMA(1,1,1)
##
## Coefficients:
## ar1 ma1
## 0.0886 -0.9020
## s.e. 0.1234 0.0475
##
## sigma^2 = 93.53: log likelihood = -287.42
## AIC=580.83 AICc=581.16 BIC=587.9
##
## Training set error measures:
## ME RMSE MAE MPE MAPE MASE ACF1
## Training set 1.677852 9.48545 7.210317 0.6658425 8.250412 0.8262489 -0.03146935
summary(modelo2)
## Series: ts_Residuos
## ARIMA(1,1,0)(0,0,1)[12]
##
## Coefficients:
## ar1 sma1
## -0.4439 0.1211
## s.e. 0.1023 0.1092
##
## sigma^2 = 124.6: log likelihood = -298.05
## AIC=602.1 AICc=602.42 BIC=609.17
##
## Training set error measures:
## ME RMSE MAE MPE MAPE MASE ACF1
## Training set 0.1529022 10.94954 8.500916 -0.9689822 9.78887 0.974142 -0.1493941
summary(modelo3)
## Series: ts_Residuos
## ARIMA(0,1,1)(1,0,0)[12]
##
## Coefficients:
## ma1 sar1
## -0.9044 0.2658
## s.e. 0.0450 0.1143
##
## sigma^2 = 87.12: log likelihood = -285.1
## AIC=576.2 AICc=576.52 BIC=583.27
##
## Training set error measures:
## ME RMSE MAE MPE MAPE MASE ACF1
## Training set 1.585996 9.155118 7.092903 0.646118 8.07941 0.8127941 -0.01009661
## Modelo AIC BIC RMSE MAE MAPE
## 1 SARIMA(1,1,1)(0,0,0)[12] 580.8314 587.9015 9.485450 7.210317 8.097344
## 2 SARIMA(1,1,0)(0,0,1)[12] 602.0991 609.1693 10.949540 8.500916 9.470206
## 3 SARIMA(0,1,1)(1,0,0)[12] 576.1975 583.2677 9.155118 7.092903 7.983453
Al observar las metricas de seleccion podemos ver que si analizamos el AIC(Criterio de Información de Akaike) nos quedamos con los 2 modelos de tengas menor AIC es decir Modelo 1 y modelo 3 con un AIC= 580.8314 Y 576.1975 respectivamente, si vemos el BIC (Criterio de informacion bayesiano) tambien escogemos el modelo 1 y 3 con un BIC= 587.9015 Y 583.2677 respectivamente, si analizamos las otras metricas de seleccion como lo son el RMSE, MAE, MAPE nos damos cuenta que en todos nos dice que los dos modelos que mejor se ajustan a los datos y tienen mas presicion son el 1 y 3. Por ello obtamos por quedarnos con estos dos modelos.Cabe aclarar que uno de estos fue el que nos arrojo la funcion auto.arima de R.
SARIMA(1,1,1)(0,0,0)[12]
SARIMA(0,1,1)(1,0,0)[12]
## # A tibble: 2 × 7
## Model AIC BIC RMSE_train MAPE_train RMSE_test MAPE_test
## <chr> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 SARIMA(1,1,1)(0,0,0)[12] 447. 453. 9.92 8.94 8.34 6.28
## 2 SARIMA(0,1,1)(1,0,0)[12] 440. 446. 9.20 8.19 8.85 7.50
Al observar las metricas de seleccion podemos darnos cuenta que el modelo SARIMA(0,1,1)(1,0,0)[12] tiene un mejor ajuste en AIC, BIC, RMSE_train y MAPE_train debido a que tiene valores menores al compararlo con el otro modelo, el modelo SARIMA (1,1,1)(0,0,0) gana puntos solo en RMSE_test y MAPE_test debido a que tiene menores valores, pero al final decidimos quedarnos con el modelo SARIMA(0,1,1)(1,0,0) ya que sentimos que tiene un mejor equilibrio entre ajuste y simplicidad y la mayoria de metricas lo afirman.
Concluimos que nos vamos a quedar con el modelo que nos arrojo la funcion auto.arima de R que es
# Generar el chequeo de residuos con gráficos automáticos
checkresiduals(modelo3)
##
## Ljung-Box test
##
## data: Residuals from ARIMA(0,1,1)(1,0,0)[12]
## Q* = 11.114, df = 14, p-value = 0.677
##
## Model df: 2. Total lags used: 16
Grafico 1: Al observar el grafico de residuos a lo largo del tiempo podemos ver que los residuos oscilan alrededor de 0 lo que sugiere que el modelo captura adecuadamente la tendencia de la serie ademas de que no se observan patrones claros, como tendencias o estacionalidades esto es buen indicador, sin embargo podemos ver que hay una fluctuaciones mas pronunciadas en ciertos periodos(picos extremos). Pero podemos decir que se cumple el supuesto de media cero.
Grafico 2: Al observar la FAC nos damos cuenta que las autocorrelaciones estan dentro de los limites de confianza lo cual indica que estos no tienen autocorrelacion significativa, parcialmente cumple con el supuesto que independencia de los residuos, Aunque el modelo logra eliminar la mayor parte de la autocorrelación, el pico en el rezago estacional indica que podría ser necesario ajustar ligeramente el componente estacional.
Grafico 3: al observar el histograma nos damos cuenta que es aproximadamente simetrica y centrada en 0, sin embargo las colas de las distribucion se ven ligeramente largas esto se debe a valores extremos lo que nos indica la presencia de algunos residuos atipicos, parcialmente a simple vista parece que cumple con el supuesto de normalidad pero es mejor verificar con una prueba
Ljung-Box test:
\(H0\): No hay autocorrelación en los residuos hasta un número determinado de rezagos . Es decir, los residuos son independientes.
\(H1\): Existe autocorrelación en los residuos hasta el rezago . Esto indica que hay dependencia temporal no explicada en el modelo.
Dado que se obtuvo un p-valor de 0.677, que es significativamente mayor a 0.05, no se rechaza la hipótesis nula \(H0\) del test de Ljung-Box. Esto indica que no hay evidencia estadística para afirmar que exista autocorrelación en los residuos del modelo.
shapiro_result <- shapiro.test(residuals(modelo3))
# Mostrar el resultado de la prueba
print(shapiro_result)
##
## Shapiro-Wilk normality test
##
## data: residuals(modelo3)
## W = 0.96308, p-value = 0.02202
\(H0\) : Los datos siguen una distribución normal.
\(H1\) : Los datos no siguen una distribución normal.
Obtuvimos un P-valor menor al 0.05 que es el nivel de significancia con esto podemos decir que hay suficiente evidencia estadistica para rechazar la hipotesis nula de que los residuales siguen una distribucion normal algo que ah simple vista parecia que si seguia la normalidad. La falta de normalidad en los residuos no afecta directamente a la presicion de las predicciones debido a que los supuestos mas importantes se cumplen que son Media cero en los residuos, independencia en los residuos, varianza constante que si se cumplen pero tampoco podemos obviarlo del todo ya que puede influir en la confiabilidad de los intervalos de prediccion ya que este asume que los residuos son normales.
summary(modelo3)
## Series: ts_Residuos
## ARIMA(0,1,1)(1,0,0)[12]
##
## Coefficients:
## ma1 sar1
## -0.9044 0.2658
## s.e. 0.0450 0.1143
##
## sigma^2 = 87.12: log likelihood = -285.1
## AIC=576.2 AICc=576.52 BIC=583.27
##
## Training set error measures:
## ME RMSE MAE MPE MAPE MASE ACF1
## Training set 1.585996 9.155118 7.092903 0.646118 8.07941 0.8127941 -0.01009661
coef(modelo3)
## ma1 sar1
## -0.9043831 0.2658170
MA1: el coeficiente de media movil indica el impacto de los errores pasados en el valor actual de la serie, en este caso es negativo lo que sugiere que un error positivo en el periodo pasado tiende a reducir el valor actual y viceversa Y el valor absoluto este cercano a 1 indica que el termino tiene un importante efecto en la serie
SAR1: El coeficiente de autoregresion estacional muestra como los valores de la serie rezagados en 12 periodos afectan al valor actual, este coeficiente positivo indica que un valor alto en un periodo estacional anterior tiende a aumentar el valor actual
Los errores estandar son relativamente bajos para ambos coeficientes lo que indica que las estimaciones son precisas
\((1−Φ1B^{12})(1-B)yt= (1-ϕ1B)ϵt\)
\(Φ1\)= 0.2658
\(ϕ1\)= 0.9044
La ecuacion del modelo es:
\((1−0.26581B^{12})(1-B)yt= (1-0.9044B)ϵt\)
## Warning: package 'ggplot2' was built under R version 4.3.3
La grafica muestra la serie historica de residuos solidos (en negro), el ajuste del modelo SARIMA (en rojo), el pronostico (en verde) y los datos de prueba (en azul).
la linea de ajuste del modelo (roja) sigue de manera adecuada la estructura general de la serie historica, indicando un buen ajuste, se observan picos en la serie histórica que el modelo no capta completamente (por ejemplo, fluctuaciones abruptas en 2020). Esto puede deberse a eventos externos o irregularidades que no fueron modeladas explícitamente El pronóstico (verde) proyecta valores que se alinean con los datos de prueba (azul), mostrando que el modelo tiene un buen desempeño predictivo, hay un grado de variación en la serie de prueba que el modelo no predice perfectamente, especialmente en los valores más altos y bajos. Esto podría reflejar una posible subestimación de la variabilidad de la serie. El modelo SARIMA seleccionado es adecuado, ya que logra capturar las dinámicas principales de la serie y proporciona un pronóstico útil dentro de rangos razonables, en conclusion El modelo SARIMA es eficiente para los propósitos de pronóstico, considerando la naturaleza de los datos,su desempeño es adecuado para ayudar en la planeación y manejo de residuos sólidos en Apía, pero es importante ser cauteloso con valores extremos que podrían no estar completamente representados en el modelo.
El modelo está dado por la ecuación:
\[ \hat{y}_{t+h} = y_t + \Phi_1 y_{t-12} - \Phi_1 y_{t-13} + \varepsilon_t - \theta_1 \varepsilon_{t-1} \]
\[ \Phi_1 = 0.2658, \quad \theta_1 = -0.9044 \]
\[ y = [100, 102, 98, 97, 101, 103, 104, 100, 105, 108, 106, 109, 110] \]
Errores pasados:
\[ \varepsilon = [0, 1, -0.5, 0.8, -1.2, 0.7, -0.3, 0, 1.1, -0.9, 0.4, -0.6, 0.5] \]
La ecuación es:
\[ \hat{y}_{t+1} = y_t + \Phi_1 y_{t-12} - \theta_1 \varepsilon_t \]
Sustituyendo:
\[ y_t = 110, \quad y_{t-12} = 100, \quad \varepsilon_t = 0.5 \]
\[ \hat{y}_{t+1} = 110 + 0.2658(100) - (-0.9044)(0.5) \]
\[ \hat{y}_{t+1} = 110 + 26.58 + 0.4522 \]
\[ \hat{y}_{t+1} = 137.0322 \]
La ecuación es:
\[ \hat{y}_{t+2} = \hat{y}_{t+1} + \Phi_1 y_{t-11} - \theta_1 \varepsilon_{t+1} \]
Sustituyendo:
\[ \hat{y}_{t+1} = 137.0322, \quad y_{t-11} = 102, \quad \varepsilon_{t+1} = 0 \]
\[ \hat{y}_{t+2} = 137.0322 + 0.2658(102) - (-0.9044)(0) \]
\[ \hat{y}_{t+2} = 137.0322 + 27.1116 + 0 \]
\[ \hat{y}_{t+2} = 164.1438 \]
La ecuación es:
\[ \hat{y}_{t+3} = \hat{y}_{t+2} + \Phi_1 y_{t-10} - \theta_1 \varepsilon_{t+2} \]
Sustituyendo:
\[ \hat{y}_{t+2} = 164.1438, \quad y_{t-10} = 98, \quad \varepsilon_{t+2} = 0 \]
\[ \hat{y}_{t+3} = 164.1438 + 0.2658(98) - (-0.9044)(0) \]
\[ \hat{y}_{t+3} = 164.1438 + 26.0484 + 0 \]
\[ \hat{y}_{t+3} = 190.1922 \]
\[ \hat{y}_{t+1} = 137.0322 \]
\[ \hat{y}_{t+2} = 164.1438 \]
\[ \hat{y}_{t+3} = 190.1922 \]
El análisis realizado sobre los datos de residuos sólidos dispuestos en el municipio de Apía, Risaralda, permitió identificar patrones estacionales y variaciones temporales en las toneladas dispuestas mensualmente entre 2017 y 2023. Al ajustar el modelo SARIMA, se enfrentaron varios desafíos. En primer lugar, la serie presentaba una tendencia no estacionaria que requirió una diferenciación no estacional para estabilizarla. Asimismo, aunque se identificaron fluctuaciones regulares asociadas a estacionalidad anual, algunos meses mostraron variaciones atípicas que afectaron la calidad del ajuste inicial, lo que exigió un análisis detallado de los componentes estacionales.
Un problema significativo fue la presencia de residuos que no seguían un patrón completamente predecible, lo que complicó el ajuste de los términos de autorregresión estacional y media móvil. Durante las iteraciones del modelo, los residuos del modelo inicial indicaron cierta autocorrelación, lo que llevó a ajustar los términos hasta que los residuos fueran aproximadamente blancos. Adicionalmente, la validación del modelo mostró que algunos supuestos, como la normalidad de los residuos, no se cumplían plenamente, lo que pudo impactar la precisión de las predicciones a largo plazo.
El modelo SARIMA(0,1,1)(1,0,0)[12] fue seleccionado como el más adecuado debido a su capacidad para capturar la dinámica de la serie con una estructura relativamente sencilla. Este modelo incorpora un término de diferenciación no estacional, un componente de media móvil para corregir errores recientes, y un término autorregresivo estacional que explica las dependencias anuales. Los criterios de selección, como el AIC, BIC y el análisis de los residuos, respaldaron la elección de este modelo al mostrar valores comparativamente bajos y una estructura de residuos que no indica autocorrelación significativa.
En resumen, el modelo final logra representar adecuadamente las características principales de los datos, incluyendo la estacionalidad anual y las tendencias no estacionarias. Aunque algunos problemas persisten, como la completa normalidad de los residuos, el modelo seleccionado equilibra simplicidad y precisión, y es funcional para generar pronósticos que permitan a las autoridades locales planificar la gestión de los residuos sólidos en el futuro.