El Grupo Nutresa S. A. es la empresa líder en alimentos procesados en Colombia y uno de los jugadores más relevantes del sector en América Latina, con presencia directa en 14 países con 47 plantas de producción, sin embargo para este proyecto se realizó la recopilación de datos de Google Trends donde se obtuvo el interés de búsqueda en relación con el valor máximo para la región de colombia en un periodo comprendido desde noviembre del 2015 hasta noviembre del 2020, donde el valor máximo de los datos es de 100 y el valor mínimo es de 0, además de esto la frecuencia de muestra es semanal para la cual se obtiene tamaño de 260 datos. Al observar la gráfica nos damos cuenta el algunos periodos tiene comportamientos similares, sin embargo se obseran algunos datos atipicos, pues estan muy encima o muy por debajo de las otras observaciones, por ejemplo el ultimo trimestre del periodo dos que corresponde al año 2016, hubo un aumento significativo en el interes de busqueda en Google del grupo Nutresa en Colombia, esto gracias a la crecientes popularidad de la compañia debido a su posicion favorable en los diferentes ranking que la ponian como una de las empresas con mejor reputacion de Colombia.
summary(ycom)
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 10.00 41.00 50.00 52.12 61.25 100.00
Como se puede ver en eltercer recuadro de la gráfica nos muestra la tendencia desde noviembre del 2015 hasta finalizando el 2017 es creciente luego esta tendencia es decreciente hasta mediados del 2018 y finalmente hasta el 2020 no hay tendencia. En el segundo recuadro de la gráfica se puede observar el componente estacional con un perdiodo anual.
El primer modelo escogido tiene tendencia cuadratica y componente estacional de suma de variables indicadora, para el segundo modelo tenemos tendencial cubica y componente estacional de suma de combinaciones seno y coseno.
Se presentan la estimación del modelo 1
##
## Call:
## lm(formula = y ~ t + t2 + It1)
##
## Residuals:
## Min 1Q Median 3Q Max
## -30.791 -7.180 0.685 7.610 30.508
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 45.7967078 5.8203505 7.868 2.80e-13 ***
## t 0.1313857 0.0462683 2.840 0.00502 **
## t2 -0.0009852 0.0001854 -5.315 3.02e-07 ***
## It1S1 17.2863467 7.6774688 2.252 0.02551 *
## It1S2 3.1746638 7.6774964 0.414 0.67971
## It1S3 15.0649514 7.6775418 1.962 0.05122 .
## It1S4 11.5572094 7.6776046 1.505 0.13393
## It1S5 21.0514378 7.6776844 2.742 0.00670 **
## It1S6 19.5476366 7.6777807 2.546 0.01170 *
## It1S7 19.4458059 7.6778933 2.533 0.01214 *
## It1S8 11.7459456 7.6780219 1.530 0.12775
## It1S9 18.8480557 7.6781664 2.455 0.01501 *
## It1S10 9.5521363 7.6783267 1.244 0.21504
## It1S11 9.8581872 7.6785026 1.284 0.20078
## It1S12 14.9662087 7.6786941 1.949 0.05278 .
## It1S13 8.2762005 7.6789012 1.078 0.28252
## It1S14 13.3881628 7.6791241 1.743 0.08290 .
## It1S15 7.1020955 7.6793628 0.925 0.35625
## It1S16 6.6179986 7.6796176 0.862 0.38992
## It1S17 10.5358722 7.6798886 1.372 0.17174
## It1S18 10.2557161 7.6801762 1.335 0.18339
## It1S19 14.3775306 7.6804808 1.872 0.06277 .
## It1S20 15.1013154 7.6808026 1.966 0.05077 .
## It1S21 8.0270707 7.6811423 1.045 0.29736
## It1S22 5.3547964 7.6815002 0.697 0.48660
## It1S23 1.0844925 7.6818769 0.141 0.88788
## It1S24 5.4161591 7.6822732 0.705 0.48167
## It1S25 0.9497961 7.6826895 0.124 0.90174
## It1S26 7.2854035 7.6831267 0.948 0.34423
## It1S27 11.6229813 7.6835855 1.513 0.13204
## It1S28 10.6766489 8.1522257 1.310 0.19192
## It1S29 9.7669365 8.1524138 1.198 0.23242
## It1S30 14.8591944 8.1526011 1.823 0.06996 .
## It1S31 8.7034228 8.1527874 1.068 0.28710
## It1S32 7.5496217 8.1529721 0.926 0.35564
## It1S33 19.8977910 8.1531551 2.441 0.01560 *
## It1S34 26.7479307 8.1533360 3.281 0.00124 **
## It1S35 10.6000408 8.1535149 1.300 0.19518
## It1S36 19.2041213 8.1536914 2.355 0.01955 *
## It1S37 19.5601723 8.1538656 2.399 0.01743 *
## It1S38 11.9181937 8.1540374 1.462 0.14552
## It1S39 15.7781856 8.1542068 1.935 0.05450 .
## It1S40 15.3901478 8.1543740 1.887 0.06066 .
## It1S41 14.2540805 8.1545389 1.748 0.08211 .
## It1S42 4.3699837 8.1547019 0.536 0.59267
## It1S43 6.9878572 8.1548632 0.857 0.39260
## It1S44 15.3577012 8.1550230 1.883 0.06122 .
## It1S45 9.9795156 8.1551816 1.224 0.22260
## It1S46 9.8533005 8.1553394 1.208 0.22850
## It1S47 3.9978230 7.6777090 0.521 0.60319
## It1S48 3.8743175 7.6776172 0.505 0.61442
## It1S49 -4.0472175 7.6775472 -0.527 0.59871
## It1S50 -8.7667821 7.6774980 -1.142 0.25496
## It1S51 1.9156237 7.6774690 0.250 0.80324
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 12.14 on 187 degrees of freedom
## Multiple R-squared: 0.5179, Adjusted R-squared: 0.3813
## F-statistic: 3.79 on 53 and 187 DF, p-value: 1.025e-11
Donde se evidencia los p- valores para el intercepto y para t2 bastante por debajo a 0.05 por lo que se concluye que son muy significativos para el modelo.
Se presenta la estimación del modelo 2
##
## Call:
## lm(formula = y ~ t + t2 + t3 + It2)
##
## Residuals:
## Min 1Q Median 3Q Max
## -24.8491 -6.9982 -0.3261 7.6388 28.6942
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 4.226e+01 2.888e+00 14.634 < 2e-16 ***
## t 8.087e-01 1.028e-01 7.867 1.47e-13 ***
## t2 -7.941e-03 9.841e-04 -8.069 4.09e-14 ***
## t3 1.915e-05 2.674e-06 7.164 1.09e-11 ***
## It2S1-52 -2.436e-01 1.007e+00 -0.242 0.80906
## It2C1-52 5.989e-01 9.923e-01 0.604 0.54676
## It2S2-52 -3.215e+00 9.820e-01 -3.274 0.00123 **
## It2C2-52 -5.363e+00 9.878e-01 -5.429 1.45e-07 ***
## It2S3-52 -9.091e-01 9.828e-01 -0.925 0.35593
## It2C3-52 -1.816e+00 9.840e-01 -1.845 0.06629 .
## It2S4-52 -2.001e+00 9.832e-01 -2.035 0.04299 *
## It2C4-52 2.384e+00 9.796e-01 2.434 0.01572 *
## It2S5-52 3.009e-01 9.788e-01 0.307 0.75882
## It2C5-52 7.418e-01 9.797e-01 0.757 0.44974
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 10.71 on 227 degrees of freedom
## Multiple R-squared: 0.5443, Adjusted R-squared: 0.5182
## F-statistic: 20.86 on 13 and 227 DF, p-value: < 2.2e-16
Donde se evidencia que los p-valores para el intercepto, t ,t2 y t3 bastantes por debajo de 0.05 por lo qese concluye que son muy significativos para el modelo.
## Estimadores modelo_1 modelo_2
## 1 AIC 1936.07070233016 1842.49355635638
## 2 BIC 2127.73453367214 1894.76551035874
## 3 R^2 0.384 0.5169
Con base a la información de la tabla anterior se elige el modelo 2 dado que los estimadores AIC y BIC de este modelo son menores al modelo 1 y el \(R^2\) del modelo 2 es mayor al del modelo 1.
El MAPE de cada uno de los modelos dio el siguiente resultado:
## Mod 1 Mod 2
## ME 1.0104281 -0.5042883
## RMSE 4.1892299 2.4152122
## MAE 1.0104281 0.5361163
## MPE 2.2389358 -1.3005772
## MAPE 2.2389358 1.3668856
## ACF1 0.7629880 0.6818422
## Theil's U 0.3533127 0.2096858
Lo que evidencia que el valor de MAPE más pequeño entre ambos modelos es del modelo 2, por lo que significa que el modelo 2 tiene un ajuste más adecuado que el módelo 1.
Luego se presenta la gráfica de los pronósticos y de los datos observados, para el período de comparación que es desde junio hasta noviembre del 2020.
La linea negra representa los datos reales luego La linea roja representa el pronostico del modelo 1 y la linea azul representa el pronostico del modelo 2 y como se puede ver el modelo que mejor se ajusta a los datos reales es el modelo 2.
Se aplica el método de Holt-Winters a la serie de tiempo y se obtiene lo siguiente:
Ahora se presenta la predicción de los datos de la serie de tiempo utilizando el filtro de Hot-Winters que esta de color amarillo, el modelo 1 en rojo y el modelo 2 en azul:
se reporta el MAPE del método Holt-winters:
## ME RMSE MAE MPE MAPE ACF1
## Test set 0.05104964 1.613321 0.347514 0.0193793 0.8617733 -0.001662032
## Theil's U
## Test set 0.1333129
lo que nos muestra un MAPE de 0.8633287 que es más pequeño que los valores MAPE de los dos modelos anteriores por lo que el método Holt-winters esta más ajustado que los otros dos.
yw=loess(y ~ t, control = loess.control(surface = "direct"))
# guardar los valores de la tendencia estimada
Tt = ts(yw$fitted,frequency = 52,start = c(2015,47))
w13 = c(-0.019, -0.028, 0.0, 0.066, 0.147, 0.214, 0.240, 0.214, 0.147, 0.066, 0.0, -0.028, -0.019)
m.r = na.omit(filter(y,w13,"convolution",2,F,NULL))
plot(ycom,col="black",type="o")
lines(m.r,col="red")
lines(Tt,col="blue")
Las diferencias que se pueden ver de las gráficas es que la tendencia del modelo de regresión esta de color azul es más suavizada siguiendo la tendecia de la serie y la media movil m.r que esta de color rojo tiene muchos más cambios que la tendecia del modelo de regresión pero esta captura mucho mejor la tendencia de la serie.
Se define el vector de incrementos porcentuales que es el siguiente:
## [1] 0.1207372090 0.0843031020 0.0574801626 0.0250232930 -0.0080671341
## [6] -0.0325964229 -0.0322908033 -0.0074812096 0.0273326054 0.0504679947
## [11] 0.0562355168 0.0383165441 0.0030504137 -0.0281119732 -0.0394266874
## [16] -0.0347682382 -0.0183560246 -0.0098611391 -0.0172425474 -0.0306952535
## [21] -0.0362546896 -0.0232279252 -0.0047220596 0.0171180233 0.0255807445
## [26] 0.0142997489 -0.0114794088 -0.0145340398 -0.0010310987 0.0158142107
## [31] 0.0251120425 0.0167442519 -0.0064585763 -0.0248633305 -0.0164770992
## [36] 0.0187262496 0.0471476480 0.0530570303 0.0379423627 0.0181444979
## [41] -0.0046938242 -0.0127098989 -0.0158491512 -0.0241406747 -0.0247541705
## [46] -0.0258841234 -0.0162555573 -0.0103995812 0.0107028247 0.0243889674
## [51] 0.0258349086 0.0246198287 0.0183249891 0.0068098648 -0.0045197383
## [56] -0.0079533909 -0.0068169816 0.0074115846 0.0274130348 0.0372203801
## [61] 0.0357196458 0.0092015650 -0.0189245459 -0.0399549227 -0.0294068326
## [66] 0.0059056355 0.0439853850 0.0579859709 0.0353982301 -0.0026487534
## [71] -0.0410141277 -0.0636669902 -0.0750396390 -0.0463326191 0.0031282946
## [76] 0.0457443143 0.0633165829 0.0394186371 0.0078560568 0.0011241107
## [81] 0.0219841915 0.0543709251 0.0797433296 0.0850285714 0.0612316551
## [86] 0.0200379364 -0.0211903346 -0.0548958966 -0.0741541518 -0.0682277203
## [91] -0.0401544402 -0.0167111262 -0.0063014053 -0.0040734963 -0.0089780408
## [96] -0.0221288802 -0.0377909152 -0.0506299580 -0.0435487835 -0.0236394470
## [101] 0.0072986298 0.0272412171 0.0399816878 0.0490747534 0.0572849483
## [106] 0.0488453793 0.0326260616 0.0314323715 0.0219479460 -0.0133134190
## [111] -0.0544811567 -0.0836082090 -0.0911459510 -0.0848592308 -0.0613479158
## [116] -0.0384852811 -0.0225508095 -0.0096266344 -0.0083108808 -0.0136053000
## [121] -0.0129666511 -0.0059245267 -0.0357374217 -0.0846713694 -0.1137642511
## [126] -0.0985534452 -0.0544803087 0.0404210526 0.1386856769 0.1614084969
## [131] 0.1371639753 0.1013682751 0.0515543360 0.0014298736 -0.0293419479
## [136] -0.0432104441 -0.0484097242 -0.0301316746 0.0012077295 0.0164094672
## [141] 0.0037650140 -0.0106818877 -0.0366569821 -0.0509710815 -0.0356329870
## [146] -0.0015424885 0.0185618651 0.0152591061 -0.0071300844 -0.0613943097
## [151] -0.0917636200 -0.0682213248 -0.0044486539 0.0599936576 0.0793080940
## [156] 0.0629472835 0.0492627187 0.0492544058 0.0448751077 0.0357142857
## [161] 0.0228823845 0.0109518159 -0.0038676159 -0.0353107072 -0.0489377465
## [166] -0.0489925680 -0.0541731238 -0.0569716546 -0.0521234084 -0.0201890597
## [171] 0.0294777914 0.0698579995 0.0792487625 0.0541616080 0.0248256446
## [176] -0.0012486733 -0.0254839449 -0.0564060896 -0.0553591661 -0.0349749322
## [181] -0.0023614805 0.0350077241 0.0409976167 0.0303639980 0.0106160925
## [186] -0.0004441681 0.0057100960 0.0362531757 0.0633394448 0.0639372857
## [191] 0.0403082953 -0.0021193732 -0.0469067674 -0.0725278074 -0.0759610646
## [196] -0.0750272240 -0.0618197545 -0.0188742061 0.0145650074 0.0230003345
## [201] -0.0078464905 -0.0660566272 -0.1214547428 -0.1393265369 -0.0987796123
## [206] -0.0197546599 0.0890216155 0.1784874827 0.1848861874 0.1332193336
## [211] 0.0908447882 0.0540353607 0.0232334003 -0.0046293513 -0.0454215994
## [216] -0.0773643803 -0.0777478054 -0.0575564534 -0.0185423845 0.0039929253
## [221] 0.0139330041 0.0092400032 0.0041212374 -0.0016625104 0.0007545795
## [226] -0.0042380593 -0.0071283096 -0.0138593031
y se cálcula el promedio del vector de incrementos porcentuales:
## [1] 0.0003174753
Se usa la descomposición clásica para observar la existencia de estacionalidad y tendencia, a diferencia del stl que fue usado en la parte anterior, donde observamos la qué serie tiene una tendencia creciente en los primeros períodos, luego alcanza un máximo y comienza a decrecer, además de una estacionalidad marcada, alcanzando mínimos muy cerca a la temporada de diciembre.
Veamos si es necesario sacarle logaritmo a la serie.
Como el valor se acerca mucho a 1, no se requiere realizar una transformación logarítmica de la serie por lo tanto no es necesario eliminar la tendencia pues es aproximadamente lineal.
Se tomarán los modelos calculados anteriormente para generar un diagnóstico de los modelos.
Se realizará un análisis residual del modelo 1, para verificar cuales son los que generan la inconsistencias del modelo, ya que además deben ser normalizados.
Despues de obtener los resultados nos damos cuenta que la
En el grafico anterior observamos como
##
## Shapiro-Wilk normality test
##
## data: rstudent(modelo1)
## W = 0.99505, p-value = 0.6281
Se realiza la prueba de Normalidad de Shapiro-Wilk para analizar la normalidad del componente estocástico, y como el p-value es mayor que 0.05 entonces no se rechaza la hipótesis nula \(H_0\), por lo tanto el componente estocástico esta normalmente distribuido.
El correlograma es un gráfico que nos permite analizar los errores estándar de las series de tiempo, además de tener un criterio de comparación respecto a otros procedimientos, en este sentido podemos observar como la mayoría de componentes no se comportan de la manera esperada.
##
## Shapiro-Wilk normality test
##
## data: rstudent(modelo2)
## W = 0.99552, p-value = 0.7121
Para el segundo modelo el p-value es también es mayor que 0.05 entonces no se rechaza la hipótesis nula \(H_0\), por lo tanto el componente estocástico esta normalmente distribuido.
A diferencia del correlograma anterior, podemos observar como las componentes tienen un mejor comportamiento a lo esperado, es decir que tenemos menos errores que en el procedimiento anterior.
#Eliminación de estacionalidad Para eliminar la estacionalidad de una serie semanal se pueden tomar diferencias estacionales de orden 52. Si \(x_t\) s la serie que queremos desestacionalizar, se trata de calcular delta \({12}x_t=x_t−x_{t−12}\) En este sentido se calcula la primera diferencia.
La prueba de Dickey - Fuller es un test que nos permite saber si el conjunto de datos son estacionarios o no, en esta ocasión se aplica la prueba DFA para las primeras diferencias de la serie original.
##
## ###############################################
## # Augmented Dickey-Fuller Test Unit Root Test #
## ###############################################
##
## Test regression none
##
##
## Call:
## lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag)
##
## Residuals:
## Min 1Q Median 3Q Max
## -48.692 -9.821 -2.340 8.003 39.249
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## z.lag.1 -0.29341 0.05910 -4.964 1.45e-06 ***
## z.diff.lag -0.22983 0.06785 -3.387 0.000847 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 14.53 on 204 degrees of freedom
## Multiple R-squared: 0.2354, Adjusted R-squared: 0.2279
## F-statistic: 31.41 on 2 and 204 DF, p-value: 1.283e-12
##
##
## Value of test-statistic is: -4.9644
##
## Critical values for test statistics:
## 1pct 5pct 10pct
## tau1 -2.58 -1.95 -1.62
Se realiza primera diferencia de la base de datos original, sin embargo se rechaza \(H_0\) puesto que el p-value es menor que 0.05, en este sentido se asume hipótesis alterna donde la primera diferencia de la serie es estacionaria.
En las funciones que se mostrarán a continuación, se mostrará los niveles de integración en los que podremos inferir los procesos AR, MA.
La primera gráfica corresponde a la primera diferencia de la serie original, y los dos gráficos siguientes a la Autocorrelación y Autocorrelación Parcial respectivamente, los cuales sugieren que debemos realizar modelos MA(1) con un MA(2) y un AR(1) con un AR(1).
Ahora veamos la función de Autocorrelación Extendida.
## AR/MA
## 0 1 2 3 4 5 6 7 8 9 10 11 12 13
## 0 x x x x x x x x x x x x x x
## 1 x o o o o o x x x o o o o o
## 2 x o o o o o o x o o o o o o
## 3 x x o o o o o x o o o o o o
## 4 x x o o o o o o o o o o o o
## 5 x x o o o o o o o o o o o o
## 6 x o o o o o o o o o o o o o
## 7 x o x x x x x o o o o o o o
la cual nos indica que debemos realizar un modelo AR(1) MA(1)
A continuación se realizarán las propuestas de los modelos que mejor se van a desarrollar, posteriormente se desarrollará un Auto-ARIMA, para evaluar los modelos individualmente estimados, y determinar que se ajusten a los parámetros deseados.
## Series: Serie_Diff
## ARIMA(0,2,0)(1,0,0)[52]
##
## Coefficients:
## sar1
## -0.4292
## s.e. 0.0651
##
## sigma^2 estimated as 608.6: log likelihood=-957.45
## AIC=1918.89 AICc=1918.95 BIC=1925.55
## Series: Serie_Diff
## ARIMA(1,0,0)(1,0,0)[52] with non-zero mean
##
## Coefficients:
## ar1 sar1 mean
## 0.5890 -0.4744 -5.2895
## s.e. 0.0561 0.0626 1.6082
##
## sigma^2 estimated as 168.9: log likelihood=-833.92
## AIC=1675.83 AICc=1676.03 BIC=1689.18
## Series: Serie_Diff
## ARIMA(1,0,1)(1,0,1)[52] with non-zero mean
##
## Coefficients:
## ar1 ma1 sar1 sma1 mean
## 0.9702 -0.7332 0.0232 -0.9991 -2.9673
## s.e. 0.0283 0.0732 0.0858 0.4129 3.1841
##
## sigma^2 estimated as 96.88: log likelihood=-809.4
## AIC=1630.81 AICc=1631.23 BIC=1650.83
Como parte del diagnostico del modelo se analizaran los residuos del modelo y posterior a esto se aplicará la prueba Ljung-Box.
##
## Ljung-Box test
##
## data: Residuals from ARIMA(0,2,0)(1,0,0)[52]
## Q* = 176.75, df = 41, p-value < 2.2e-16
##
## Model df: 1. Total lags used: 42
##
## Ljung-Box test
##
## data: Residuals from ARIMA(1,0,0)(1,0,0)[52] with non-zero mean
## Q* = 100.81, df = 39, p-value = 2.256e-07
##
## Model df: 3. Total lags used: 42
##
## Ljung-Box test
##
## data: Residuals from ARIMA(1,0,1)(1,0,1)[52] with non-zero mean
## Q* = 42.891, df = 37, p-value = 0.2333
##
## Model df: 5. Total lags used: 42
En esta última propuesta se cumple con todo lo necesario para que el modelo se bueno, pues el p-value es 0.2333 por lo que se rechaza hipótesis nula \(H_0\) y se asume la hipótesis alterna, además de que los rezagos son estables saliendo por muy poco de la zona de aceptación.
## Series: Serie_Diff
## ARIMA(0,1,1)(1,0,0)[52]
##
## Coefficients:
## ma1 sar1
## -0.7531 -0.5176
## s.e. 0.0502 0.0590
##
## sigma^2 estimated as 141.9: log likelihood=-814.07
## AIC=1634.15 AICc=1634.26 BIC=1644.14
##
## Ljung-Box test
##
## data: Residuals from ARIMA(0,1,1)(1,0,0)[52]
## Q* = 41.252, df = 40, p-value = 0.4157
##
## Model df: 2. Total lags used: 42
Analizando la función vemos que los rezagos se ajustan mucho mejor que los modelos anteriormente estimados, y se rechaza la hipótesis nula \(H_0\) asumiendo la hipótesis alterna.
Finalmente se escoge la ARIMA(0,1,1)(1,0,0)[52] .
## Series: Serie_Nutresa
## ARIMA(0,1,1)(1,0,0)[52]
##
## Coefficients:
## ma1 sar1
## -0.6579 0.1493
## s.e. 0.0595 0.0651
##
## sigma^2 estimated as 110: log likelihood=-976.05
## AIC=1958.1 AICc=1958.19 BIC=1968.77
library(gridExtra)
p1 <- autoplot(Serie_Nutresa,xlab = "Tiempo",ylab="Numero de Visualizacion")+ggtitle("Serie Original")
p2 <- autoplot(forecast(Serie_Nutresa),ylab="Numero de Visualizacion",xlab="Pronosticadas")+ggtitle("Serie Pronosticada")
grid.arrange(p1,p2,nrow=2)
Una vez observamos los datos y el conjunto de entrenamiento nos vamos cuenta que aunque no se aproximen de la mejor manera dan un buen rango de estimación.
Finalmente, podemos concluir que la serie de tiempo de interés de buscada de la empresa Nutre S.A en google, tenía una tendencia suave por lo que no fue un problema a la hora de tratar los datos, la tendencia lineal de los mismos favorece los cálculos del proyecto para la estimación de valores futuros, sin embargo deja en evidencia que la búsqueda de los Colombianos de dicha empresa disminuye conforme pasa el tiempo, esto gracias a últimamente no ha sido muy mencionada en el país, debido a que alcanza un punto de equlibrio. Además de esto cabe resaltar que es una serie que presenta estacionalidad por lo que mantiene un patrón marcado de búsqueda por periodos, para lo que se realizo una diferenciación de la serie, para la eliminación de la estacionalidad.
Los modelos aqui propuestos permiten evidenciar que los datos tienen un compotamiento diferente para los ultimos periodos de tiempo, esto se debe a diferentes factores como la llegada del Covid-19 que hace que los Colombianos tengan otros intereces de busqueda, por otro lado cabe destacar la consistencia de la empresa Nutresa en el mercado, puesto que conserva una excelente reputacion a pesar de la situacion por las que estamos pasando en Colombia y el mundo.