1.

El Grupo Nutresa S. A. es la empresa líder en alimentos procesados en Colombia y uno de los jugadores más relevantes del sector en América Latina, con presencia directa en 14 países con 47 plantas de producción, sin embargo para este proyecto se realizó la recopilación de datos de Google Trends donde se obtuvo el interés de búsqueda en relación con el valor máximo para la región de colombia en un periodo comprendido desde noviembre del 2015 hasta noviembre del 2020, donde el valor máximo de los datos es de 100 y el valor mínimo es de 0, además de esto la frecuencia de muestra es semanal para la cual se obtiene tamaño de 260 datos. Al observar la gráfica nos damos cuenta el algunos periodos tiene comportamientos similares, sin embargo se obseran algunos datos atipicos, pues estan muy encima o muy por debajo de las otras observaciones, por ejemplo el ultimo trimestre del periodo dos que corresponde al año 2016, hubo un aumento significativo en el interes de busqueda en Google del grupo Nutresa en Colombia, esto gracias a la crecientes popularidad de la compañia debido a su posicion favorable en los diferentes ranking que la ponian como una de las empresas con mejor reputacion de Colombia.

summary(ycom)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##   10.00   41.00   50.00   52.12   61.25  100.00

2.

Como se puede ver en eltercer recuadro de la gráfica nos muestra la tendencia desde noviembre del 2015 hasta finalizando el 2017 es creciente luego esta tendencia es decreciente hasta mediados del 2018 y finalmente hasta el 2020 no hay tendencia. En el segundo recuadro de la gráfica se puede observar el componente estacional con un perdiodo anual.

3.

El primer modelo escogido tiene tendencia cuadratica y componente estacional de suma de variables indicadora, para el segundo modelo tenemos tendencial cubica y componente estacional de suma de combinaciones seno y coseno.

4.

Modelo 1

Se presentan la estimación del modelo 1

## 
## Call:
## lm(formula = y ~ t + t2 + It1)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -30.791  -7.180   0.685   7.610  30.508 
## 
## Coefficients:
##               Estimate Std. Error t value Pr(>|t|)    
## (Intercept) 45.7967078  5.8203505   7.868 2.80e-13 ***
## t            0.1313857  0.0462683   2.840  0.00502 ** 
## t2          -0.0009852  0.0001854  -5.315 3.02e-07 ***
## It1S1       17.2863467  7.6774688   2.252  0.02551 *  
## It1S2        3.1746638  7.6774964   0.414  0.67971    
## It1S3       15.0649514  7.6775418   1.962  0.05122 .  
## It1S4       11.5572094  7.6776046   1.505  0.13393    
## It1S5       21.0514378  7.6776844   2.742  0.00670 ** 
## It1S6       19.5476366  7.6777807   2.546  0.01170 *  
## It1S7       19.4458059  7.6778933   2.533  0.01214 *  
## It1S8       11.7459456  7.6780219   1.530  0.12775    
## It1S9       18.8480557  7.6781664   2.455  0.01501 *  
## It1S10       9.5521363  7.6783267   1.244  0.21504    
## It1S11       9.8581872  7.6785026   1.284  0.20078    
## It1S12      14.9662087  7.6786941   1.949  0.05278 .  
## It1S13       8.2762005  7.6789012   1.078  0.28252    
## It1S14      13.3881628  7.6791241   1.743  0.08290 .  
## It1S15       7.1020955  7.6793628   0.925  0.35625    
## It1S16       6.6179986  7.6796176   0.862  0.38992    
## It1S17      10.5358722  7.6798886   1.372  0.17174    
## It1S18      10.2557161  7.6801762   1.335  0.18339    
## It1S19      14.3775306  7.6804808   1.872  0.06277 .  
## It1S20      15.1013154  7.6808026   1.966  0.05077 .  
## It1S21       8.0270707  7.6811423   1.045  0.29736    
## It1S22       5.3547964  7.6815002   0.697  0.48660    
## It1S23       1.0844925  7.6818769   0.141  0.88788    
## It1S24       5.4161591  7.6822732   0.705  0.48167    
## It1S25       0.9497961  7.6826895   0.124  0.90174    
## It1S26       7.2854035  7.6831267   0.948  0.34423    
## It1S27      11.6229813  7.6835855   1.513  0.13204    
## It1S28      10.6766489  8.1522257   1.310  0.19192    
## It1S29       9.7669365  8.1524138   1.198  0.23242    
## It1S30      14.8591944  8.1526011   1.823  0.06996 .  
## It1S31       8.7034228  8.1527874   1.068  0.28710    
## It1S32       7.5496217  8.1529721   0.926  0.35564    
## It1S33      19.8977910  8.1531551   2.441  0.01560 *  
## It1S34      26.7479307  8.1533360   3.281  0.00124 ** 
## It1S35      10.6000408  8.1535149   1.300  0.19518    
## It1S36      19.2041213  8.1536914   2.355  0.01955 *  
## It1S37      19.5601723  8.1538656   2.399  0.01743 *  
## It1S38      11.9181937  8.1540374   1.462  0.14552    
## It1S39      15.7781856  8.1542068   1.935  0.05450 .  
## It1S40      15.3901478  8.1543740   1.887  0.06066 .  
## It1S41      14.2540805  8.1545389   1.748  0.08211 .  
## It1S42       4.3699837  8.1547019   0.536  0.59267    
## It1S43       6.9878572  8.1548632   0.857  0.39260    
## It1S44      15.3577012  8.1550230   1.883  0.06122 .  
## It1S45       9.9795156  8.1551816   1.224  0.22260    
## It1S46       9.8533005  8.1553394   1.208  0.22850    
## It1S47       3.9978230  7.6777090   0.521  0.60319    
## It1S48       3.8743175  7.6776172   0.505  0.61442    
## It1S49      -4.0472175  7.6775472  -0.527  0.59871    
## It1S50      -8.7667821  7.6774980  -1.142  0.25496    
## It1S51       1.9156237  7.6774690   0.250  0.80324    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 12.14 on 187 degrees of freedom
## Multiple R-squared:  0.5179, Adjusted R-squared:  0.3813 
## F-statistic:  3.79 on 53 and 187 DF,  p-value: 1.025e-11

Donde se evidencia los p- valores para el intercepto y para t2 bastante por debajo a 0.05 por lo que se concluye que son muy significativos para el modelo.

Modelo 2

Se presenta la estimación del modelo 2

## 
## Call:
## lm(formula = y ~ t + t2 + t3 + It2)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -24.8491  -6.9982  -0.3261   7.6388  28.6942 
## 
## Coefficients:
##               Estimate Std. Error t value Pr(>|t|)    
## (Intercept)  4.226e+01  2.888e+00  14.634  < 2e-16 ***
## t            8.087e-01  1.028e-01   7.867 1.47e-13 ***
## t2          -7.941e-03  9.841e-04  -8.069 4.09e-14 ***
## t3           1.915e-05  2.674e-06   7.164 1.09e-11 ***
## It2S1-52    -2.436e-01  1.007e+00  -0.242  0.80906    
## It2C1-52     5.989e-01  9.923e-01   0.604  0.54676    
## It2S2-52    -3.215e+00  9.820e-01  -3.274  0.00123 ** 
## It2C2-52    -5.363e+00  9.878e-01  -5.429 1.45e-07 ***
## It2S3-52    -9.091e-01  9.828e-01  -0.925  0.35593    
## It2C3-52    -1.816e+00  9.840e-01  -1.845  0.06629 .  
## It2S4-52    -2.001e+00  9.832e-01  -2.035  0.04299 *  
## It2C4-52     2.384e+00  9.796e-01   2.434  0.01572 *  
## It2S5-52     3.009e-01  9.788e-01   0.307  0.75882    
## It2C5-52     7.418e-01  9.797e-01   0.757  0.44974    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 10.71 on 227 degrees of freedom
## Multiple R-squared:  0.5443, Adjusted R-squared:  0.5182 
## F-statistic: 20.86 on 13 and 227 DF,  p-value: < 2.2e-16

Donde se evidencia que los p-valores para el intercepto, t ,t2 y t3 bastantes por debajo de 0.05 por lo qese concluye que son muy significativos para el modelo.

5.

##   Estimadores         modelo_1         modelo_2
## 1         AIC 1936.07070233016 1842.49355635638
## 2         BIC 2127.73453367214 1894.76551035874
## 3         R^2            0.384           0.5169

Con base a la información de la tabla anterior se elige el modelo 2 dado que los estimadores AIC y BIC de este modelo son menores al modelo 1 y el \(R^2\) del modelo 2 es mayor al del modelo 1.

6.

El MAPE de cada uno de los modelos dio el siguiente resultado:

##               Mod 1      Mod 2
## ME        1.0104281 -0.5042883
## RMSE      4.1892299  2.4152122
## MAE       1.0104281  0.5361163
## MPE       2.2389358 -1.3005772
## MAPE      2.2389358  1.3668856
## ACF1      0.7629880  0.6818422
## Theil's U 0.3533127  0.2096858

Lo que evidencia que el valor de MAPE más pequeño entre ambos modelos es del modelo 2, por lo que significa que el modelo 2 tiene un ajuste más adecuado que el módelo 1.

Luego se presenta la gráfica de los pronósticos y de los datos observados, para el período de comparación que es desde junio hasta noviembre del 2020.

La linea negra representa los datos reales luego La linea roja representa el pronostico del modelo 1 y la linea azul representa el pronostico del modelo 2 y como se puede ver el modelo que mejor se ajusta a los datos reales es el modelo 2.

7

Se aplica el método de Holt-Winters a la serie de tiempo y se obtiene lo siguiente:

Ahora se presenta la predicción de los datos de la serie de tiempo utilizando el filtro de Hot-Winters que esta de color amarillo, el modelo 1 en rojo y el modelo 2 en azul:

se reporta el MAPE del método Holt-winters:

##                  ME     RMSE      MAE       MPE      MAPE         ACF1
## Test set 0.05104964 1.613321 0.347514 0.0193793 0.8617733 -0.001662032
##          Theil's U
## Test set 0.1333129

lo que nos muestra un MAPE de 0.8633287 que es más pequeño que los valores MAPE de los dos modelos anteriores por lo que el método Holt-winters esta más ajustado que los otros dos.

8.

yw=loess(y ~ t, control = loess.control(surface = "direct"))
# guardar los valores de la tendencia estimada
Tt = ts(yw$fitted,frequency = 52,start = c(2015,47))
w13 = c(-0.019, -0.028, 0.0, 0.066, 0.147, 0.214, 0.240, 0.214, 0.147, 0.066, 0.0, -0.028, -0.019)
m.r = na.omit(filter(y,w13,"convolution",2,F,NULL))
plot(ycom,col="black",type="o")
lines(m.r,col="red")
lines(Tt,col="blue")

Las diferencias que se pueden ver de las gráficas es que la tendencia del modelo de regresión esta de color azul es más suavizada siguiendo la tendecia de la serie y la media movil m.r que esta de color rojo tiene muchos más cambios que la tendecia del modelo de regresión pero esta captura mucho mejor la tendencia de la serie.

Se define el vector de incrementos porcentuales que es el siguiente:

##   [1]  0.1207372090  0.0843031020  0.0574801626  0.0250232930 -0.0080671341
##   [6] -0.0325964229 -0.0322908033 -0.0074812096  0.0273326054  0.0504679947
##  [11]  0.0562355168  0.0383165441  0.0030504137 -0.0281119732 -0.0394266874
##  [16] -0.0347682382 -0.0183560246 -0.0098611391 -0.0172425474 -0.0306952535
##  [21] -0.0362546896 -0.0232279252 -0.0047220596  0.0171180233  0.0255807445
##  [26]  0.0142997489 -0.0114794088 -0.0145340398 -0.0010310987  0.0158142107
##  [31]  0.0251120425  0.0167442519 -0.0064585763 -0.0248633305 -0.0164770992
##  [36]  0.0187262496  0.0471476480  0.0530570303  0.0379423627  0.0181444979
##  [41] -0.0046938242 -0.0127098989 -0.0158491512 -0.0241406747 -0.0247541705
##  [46] -0.0258841234 -0.0162555573 -0.0103995812  0.0107028247  0.0243889674
##  [51]  0.0258349086  0.0246198287  0.0183249891  0.0068098648 -0.0045197383
##  [56] -0.0079533909 -0.0068169816  0.0074115846  0.0274130348  0.0372203801
##  [61]  0.0357196458  0.0092015650 -0.0189245459 -0.0399549227 -0.0294068326
##  [66]  0.0059056355  0.0439853850  0.0579859709  0.0353982301 -0.0026487534
##  [71] -0.0410141277 -0.0636669902 -0.0750396390 -0.0463326191  0.0031282946
##  [76]  0.0457443143  0.0633165829  0.0394186371  0.0078560568  0.0011241107
##  [81]  0.0219841915  0.0543709251  0.0797433296  0.0850285714  0.0612316551
##  [86]  0.0200379364 -0.0211903346 -0.0548958966 -0.0741541518 -0.0682277203
##  [91] -0.0401544402 -0.0167111262 -0.0063014053 -0.0040734963 -0.0089780408
##  [96] -0.0221288802 -0.0377909152 -0.0506299580 -0.0435487835 -0.0236394470
## [101]  0.0072986298  0.0272412171  0.0399816878  0.0490747534  0.0572849483
## [106]  0.0488453793  0.0326260616  0.0314323715  0.0219479460 -0.0133134190
## [111] -0.0544811567 -0.0836082090 -0.0911459510 -0.0848592308 -0.0613479158
## [116] -0.0384852811 -0.0225508095 -0.0096266344 -0.0083108808 -0.0136053000
## [121] -0.0129666511 -0.0059245267 -0.0357374217 -0.0846713694 -0.1137642511
## [126] -0.0985534452 -0.0544803087  0.0404210526  0.1386856769  0.1614084969
## [131]  0.1371639753  0.1013682751  0.0515543360  0.0014298736 -0.0293419479
## [136] -0.0432104441 -0.0484097242 -0.0301316746  0.0012077295  0.0164094672
## [141]  0.0037650140 -0.0106818877 -0.0366569821 -0.0509710815 -0.0356329870
## [146] -0.0015424885  0.0185618651  0.0152591061 -0.0071300844 -0.0613943097
## [151] -0.0917636200 -0.0682213248 -0.0044486539  0.0599936576  0.0793080940
## [156]  0.0629472835  0.0492627187  0.0492544058  0.0448751077  0.0357142857
## [161]  0.0228823845  0.0109518159 -0.0038676159 -0.0353107072 -0.0489377465
## [166] -0.0489925680 -0.0541731238 -0.0569716546 -0.0521234084 -0.0201890597
## [171]  0.0294777914  0.0698579995  0.0792487625  0.0541616080  0.0248256446
## [176] -0.0012486733 -0.0254839449 -0.0564060896 -0.0553591661 -0.0349749322
## [181] -0.0023614805  0.0350077241  0.0409976167  0.0303639980  0.0106160925
## [186] -0.0004441681  0.0057100960  0.0362531757  0.0633394448  0.0639372857
## [191]  0.0403082953 -0.0021193732 -0.0469067674 -0.0725278074 -0.0759610646
## [196] -0.0750272240 -0.0618197545 -0.0188742061  0.0145650074  0.0230003345
## [201] -0.0078464905 -0.0660566272 -0.1214547428 -0.1393265369 -0.0987796123
## [206] -0.0197546599  0.0890216155  0.1784874827  0.1848861874  0.1332193336
## [211]  0.0908447882  0.0540353607  0.0232334003 -0.0046293513 -0.0454215994
## [216] -0.0773643803 -0.0777478054 -0.0575564534 -0.0185423845  0.0039929253
## [221]  0.0139330041  0.0092400032  0.0041212374 -0.0016625104  0.0007545795
## [226] -0.0042380593 -0.0071283096 -0.0138593031

y se cálcula el promedio del vector de incrementos porcentuales:

## [1] 0.0003174753

Parte 2: Análisis ARMA

Se usa la descomposición clásica para observar la existencia de estacionalidad y tendencia, a diferencia del stl que fue usado en la parte anterior, donde observamos la qué serie tiene una tendencia creciente en los primeros períodos, luego alcanza un máximo y comienza a decrecer, además de una estacionalidad marcada, alcanzando mínimos muy cerca a la temporada de diciembre.

Veamos si es necesario sacarle logaritmo a la serie.

Como el valor se acerca mucho a 1, no se requiere realizar una transformación logarítmica de la serie por lo tanto no es necesario eliminar la tendencia pues es aproximadamente lineal.

Análisis de los Modelos

Se tomarán los modelos calculados anteriormente para generar un diagnóstico de los modelos.

Diagnóstico del Modelo 1

Se realizará un análisis residual del modelo 1, para verificar cuales son los que generan la inconsistencias del modelo, ya que además deben ser normalizados.

Despues de obtener los resultados nos damos cuenta que la

En el grafico anterior observamos como

## 
##  Shapiro-Wilk normality test
## 
## data:  rstudent(modelo1)
## W = 0.99505, p-value = 0.6281

Se realiza la prueba de Normalidad de Shapiro-Wilk para analizar la normalidad del componente estocástico, y como el p-value es mayor que 0.05 entonces no se rechaza la hipótesis nula \(H_0\), por lo tanto el componente estocástico esta normalmente distribuido.

El correlograma es un gráfico que nos permite analizar los errores estándar de las series de tiempo, además de tener un criterio de comparación respecto a otros procedimientos, en este sentido podemos observar como la mayoría de componentes no se comportan de la manera esperada.

Diagnostico del Modelo 2

## 
##  Shapiro-Wilk normality test
## 
## data:  rstudent(modelo2)
## W = 0.99552, p-value = 0.7121

Para el segundo modelo el p-value es también es mayor que 0.05 entonces no se rechaza la hipótesis nula \(H_0\), por lo tanto el componente estocástico esta normalmente distribuido.

A diferencia del correlograma anterior, podemos observar como las componentes tienen un mejor comportamiento a lo esperado, es decir que tenemos menos errores que en el procedimiento anterior.

#Eliminación de estacionalidad Para eliminar la estacionalidad de una serie semanal se pueden tomar diferencias estacionales de orden 52. Si \(x_t\) s la serie que queremos desestacionalizar, se trata de calcular delta \({12}x_t=x_t−x_{t−12}\) En este sentido se calcula la primera diferencia.

Prueba de Dickey-Fuller-Aumentada (DFA)

La prueba de Dickey - Fuller es un test que nos permite saber si el conjunto de datos son estacionarios o no, en esta ocasión se aplica la prueba DFA para las primeras diferencias de la serie original.

## 
## ############################################### 
## # Augmented Dickey-Fuller Test Unit Root Test # 
## ############################################### 
## 
## Test regression none 
## 
## 
## Call:
## lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -48.692  -9.821  -2.340   8.003  39.249 
## 
## Coefficients:
##            Estimate Std. Error t value Pr(>|t|)    
## z.lag.1    -0.29341    0.05910  -4.964 1.45e-06 ***
## z.diff.lag -0.22983    0.06785  -3.387 0.000847 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 14.53 on 204 degrees of freedom
## Multiple R-squared:  0.2354, Adjusted R-squared:  0.2279 
## F-statistic: 31.41 on 2 and 204 DF,  p-value: 1.283e-12
## 
## 
## Value of test-statistic is: -4.9644 
## 
## Critical values for test statistics: 
##       1pct  5pct 10pct
## tau1 -2.58 -1.95 -1.62

Se realiza primera diferencia de la base de datos original, sin embargo se rechaza \(H_0\) puesto que el p-value es menor que 0.05, en este sentido se asume hipótesis alterna donde la primera diferencia de la serie es estacionaria.

Se usa Autocorrelacion(ACF), Autocorrelacion Parcial (PACF), Autocorrelacion Extendida (EACF) y criterios de Akaike/Bayes

En las funciones que se mostrarán a continuación, se mostrará los niveles de integración en los que podremos inferir los procesos AR, MA.

La primera gráfica corresponde a la primera diferencia de la serie original, y los dos gráficos siguientes a la Autocorrelación y Autocorrelación Parcial respectivamente, los cuales sugieren que debemos realizar modelos MA(1) con un MA(2) y un AR(1) con un AR(1).

Ahora veamos la función de Autocorrelación Extendida.

## AR/MA
##   0 1 2 3 4 5 6 7 8 9 10 11 12 13
## 0 x x x x x x x x x x x  x  x  x 
## 1 x o o o o o x x x o o  o  o  o 
## 2 x o o o o o o x o o o  o  o  o 
## 3 x x o o o o o x o o o  o  o  o 
## 4 x x o o o o o o o o o  o  o  o 
## 5 x x o o o o o o o o o  o  o  o 
## 6 x o o o o o o o o o o  o  o  o 
## 7 x o x x x x x o o o o  o  o  o

la cual nos indica que debemos realizar un modelo AR(1) MA(1)

Propuestas de modelo

A continuación se realizarán las propuestas de los modelos que mejor se van a desarrollar, posteriormente se desarrollará un Auto-ARIMA, para evaluar los modelos individualmente estimados, y determinar que se ajusten a los parámetros deseados.

## Series: Serie_Diff 
## ARIMA(0,2,0)(1,0,0)[52] 
## 
## Coefficients:
##          sar1
##       -0.4292
## s.e.   0.0651
## 
## sigma^2 estimated as 608.6:  log likelihood=-957.45
## AIC=1918.89   AICc=1918.95   BIC=1925.55
## Series: Serie_Diff 
## ARIMA(1,0,0)(1,0,0)[52] with non-zero mean 
## 
## Coefficients:
##          ar1     sar1     mean
##       0.5890  -0.4744  -5.2895
## s.e.  0.0561   0.0626   1.6082
## 
## sigma^2 estimated as 168.9:  log likelihood=-833.92
## AIC=1675.83   AICc=1676.03   BIC=1689.18
## Series: Serie_Diff 
## ARIMA(1,0,1)(1,0,1)[52] with non-zero mean 
## 
## Coefficients:
##          ar1      ma1    sar1     sma1     mean
##       0.9702  -0.7332  0.0232  -0.9991  -2.9673
## s.e.  0.0283   0.0732  0.0858   0.4129   3.1841
## 
## sigma^2 estimated as 96.88:  log likelihood=-809.4
## AIC=1630.81   AICc=1631.23   BIC=1650.83

Diagnóstico

Como parte del diagnostico del modelo se analizaran los residuos del modelo y posterior a esto se aplicará la prueba Ljung-Box.

## 
##  Ljung-Box test
## 
## data:  Residuals from ARIMA(0,2,0)(1,0,0)[52]
## Q* = 176.75, df = 41, p-value < 2.2e-16
## 
## Model df: 1.   Total lags used: 42

## 
##  Ljung-Box test
## 
## data:  Residuals from ARIMA(1,0,0)(1,0,0)[52] with non-zero mean
## Q* = 100.81, df = 39, p-value = 2.256e-07
## 
## Model df: 3.   Total lags used: 42

## 
##  Ljung-Box test
## 
## data:  Residuals from ARIMA(1,0,1)(1,0,1)[52] with non-zero mean
## Q* = 42.891, df = 37, p-value = 0.2333
## 
## Model df: 5.   Total lags used: 42

En esta última propuesta se cumple con todo lo necesario para que el modelo se bueno, pues el p-value es 0.2333 por lo que se rechaza hipótesis nula \(H_0\) y se asume la hipótesis alterna, además de que los rezagos son estables saliendo por muy poco de la zona de aceptación.

Función Auto.ARIMA

## Series: Serie_Diff 
## ARIMA(0,1,1)(1,0,0)[52] 
## 
## Coefficients:
##           ma1     sar1
##       -0.7531  -0.5176
## s.e.   0.0502   0.0590
## 
## sigma^2 estimated as 141.9:  log likelihood=-814.07
## AIC=1634.15   AICc=1634.26   BIC=1644.14

## 
##  Ljung-Box test
## 
## data:  Residuals from ARIMA(0,1,1)(1,0,0)[52]
## Q* = 41.252, df = 40, p-value = 0.4157
## 
## Model df: 2.   Total lags used: 42

Analizando la función vemos que los rezagos se ajustan mucho mejor que los modelos anteriormente estimados, y se rechaza la hipótesis nula \(H_0\) asumiendo la hipótesis alterna.

Finalmente se escoge la ARIMA(0,1,1)(1,0,0)[52] .

Pronostico

## Series: Serie_Nutresa 
## ARIMA(0,1,1)(1,0,0)[52] 
## 
## Coefficients:
##           ma1    sar1
##       -0.6579  0.1493
## s.e.   0.0595  0.0651
## 
## sigma^2 estimated as 110:  log likelihood=-976.05
## AIC=1958.1   AICc=1958.19   BIC=1968.77

Comparacion de los datos

library(gridExtra)
p1 <- autoplot(Serie_Nutresa,xlab = "Tiempo",ylab="Numero de Visualizacion")+ggtitle("Serie Original")
p2 <- autoplot(forecast(Serie_Nutresa),ylab="Numero de Visualizacion",xlab="Pronosticadas")+ggtitle("Serie Pronosticada")
grid.arrange(p1,p2,nrow=2)

Pronóstico simple genera pronóstico para 6 meses.

Una vez observamos los datos y el conjunto de entrenamiento nos vamos cuenta que aunque no se aproximen de la mejor manera dan un buen rango de estimación.

Conclusiones

Finalmente, podemos concluir que la serie de tiempo de interés de buscada de la empresa Nutre S.A en google, tenía una tendencia suave por lo que no fue un problema a la hora de tratar los datos, la tendencia lineal de los mismos favorece los cálculos del proyecto para la estimación de valores futuros, sin embargo deja en evidencia que la búsqueda de los Colombianos de dicha empresa disminuye conforme pasa el tiempo, esto gracias a últimamente no ha sido muy mencionada en el país, debido a que alcanza un punto de equlibrio. Además de esto cabe resaltar que es una serie que presenta estacionalidad por lo que mantiene un patrón marcado de búsqueda por periodos, para lo que se realizo una diferenciación de la serie, para la eliminación de la estacionalidad.

Los modelos aqui propuestos permiten evidenciar que los datos tienen un compotamiento diferente para los ultimos periodos de tiempo, esto se debe a diferentes factores como la llegada del Covid-19 que hace que los Colombianos tengan otros intereces de busqueda, por otro lado cabe destacar la consistencia de la empresa Nutresa en el mercado, puesto que conserva una excelente reputacion a pesar de la situacion por las que estamos pasando en Colombia y el mundo.