Email             :
RPubs            : https://www.rpubs.com/muhammad_naufal/
Jurusan          : Statistika Bisnis
Address         : Jalan Gunung Galunggung 5 Blok E9, No.21


1 Soal

UAS kalian untuk mata kuliah Ekonometrik ini adalah mencari kasus (dataset) yang dapat deselesaikandenganTime Series Regression Models, Exponential Smoothing, Arima Models.

Jelaskan bagaimana anda membangun ketiga model tersebut

Bandingkan hasil prediksi dari ketiga model tersebut

Berikan pendapatkan kalian mengenai kelebihan dan kekurangan penggunaan model tersebut padakasus(dataset) anda.

Buatlah video (durasinya minimal 20 Menit) yang menjelaskan materi tersebut dan upload di youtube, kemudianlampirkan link Rpubs dan videonya di GCR.

2 REGRESSION MODELS

Dataset yang dipakai adalah BBRI yang mana BBRI ini atau dapat disebut BRI merupakan indeks saham yang pertama kali diluncurkan di pasar modal Indonesia pada tanggal 29 Juli 2019.

bbri = read.csv("BBRI.csv")
datatable(bbri)
datasaham <- bbri %>%
  mutate(Date = ymd(Date)) %>%
  arrange(Date) %>%
  select(Date, High) %>%
  pad() %>%
  mutate(High = na.fill(High, na.aggregate(High)))
## pad applied on the interval: day
glimpse(datasaham)
## Rows: 99
## Columns: 2
## $ Date <date> 2022-02-18, 2022-02-19, 2022-02-20, 2022-02-21, 2022-02-22, 2022…
## $ High <dbl> 4440.000, 4643.333, 4643.333, 4490.000, 4470.000, 4520.000, 4470.…

pada data ini memiliki baris sebanyak 99 dan terdiri dari 2 kolom. yang dimana kolom tersebut memuat data tanggal dan harga tertinggi saham tersebut.

range(datasaham$Date)
## [1] "2022-02-18" "2022-05-27"

jarak data yang digunakan memiliki interval harian yang berasal dari tanggal 18 febuari 2022 sampai tanggal 27 mei 2022

ts.plot(bbri$High)

menunjukan bahwa harga saham sempat mengalami kenaikan harga yang sangat tinggi dibandingkan pada tahun tahun sebelumnya.

3 uji asumsi

untuk menganalisa suatu program linear, ada beberapa asumsi yang harus dipenuhi, yaitu :

datatable(bbri)

3.1 Normalitas

uji normalitas adalah uji yang dilakukan untuk mengecek apakah data penelitian kita berasal dari populasi yang sebarannya normal. uji ini perlu dilakukan karena semua perhitungan statistik parametrik memiliki asumsi normalitas sebaran.

data <- data.frame(bbri)
datatable(data)
y <- as.integer(bbri$Open)
x <- as.integer(bbri$High)

lm <- lm(x~y, data = bbri)
lm
## 
## Call:
## lm(formula = x ~ y, data = bbri)
## 
## Coefficients:
## (Intercept)            y  
##    876.0392       0.8201
par(mfrow=c(2,2))
plot(lm)

dari output “Normal Q-Q”

3.2 heterokedastisitas

Uji Heteroskedastisitas adalah uji yang menilai apakah ada ketidaksamaan varian dari residual untuk semua pengamatan pada model regresi linear. Uji ini merupakan salah satu dari uji asumsi klasik yang harus dilakukan pada regresi linear.

par(mfrow=c(2,2))
plot(lm)

Dari output yang dihasilkan, pada output Residuals vs Fitted ini terlihat bahwa data yang pada titik ini tidak menyebar melainkan bergerombol maka dapat dikatakan bahwa tidak terjadi perbedaan varians residual sehingga ini memenuhi uji asumsi pada heteroskedastisitas.

3.3 Autokorelasi

Uji Autokorelasi adalah sebuah analisis statistik yang dilakukan untuk mengetahui adakah korelasi variabel yang ada di dalam model prediksi dengan perubahan waktu.

dwtest(lm)
## 
##  Durbin-Watson test
## 
## data:  lm
## DW = 1.6755, p-value = 0.08647
## alternative hypothesis: true autocorrelation is greater than 0

Dari output diatas pada nilai Durbin-Watson test menghasilkan niali p-value = 0.08647 yang mana lebih besar dari nilai alpha 0.05 sehingga dapat disimpulkan bahwa tidak ada terjadi pengaruh antara data yang lama dengan data yang baru ini. Maka demikian bahwa asumsi autokorelasi ini tidak ada pada data ini.

summary(lm)
## 
## Call:
## lm(formula = x ~ y, data = bbri)
## 
## Residuals:
##    Min     1Q Median     3Q    Max 
## -71.78 -30.85 -19.00  10.01 213.41 
## 
## Coefficients:
##              Estimate Std. Error t value Pr(>|t|)    
## (Intercept) 876.03920  221.60205   3.953 0.000212 ***
## y             0.82008    0.04821  17.010  < 2e-16 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 57.94 on 58 degrees of freedom
## Multiple R-squared:  0.833,  Adjusted R-squared:  0.8301 
## F-statistic: 289.3 on 1 and 58 DF,  p-value: < 2.2e-16

Dari output diatas, nilai Y pada hasil estimate yaitu Y = 876.03920 + 0.82008 . significant nilai t value yaitu 17.010 dan nilai Pr(>|t|) yaitu <2e-16 *** yang berarti signifikan.

3.4 kesimpulan

Bila nilai signifikansi t < 0.05 sedangkan t value yaitu 17.010 maka H0 diterima, artinya tidak terdapat pengaruh yang signifikan antara satu variabel independen terhadap variabel dependen

4 Exponential smoothing Models

Dalam model peramalan pemulusan eksponensial, apabila forecast error adalah positif, yang berarti nilai aktual permintaan lebih tinggi daripada nilai ramalan (A-F > 0), maka model pemulusan eksponensial akan secara otomatis meningkatkan nilai ramalan. Sebaliknya apabila forecasts error adalah negatif, yang berarti nilai aktual permintaan lebih rendah daripada nilai ramalan (A-F < 0), maka model pemulusan eksponensial akan secara otomatis menurunkan nilai ramalan.

4.1 Single Exponential Smoothing

Metode single exponential smoothing merupakan metode yang digunakan pada peramalan jangka pendek yang biasanya hanya 1 bulan ke depan yang mengasumsikan bahwa data berfluktuasi di sekitar nilai mean yang tetap tanpa trend atau pola pertumbuhan konsisten.

Y<-as.integer(data$Open)
X<-as.integer(data$High)
ses<-ses(data$High ,h=10)
plot(ses)

4.2 Holt-Winters

Metode Holt-Winters adalah metode prediksi kuantitatif yang digunakan untuk memprediksi data tren dan musiman. Beberapa variasi dari metode Holt-Winters adalah Multiplicative Holt-Winters, Additive Holt-Winters dan Double Seasonal Holt-Winters.

Pada R ini, metode Holt-Winter menggunakan parameter alpha, gamma, dan beta.

log <- log(bbri$High)
log[is.infinite(log)]<-0
holt<-HoltWinters(log, beta = FALSE, gamma = FALSE)
holt
## Holt-Winters exponential smoothing without trend and without seasonal component.
## 
## Call:
## HoltWinters(x = log, beta = FALSE, gamma = FALSE)
## 
## Smoothing parameters:
##  alpha: 0.837801
##  beta : FALSE
##  gamma: FALSE
## 
## Coefficients:
##       [,1]
## a 8.417679
predic<-forecast(holt,h=10)
predic
##    Point Forecast    Lo 80    Hi 80    Lo 95    Hi 95
## 61       8.417679 8.392561 8.442796 8.379265 8.456092
## 62       8.417679 8.384911 8.450446 8.367566 8.467792
## 63       8.417679 8.378736 8.456621 8.358121 8.477236
## 64       8.417679 8.373414 8.461943 8.349982 8.485375
## 65       8.417679 8.368667 8.466690 8.342722 8.492635
## 66       8.417679 8.364341 8.471017 8.336105 8.499252
## 67       8.417679 8.360340 8.475018 8.329986 8.505371
## 68       8.417679 8.356600 8.478757 8.324267 8.511090
## 69       8.417679 8.353077 8.482280 8.318879 8.516478
## 70       8.417679 8.349736 8.485621 8.313769 8.521588

nilai akurasi

SSE<-holt$SSE
SSE
## [1] 0.02228799
plot(holt)

Dari output yang muncul pada tingkat akurasi terlihat bahwa data hanya dapat memunculkan nilai SSE dan pada metode pemulusan dengan nilai lamda sebesar 0.1 ini memiliki nilai akurat yang jauh lebih kecil sehingga dapat dinyatakan bahwa metode ini lebih baik

4.3 Double Exponential Smoothing

Metode Double expoential smoothing adalah suatu metode yang paling luas digunakan untuk menentukan persamaan trend data pemulusan kedua melalui proses smoothing. Sistem peramalan ini menangkap pola dari data yang telah lalu kemudian digunakan untuk memproyeksikan data yang akan datang.

winters<-HoltWinters(log,gamma = FALSE, beta = FALSE, alpha = 0.1)
plot(winters)

predic<-forecast(winters,h=10)
predic
##    Point Forecast    Lo 80    Hi 80    Lo 95    Hi 95
## 61       8.426873 8.388894 8.464853 8.368788 8.484958
## 62       8.426873 8.388704 8.465042 8.368499 8.485248
## 63       8.426873 8.388516 8.465231 8.368210 8.485536
## 64       8.426873 8.388328 8.465418 8.367923 8.485823
## 65       8.426873 8.388141 8.465605 8.367638 8.486109
## 66       8.426873 8.387956 8.465791 8.367354 8.486393
## 67       8.426873 8.387771 8.465976 8.367071 8.486675
## 68       8.426873 8.387587 8.466160 8.366790 8.486957
## 69       8.426873 8.387404 8.466343 8.366510 8.487237
## 70       8.426873 8.387221 8.466525 8.366231 8.487516

nilai akurasi

sse<-winters$SSE
sse
## [1] 0.05231326
plot(winters)

Dari output yang muncul pada tingkat akurasi terlihat bahwa data hanya dapat memunculkan nilai SSE pada metode double exponential smoothing dengan nilai lamda sebesar 0.1 dan gamma sebesar 0.1 ini memiliki nilai akurat yang jauh lebih kecil sehingga dapat dinyatakan bahwa metode ini lebih baik.

4.4 Kesimpulan

holt$SSE
## [1] 0.02228799
winters$SSE
## [1] 0.05231326

Pada nilai SSE antar metode Holt-winter dengan Double exponential smoothing ini dapat dilihat bahwa metode Double Exponential Smoothing memiliki nilai yang lebih kecil dengan lambda sebesar 0.1 dan gamma sebesar 0.1 sehingga dapat dinyatakan bahwa metode ini lebih baik untuk digunakan.

5 Arima Models

Model ARIMA memberikan pendekatan lain dalam peramalan deret waktu. Model ARIMA merupakan salah satu pendekatan yang paling banyak digunakan dalam peramalan deret waktu, dan memberikan pendekatan pelengkap untuk suatu masalah. Model ARIMA bertujuan dalam menggambarkan autokorelasi dalam data.

str(bbri)
## 'data.frame':    60 obs. of  7 variables:
##  $ Date         : int  20220218 20220221 20220222 20220223 20220224 20220225 20220301 20220302 20220304 20220307 ...
##  $ Open         : num  4400 4460 4440 4520 4470 4450 4850 4680 4720 4580 ...
##  $ High         : num  4440 4490 4470 4520 4470 4550 4860 4690 4730 4630 ...
##  $ Low          : num  4370 4440 4420 4460 4370 4410 4630 4550 4610 4520 ...
##  $ Close        : num  4430 4490 4430 4480 4390 4550 4630 4560 4670 4520 ...
##  $ Volume       : int  127058000 133717300 109060900 160827800 217523600 301346400 494657800 186635200 292022600 224515800 ...
##  $ AdjustedClose: num  4430 4490 4430 4480 4390 4550 4630 4560 4670 4520 ...
ts <- ts(bbri)
str(ts)
##  Time-Series [1:60, 1:7] from 1 to 60: 20220218 20220221 20220222 20220223 20220224 ...
##  - attr(*, "dimnames")=List of 2
##   ..$ : NULL
##   ..$ : chr [1:7] "Date" "Open" "High" "Low" ...
summary(ts)
##       Date               Open           High           Low           Close     
##  Min.   :20220218   Min.   :4250   Min.   :4360   Min.   :4250   Min.   :4250  
##  1st Qu.:20220315   1st Qu.:4485   1st Qu.:4530   1st Qu.:4428   1st Qu.:4488  
##  Median :20220404   Median :4605   Median :4640   Median :4550   Median :4575  
##  Mean   :20220382   Mean   :4594   Mean   :4643   Mean   :4536   Mean   :4586  
##  3rd Qu.:20220426   3rd Qu.:4700   3rd Qu.:4732   3rd Qu.:4630   3rd Qu.:4675  
##  Max.   :20220527   Max.   :4900   Max.   :4980   Max.   :4860   Max.   :4940  
##      Volume          AdjustedClose 
##  Min.   : 76154300   Min.   :4250  
##  1st Qu.:126707975   1st Qu.:4488  
##  Median :176733750   Median :4575  
##  Mean   :196383665   Mean   :4586  
##  3rd Qu.:224780800   3rd Qu.:4675  
##  Max.   :561600400   Max.   :4940
bbridata <- ts[,2]
plot(bbridata)
ts.plot(bbridata)

ts.plot(bbridata, main = "Grafik 01",
        xlab=" Saham",
        ylab=" Tahun")

plot(diff(bbridata), main="Grafik 02",
     xlab=" Saham",
     ylab=" Tahun")

Dapat dilihat pada plot tsla, grafik yang dihasilkan cenderung arah nya naik. Namun pada plot kedua terlihat hasil grafiknya lebih stabil dan bergerak pada sumbu horizontal sehingga ini merupakan stasioner.Maka dari itu akan dilakukan uji stasioneritas.

5.1 Dickey-Fuller test for variable

Uji stationeritas Augmented Dickey-Fuller atau ADF adalah pengujian hipotesis nol yang menyatakan bahwa unit root ada dalam model autoregresif. pada data ini memiliki stasioneritas jika perubahan waktu tidak menyebabkan perubahan dalam bentuk distribusi.

adf.test(bbridata)
## 
##  Augmented Dickey-Fuller Test
## 
## data:  bbridata
## Dickey-Fuller = -2.3942, Lag order = 3, p-value = 0.4154
## alternative hypothesis: stationary

Dapat dilihat pada p-value = 0.5815, ini melebihi nilai alpha maka tidak stasioner.

5.2 ADF test for differenced variable

adf.test(diff(bbridata))
## Warning in adf.test(diff(bbridata)): p-value smaller than printed p-value
## 
##  Augmented Dickey-Fuller Test
## 
## data:  diff(bbridata)
## Dickey-Fuller = -4.2896, Lag order = 3, p-value = 0.01
## alternative hypothesis: stationary

Namun dilihat dari output diff(tsladata) dengan nilai p-value = 0.01 yang mana ini lebih rendah dari nilai alpha, sehingga dapat disebut sudah stasioner.Kemudian setelah dilakukan uji stasioneer ini akan di identifikasi model.

5.3 ACF and PCF

Fungsi Autokorelasi (ACF) dan Fungsi Autokorelasi Parsial (PACF) dimana ACF mengukur korelasi antar pengamatan dengan jeda k; sedangkan PACF mengukur korelasi antar pengamatan dengan jeda k dan dengan mengontrol korelasi antar dua pengamatan dengan jeda kurang dari k.

par(mfrow=c(2,1))
acf(diff(bbridata))
pacf(diff(bbridata))

Dapat dilihat dari 2 partisi diatas bahwa ada beberapa lag yang melewati batas dan tidak stabil.

bbria1<-arima(bbridata,order=c(1,1,0))
summary(bbria1)
## 
## Call:
## arima(x = bbridata, order = c(1, 1, 0))
## 
## Coefficients:
##           ar1
##       -0.2576
## s.e.   0.1250
## 
## sigma^2 estimated as 15660:  log likelihood = -368.69,  aic = 741.38
## 
## Training set error measures:
##                    ME     RMSE      MAE          MPE    MAPE      MASE
## Training set 1.835067 124.0953 81.75932 -0.003760151 1.79357 0.9135984
##                    ACF1
## Training set -0.0721149
bbria2<-arima(bbridata,order=c(0,1,1))
summary(bbria2)
## 
## Call:
## arima(x = bbridata, order = c(0, 1, 1))
## 
## Coefficients:
##           ma1
##       -0.3917
## s.e.   0.1319
## 
## sigma^2 estimated as 14959:  log likelihood = -367.39,  aic = 738.77
## 
## Training set error measures:
##                   ME     RMSE      MAE         MPE     MAPE     MASE       ACF1
## Training set 1.59229 121.2868 79.16528 -0.01364674 1.737697 0.884612 0.03725632
bbria3<-arima(bbridata,order=c(1,1,1))
summary(bbria3)
## 
## Call:
## arima(x = bbridata, order = c(1, 1, 1))
## 
## Coefficients:
##          ar1      ma1
##       0.5485  -0.8721
## s.e.  0.2474   0.1754
## 
## sigma^2 estimated as 14579:  log likelihood = -366.79,  aic = 739.57
## 
## Training set error measures:
##                    ME     RMSE      MAE         MPE     MAPE      MASE
## Training set 2.098979 119.7357 80.74594 -0.01166825 1.772834 0.9022747
##                     ACF1
## Training set -0.03816499
bbria4<-arima(bbridata,order=c(0,1,2))
summary(bbria4)
## 
## Call:
## arima(x = bbridata, order = c(0, 1, 2))
## 
## Coefficients:
##           ma1      ma2
##       -0.3250  -0.1660
## s.e.   0.1348   0.1614
## 
## sigma^2 estimated as 14683:  log likelihood = -366.86,  aic = 739.73
## 
## Training set error measures:
##                    ME     RMSE      MAE         MPE     MAPE      MASE
## Training set 1.288675 120.1617 80.27301 -0.02275898 1.762323 0.8969901
##                     ACF1
## Training set -0.01388961
bbria5<-arima(bbridata,order=c(2,1,0))
summary(bbria5)
## 
## Call:
## arima(x = bbridata, order = c(2, 1, 0))
## 
## Coefficients:
##           ar1      ar2
##       -0.3301  -0.2656
## s.e.   0.1255   0.1246
## 
## sigma^2 estimated as 14509:  log likelihood = -366.51,  aic = 739.02
## 
## Training set error measures:
##                    ME     RMSE      MAE         MPE     MAPE      MASE
## Training set 1.414923 119.4485 79.70868 -0.01544202 1.747832 0.8906841
##                      ACF1
## Training set -0.005096097
coeftest(bbria1)
## 
## z test of coefficients:
## 
##     Estimate Std. Error z value Pr(>|z|)  
## ar1 -0.25758    0.12505 -2.0599  0.03941 *
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
coeftest(bbria2)
## 
## z test of coefficients:
## 
##     Estimate Std. Error z value Pr(>|z|)   
## ma1 -0.39170    0.13194 -2.9687 0.002991 **
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
coeftest(bbria3)
## 
## z test of coefficients:
## 
##     Estimate Std. Error z value  Pr(>|z|)    
## ar1  0.54849    0.24742  2.2168   0.02664 *  
## ma1 -0.87209    0.17539 -4.9724 6.613e-07 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
coeftest(bbria4)
## 
## z test of coefficients:
## 
##     Estimate Std. Error z value Pr(>|z|)  
## ma1 -0.32505    0.13475 -2.4121  0.01586 *
## ma2 -0.16598    0.16135 -1.0287  0.30362  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
coeftest(bbria5)
## 
## z test of coefficients:
## 
##     Estimate Std. Error z value Pr(>|z|)   
## ar1 -0.33007    0.12548 -2.6304 0.008528 **
## ar2 -0.26564    0.12459 -2.1322 0.032993 * 
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Dapat diliat hari output coeftest() ini pada :

Arima pertama nilai dari Pr(>|z|) = 0.03941 yaitu signifikan pada ar1

Arima kedua nilai dari Pr(>|z|) = 0.002991 yaitu signifikan pada ma1

Arima ketiga nilai dari Pr(>|z|) = 0.02664 yaitu tidak signifikan .

Arima keempat nilai dari Pr(>|z|) = 0.01586 yaitu signifikan hanya ma1.

Arima kelima nilai dari Pr(>|z|) = 0.008528 yaitu signifikan pada ar1.

Setelah itu akan dilakukan diagnostic checking pada arima yang signifikan

tsdiag(bbria1)

tsdiag(bbria2)

tsdiag(bbria4)

tsdiag(bbria5)

Selanjutnya akan dilakukan uji nilai tengah terhadap residual pada setiap model.

resid1=bbria1$residuals
t.test(resid1, mu=0, alternative = "two.sided")
## 
##  One Sample t-test
## 
## data:  resid1
## t = 0.1136, df = 59, p-value = 0.9099
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
##  -30.48914  34.15928
## sample estimates:
## mean of x 
##  1.835067
resid2=bbria2$residuals
t.test(resid2, mu=0, alternative = "two.sided")
## 
##  One Sample t-test
## 
## data:  resid2
## t = 0.10085, df = 59, p-value = 0.92
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
##  -30.00109  33.18567
## sample estimates:
## mean of x 
##   1.59229
resid4=bbria4$residuals
t.test(resid4, mu=0, alternative = "two.sided")
## 
##  One Sample t-test
## 
## data:  resid4
## t = 0.082381, df = 59, p-value = 0.9346
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
##  -30.01253  32.58988
## sample estimates:
## mean of x 
##  1.288675
resid5=bbria5$residuals
t.test(resid5, mu=0, alternative = "two.sided")
## 
##  One Sample t-test
## 
## data:  resid5
## t = 0.090993, df = 59, p-value = 0.9278
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
##  -29.70011  32.52996
## sample estimates:
## mean of x 
##  1.414923
resid1=bbria1$residuals
t.test(resid1, mu=0, alternative = "two.sided")
## 
##  One Sample t-test
## 
## data:  resid1
## t = 0.1136, df = 59, p-value = 0.9099
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
##  -30.48914  34.15928
## sample estimates:
## mean of x 
##  1.835067

Dapat dilihat dari output t.test() untuk nilai p-values melebihi nilai alpha.

Resid1 : p-value = 0.9099 Resid2 : p-value = 0.92 Resid4 : p-value = 0.9346 Resid5 : p-value = 0.9278

str<-stargazer(bbria1, bbria2, bbria4, bbria5, type="text", digits=2, out="BBRI.rtf")
## 
## =========================================================
##                             Dependent variable:          
##                   ---------------------------------------
##                                  bbridata                
##                      (1)       (2)       (3)       (4)   
## ---------------------------------------------------------
## ar1                -0.26**                      -0.33*** 
##                    (0.13)                        (0.13)  
##                                                          
## ma1                         -0.39***   -0.33**           
##                              (0.13)    (0.13)            
##                                                          
## ma2                                     -0.17            
##                                        (0.16)            
##                                                          
## ar2                                              -0.27** 
##                                                  (0.12)  
##                                                          
## ---------------------------------------------------------
## Observations         59        59        59        59    
## Log Likelihood     -368.69   -367.39   -366.86   -366.51 
## sigma2            15,660.33 14,959.49 14,683.22 14,509.45
## Akaike Inf. Crit.  741.38    738.77    739.73    739.02  
## =========================================================
## Note:                         *p<0.1; **p<0.05; ***p<0.01

Dari output Dependent variable terlihat pada tslaa1 dan bbria5 signifikan pada ar1 sedangkan untuk bbria2 dan bbria4 signifikan pada ma1. Dan untuk perbandingan Akaike, terlihat bahwa tslaa5 memiliki nilai akaike lebih kecil

accuracy(bbria1)
##                    ME     RMSE      MAE          MPE    MAPE      MASE
## Training set 1.835067 124.0953 81.75932 -0.003760151 1.79357 0.9135984
##                    ACF1
## Training set -0.0721149
accuracy(bbria2)
##                   ME     RMSE      MAE         MPE     MAPE     MASE       ACF1
## Training set 1.59229 121.2868 79.16528 -0.01364674 1.737697 0.884612 0.03725632
accuracy(bbria4)
##                    ME     RMSE      MAE         MPE     MAPE      MASE
## Training set 1.288675 120.1617 80.27301 -0.02275898 1.762323 0.8969901
##                     ACF1
## Training set -0.01388961
accuracy(bbria5)
##                    ME     RMSE      MAE         MPE     MAPE      MASE
## Training set 1.414923 119.4485 79.70868 -0.01544202 1.747832 0.8906841
##                      ACF1
## Training set -0.005096097

Dari hasil perbandingan menggunakan error dengan function accuracy() terlihat pada kolom RMSE,dan MAE pada bbria5 yang lebih kecil.

Sehingga dapat dikatakan bbria2 dengan model AR1 ordo=(1,0,1) adalah model yang dipilih

pred.data=predict(bbria2,n.ahead=6)
pred.data
## $pred
## Time Series:
## Start = 61 
## End = 66 
## Frequency = 1 
## [1] 4461.249 4461.249 4461.249 4461.249 4461.249 4461.249
## 
## $se
## Time Series:
## Start = 61 
## End = 66 
## Frequency = 1 
## [1] 122.3090 143.1608 161.3398 177.6683 192.6176 206.4874

6 perbandingan

Model Regresi time series memiliki suatu kelebihan dimana tentunya kita dapat memperkirakan atau meramalkan nilai data pada periode berikutnya dengan hanya berdasar pada data-data yang sudah dikumpulkan sebelumya. Dan pada model ini merupakan model terbaik dalam melakukan peramalan, dikarenakan data yang dipakai disini digunakan untuk ramalan jangka panjang.

Model Exponential Smoothing dalam pengujiannya itu banyak mengurangi masalah penyimpanan data, sehingga tidak perlu lagi menyimpan semua data historis atau sebagian hanya pengamatan terakhir, ramalan terakhir, dan suatu nilai konstanta yang harus disimpan metode ini cukup sering digunakan untuk peramalan, namun metode ini kurang baik untuk digunakan pada data ini dikarenakan mengunakan peramalan jangka panjang dan metode ini memiliki tingkat keraguan yang tinggi sehingga peneliti butuh memperhatikan nilai konstanta agar akurat

Model ARIMA juga merupakan model yang bagus untuk digunakan pada data ini, dikarenakan model ini membutuhkan data yang banyak untuk peramalan. namun metode ini lebih baik untuk peramalan jangka pendek.

7 pendapat

menurut saya metode yang paling pas dalam menganalisis dan melakukan peramalan adalah metode model regresi time series dan metode arima, dikarenakan yang satu baik untuk peramalan jangka panjang dan satunya lagi baik dikarenakan metode tersebut bagus untuk pengunaan data yang banyak.