Email : naufal3433@gmail.com
RPubs : https://www.rpubs.com/muhammad_naufal/
Jurusan : Statistika Bisnis
Address : Jalan Gunung Galunggung 5 Blok E9, No.21
UAS kalian untuk mata kuliah Ekonometrik ini adalah mencari kasus (dataset) yang dapat deselesaikandenganTime Series Regression Models, Exponential Smoothing, Arima Models.
Jelaskan bagaimana anda membangun ketiga model tersebut
Bandingkan hasil prediksi dari ketiga model tersebut
Berikan pendapatkan kalian mengenai kelebihan dan kekurangan penggunaan model tersebut padakasus(dataset) anda.
Buatlah video (durasinya minimal 20 Menit) yang menjelaskan materi tersebut dan upload di youtube, kemudianlampirkan link Rpubs dan videonya di GCR.
Dataset yang dipakai adalah BBRI yang mana BBRI ini atau dapat disebut BRI merupakan indeks saham yang pertama kali diluncurkan di pasar modal Indonesia pada tanggal 29 Juli 2019.
= read.csv("BBRI.csv")
bbri datatable(bbri)
<- bbri %>%
datasaham mutate(Date = ymd(Date)) %>%
arrange(Date) %>%
select(Date, High) %>%
pad() %>%
mutate(High = na.fill(High, na.aggregate(High)))
## pad applied on the interval: day
glimpse(datasaham)
## Rows: 99
## Columns: 2
## $ Date <date> 2022-02-18, 2022-02-19, 2022-02-20, 2022-02-21, 2022-02-22, 2022…
## $ High <dbl> 4440.000, 4643.333, 4643.333, 4490.000, 4470.000, 4520.000, 4470.…
pada data ini memiliki baris sebanyak 99 dan terdiri dari 2 kolom. yang dimana kolom tersebut memuat data tanggal dan harga tertinggi saham tersebut.
range(datasaham$Date)
## [1] "2022-02-18" "2022-05-27"
jarak data yang digunakan memiliki interval harian yang berasal dari tanggal 18 febuari 2022 sampai tanggal 27 mei 2022
ts.plot(bbri$High)
menunjukan bahwa harga saham sempat mengalami kenaikan harga yang sangat tinggi dibandingkan pada tahun tahun sebelumnya.
untuk menganalisa suatu program linear, ada beberapa asumsi yang harus dipenuhi, yaitu :
datatable(bbri)
uji normalitas adalah uji yang dilakukan untuk mengecek apakah data penelitian kita berasal dari populasi yang sebarannya normal. uji ini perlu dilakukan karena semua perhitungan statistik parametrik memiliki asumsi normalitas sebaran.
<- data.frame(bbri)
data datatable(data)
<- as.integer(bbri$Open)
y <- as.integer(bbri$High)
x
<- lm(x~y, data = bbri)
lm lm
##
## Call:
## lm(formula = x ~ y, data = bbri)
##
## Coefficients:
## (Intercept) y
## 876.0392 0.8201
par(mfrow=c(2,2))
plot(lm)
dari output “Normal Q-Q”
Uji Heteroskedastisitas adalah uji yang menilai apakah ada ketidaksamaan varian dari residual untuk semua pengamatan pada model regresi linear. Uji ini merupakan salah satu dari uji asumsi klasik yang harus dilakukan pada regresi linear.
par(mfrow=c(2,2))
plot(lm)
Dari output yang dihasilkan, pada output Residuals vs Fitted ini terlihat bahwa data yang pada titik ini tidak menyebar melainkan bergerombol maka dapat dikatakan bahwa tidak terjadi perbedaan varians residual sehingga ini memenuhi uji asumsi pada heteroskedastisitas.
Uji Autokorelasi adalah sebuah analisis statistik yang dilakukan untuk mengetahui adakah korelasi variabel yang ada di dalam model prediksi dengan perubahan waktu.
dwtest(lm)
##
## Durbin-Watson test
##
## data: lm
## DW = 1.6755, p-value = 0.08647
## alternative hypothesis: true autocorrelation is greater than 0
Dari output diatas pada nilai Durbin-Watson test menghasilkan niali p-value = 0.08647 yang mana lebih besar dari nilai alpha 0.05 sehingga dapat disimpulkan bahwa tidak ada terjadi pengaruh antara data yang lama dengan data yang baru ini. Maka demikian bahwa asumsi autokorelasi ini tidak ada pada data ini.
summary(lm)
##
## Call:
## lm(formula = x ~ y, data = bbri)
##
## Residuals:
## Min 1Q Median 3Q Max
## -71.78 -30.85 -19.00 10.01 213.41
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 876.03920 221.60205 3.953 0.000212 ***
## y 0.82008 0.04821 17.010 < 2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 57.94 on 58 degrees of freedom
## Multiple R-squared: 0.833, Adjusted R-squared: 0.8301
## F-statistic: 289.3 on 1 and 58 DF, p-value: < 2.2e-16
Dari output diatas, nilai Y pada hasil estimate yaitu Y = 876.03920 + 0.82008 . significant nilai t value yaitu 17.010 dan nilai Pr(>|t|) yaitu <2e-16 *** yang berarti signifikan.
Bila nilai signifikansi t < 0.05 sedangkan t value yaitu 17.010 maka H0 diterima, artinya tidak terdapat pengaruh yang signifikan antara satu variabel independen terhadap variabel dependen
Dalam model peramalan pemulusan eksponensial, apabila forecast error adalah positif, yang berarti nilai aktual permintaan lebih tinggi daripada nilai ramalan (A-F > 0), maka model pemulusan eksponensial akan secara otomatis meningkatkan nilai ramalan. Sebaliknya apabila forecasts error adalah negatif, yang berarti nilai aktual permintaan lebih rendah daripada nilai ramalan (A-F < 0), maka model pemulusan eksponensial akan secara otomatis menurunkan nilai ramalan.
Metode single exponential smoothing merupakan metode yang digunakan pada peramalan jangka pendek yang biasanya hanya 1 bulan ke depan yang mengasumsikan bahwa data berfluktuasi di sekitar nilai mean yang tetap tanpa trend atau pola pertumbuhan konsisten.
<-as.integer(data$Open)
Y<-as.integer(data$High) X
<-ses(data$High ,h=10)
sesplot(ses)
Metode Holt-Winters adalah metode prediksi kuantitatif yang digunakan untuk memprediksi data tren dan musiman. Beberapa variasi dari metode Holt-Winters adalah Multiplicative Holt-Winters, Additive Holt-Winters dan Double Seasonal Holt-Winters.
Pada R ini, metode Holt-Winter menggunakan parameter alpha, gamma, dan beta.
<- log(bbri$High)
log is.infinite(log)]<-0
log[<-HoltWinters(log, beta = FALSE, gamma = FALSE)
holt holt
## Holt-Winters exponential smoothing without trend and without seasonal component.
##
## Call:
## HoltWinters(x = log, beta = FALSE, gamma = FALSE)
##
## Smoothing parameters:
## alpha: 0.837801
## beta : FALSE
## gamma: FALSE
##
## Coefficients:
## [,1]
## a 8.417679
<-forecast(holt,h=10)
predic predic
## Point Forecast Lo 80 Hi 80 Lo 95 Hi 95
## 61 8.417679 8.392561 8.442796 8.379265 8.456092
## 62 8.417679 8.384911 8.450446 8.367566 8.467792
## 63 8.417679 8.378736 8.456621 8.358121 8.477236
## 64 8.417679 8.373414 8.461943 8.349982 8.485375
## 65 8.417679 8.368667 8.466690 8.342722 8.492635
## 66 8.417679 8.364341 8.471017 8.336105 8.499252
## 67 8.417679 8.360340 8.475018 8.329986 8.505371
## 68 8.417679 8.356600 8.478757 8.324267 8.511090
## 69 8.417679 8.353077 8.482280 8.318879 8.516478
## 70 8.417679 8.349736 8.485621 8.313769 8.521588
nilai akurasi
<-holt$SSE
SSE SSE
## [1] 0.02228799
plot(holt)
Dari output yang muncul pada tingkat akurasi terlihat bahwa data hanya dapat memunculkan nilai SSE dan pada metode pemulusan dengan nilai lamda sebesar 0.1 ini memiliki nilai akurat yang jauh lebih kecil sehingga dapat dinyatakan bahwa metode ini lebih baik
Metode Double expoential smoothing adalah suatu metode yang paling luas digunakan untuk menentukan persamaan trend data pemulusan kedua melalui proses smoothing. Sistem peramalan ini menangkap pola dari data yang telah lalu kemudian digunakan untuk memproyeksikan data yang akan datang.
<-HoltWinters(log,gamma = FALSE, beta = FALSE, alpha = 0.1)
wintersplot(winters)
<-forecast(winters,h=10)
predic predic
## Point Forecast Lo 80 Hi 80 Lo 95 Hi 95
## 61 8.426873 8.388894 8.464853 8.368788 8.484958
## 62 8.426873 8.388704 8.465042 8.368499 8.485248
## 63 8.426873 8.388516 8.465231 8.368210 8.485536
## 64 8.426873 8.388328 8.465418 8.367923 8.485823
## 65 8.426873 8.388141 8.465605 8.367638 8.486109
## 66 8.426873 8.387956 8.465791 8.367354 8.486393
## 67 8.426873 8.387771 8.465976 8.367071 8.486675
## 68 8.426873 8.387587 8.466160 8.366790 8.486957
## 69 8.426873 8.387404 8.466343 8.366510 8.487237
## 70 8.426873 8.387221 8.466525 8.366231 8.487516
nilai akurasi
<-winters$SSE
sse sse
## [1] 0.05231326
plot(winters)
Dari output yang muncul pada tingkat akurasi terlihat bahwa data hanya dapat memunculkan nilai SSE pada metode double exponential smoothing dengan nilai lamda sebesar 0.1 dan gamma sebesar 0.1 ini memiliki nilai akurat yang jauh lebih kecil sehingga dapat dinyatakan bahwa metode ini lebih baik.
$SSE holt
## [1] 0.02228799
$SSE winters
## [1] 0.05231326
Pada nilai SSE antar metode Holt-winter dengan Double exponential smoothing ini dapat dilihat bahwa metode Double Exponential Smoothing memiliki nilai yang lebih kecil dengan lambda sebesar 0.1 dan gamma sebesar 0.1 sehingga dapat dinyatakan bahwa metode ini lebih baik untuk digunakan.
Model ARIMA memberikan pendekatan lain dalam peramalan deret waktu. Model ARIMA merupakan salah satu pendekatan yang paling banyak digunakan dalam peramalan deret waktu, dan memberikan pendekatan pelengkap untuk suatu masalah. Model ARIMA bertujuan dalam menggambarkan autokorelasi dalam data.
str(bbri)
## 'data.frame': 60 obs. of 7 variables:
## $ Date : int 20220218 20220221 20220222 20220223 20220224 20220225 20220301 20220302 20220304 20220307 ...
## $ Open : num 4400 4460 4440 4520 4470 4450 4850 4680 4720 4580 ...
## $ High : num 4440 4490 4470 4520 4470 4550 4860 4690 4730 4630 ...
## $ Low : num 4370 4440 4420 4460 4370 4410 4630 4550 4610 4520 ...
## $ Close : num 4430 4490 4430 4480 4390 4550 4630 4560 4670 4520 ...
## $ Volume : int 127058000 133717300 109060900 160827800 217523600 301346400 494657800 186635200 292022600 224515800 ...
## $ AdjustedClose: num 4430 4490 4430 4480 4390 4550 4630 4560 4670 4520 ...
<- ts(bbri)
ts str(ts)
## Time-Series [1:60, 1:7] from 1 to 60: 20220218 20220221 20220222 20220223 20220224 ...
## - attr(*, "dimnames")=List of 2
## ..$ : NULL
## ..$ : chr [1:7] "Date" "Open" "High" "Low" ...
summary(ts)
## Date Open High Low Close
## Min. :20220218 Min. :4250 Min. :4360 Min. :4250 Min. :4250
## 1st Qu.:20220315 1st Qu.:4485 1st Qu.:4530 1st Qu.:4428 1st Qu.:4488
## Median :20220404 Median :4605 Median :4640 Median :4550 Median :4575
## Mean :20220382 Mean :4594 Mean :4643 Mean :4536 Mean :4586
## 3rd Qu.:20220426 3rd Qu.:4700 3rd Qu.:4732 3rd Qu.:4630 3rd Qu.:4675
## Max. :20220527 Max. :4900 Max. :4980 Max. :4860 Max. :4940
## Volume AdjustedClose
## Min. : 76154300 Min. :4250
## 1st Qu.:126707975 1st Qu.:4488
## Median :176733750 Median :4575
## Mean :196383665 Mean :4586
## 3rd Qu.:224780800 3rd Qu.:4675
## Max. :561600400 Max. :4940
<- ts[,2] bbridata
plot(bbridata)
ts.plot(bbridata)
ts.plot(bbridata, main = "Grafik 01",
xlab=" Saham",
ylab=" Tahun")
plot(diff(bbridata), main="Grafik 02",
xlab=" Saham",
ylab=" Tahun")
Dapat dilihat pada plot tsla, grafik yang dihasilkan cenderung arah nya naik. Namun pada plot kedua terlihat hasil grafiknya lebih stabil dan bergerak pada sumbu horizontal sehingga ini merupakan stasioner.Maka dari itu akan dilakukan uji stasioneritas.
Uji stationeritas Augmented Dickey-Fuller atau ADF adalah pengujian hipotesis nol yang menyatakan bahwa unit root ada dalam model autoregresif. pada data ini memiliki stasioneritas jika perubahan waktu tidak menyebabkan perubahan dalam bentuk distribusi.
adf.test(bbridata)
##
## Augmented Dickey-Fuller Test
##
## data: bbridata
## Dickey-Fuller = -2.3942, Lag order = 3, p-value = 0.4154
## alternative hypothesis: stationary
Dapat dilihat pada p-value = 0.5815, ini melebihi nilai alpha maka tidak stasioner.
adf.test(diff(bbridata))
## Warning in adf.test(diff(bbridata)): p-value smaller than printed p-value
##
## Augmented Dickey-Fuller Test
##
## data: diff(bbridata)
## Dickey-Fuller = -4.2896, Lag order = 3, p-value = 0.01
## alternative hypothesis: stationary
Namun dilihat dari output diff(tsladata) dengan nilai p-value = 0.01 yang mana ini lebih rendah dari nilai alpha, sehingga dapat disebut sudah stasioner.Kemudian setelah dilakukan uji stasioneer ini akan di identifikasi model.
Fungsi Autokorelasi (ACF) dan Fungsi Autokorelasi Parsial (PACF) dimana ACF mengukur korelasi antar pengamatan dengan jeda k; sedangkan PACF mengukur korelasi antar pengamatan dengan jeda k dan dengan mengontrol korelasi antar dua pengamatan dengan jeda kurang dari k.
par(mfrow=c(2,1))
acf(diff(bbridata))
pacf(diff(bbridata))
Dapat dilihat dari 2 partisi diatas bahwa ada beberapa lag yang melewati batas dan tidak stabil.
<-arima(bbridata,order=c(1,1,0))
bbria1summary(bbria1)
##
## Call:
## arima(x = bbridata, order = c(1, 1, 0))
##
## Coefficients:
## ar1
## -0.2576
## s.e. 0.1250
##
## sigma^2 estimated as 15660: log likelihood = -368.69, aic = 741.38
##
## Training set error measures:
## ME RMSE MAE MPE MAPE MASE
## Training set 1.835067 124.0953 81.75932 -0.003760151 1.79357 0.9135984
## ACF1
## Training set -0.0721149
<-arima(bbridata,order=c(0,1,1))
bbria2summary(bbria2)
##
## Call:
## arima(x = bbridata, order = c(0, 1, 1))
##
## Coefficients:
## ma1
## -0.3917
## s.e. 0.1319
##
## sigma^2 estimated as 14959: log likelihood = -367.39, aic = 738.77
##
## Training set error measures:
## ME RMSE MAE MPE MAPE MASE ACF1
## Training set 1.59229 121.2868 79.16528 -0.01364674 1.737697 0.884612 0.03725632
<-arima(bbridata,order=c(1,1,1))
bbria3summary(bbria3)
##
## Call:
## arima(x = bbridata, order = c(1, 1, 1))
##
## Coefficients:
## ar1 ma1
## 0.5485 -0.8721
## s.e. 0.2474 0.1754
##
## sigma^2 estimated as 14579: log likelihood = -366.79, aic = 739.57
##
## Training set error measures:
## ME RMSE MAE MPE MAPE MASE
## Training set 2.098979 119.7357 80.74594 -0.01166825 1.772834 0.9022747
## ACF1
## Training set -0.03816499
<-arima(bbridata,order=c(0,1,2))
bbria4summary(bbria4)
##
## Call:
## arima(x = bbridata, order = c(0, 1, 2))
##
## Coefficients:
## ma1 ma2
## -0.3250 -0.1660
## s.e. 0.1348 0.1614
##
## sigma^2 estimated as 14683: log likelihood = -366.86, aic = 739.73
##
## Training set error measures:
## ME RMSE MAE MPE MAPE MASE
## Training set 1.288675 120.1617 80.27301 -0.02275898 1.762323 0.8969901
## ACF1
## Training set -0.01388961
<-arima(bbridata,order=c(2,1,0))
bbria5summary(bbria5)
##
## Call:
## arima(x = bbridata, order = c(2, 1, 0))
##
## Coefficients:
## ar1 ar2
## -0.3301 -0.2656
## s.e. 0.1255 0.1246
##
## sigma^2 estimated as 14509: log likelihood = -366.51, aic = 739.02
##
## Training set error measures:
## ME RMSE MAE MPE MAPE MASE
## Training set 1.414923 119.4485 79.70868 -0.01544202 1.747832 0.8906841
## ACF1
## Training set -0.005096097
coeftest(bbria1)
##
## z test of coefficients:
##
## Estimate Std. Error z value Pr(>|z|)
## ar1 -0.25758 0.12505 -2.0599 0.03941 *
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
coeftest(bbria2)
##
## z test of coefficients:
##
## Estimate Std. Error z value Pr(>|z|)
## ma1 -0.39170 0.13194 -2.9687 0.002991 **
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
coeftest(bbria3)
##
## z test of coefficients:
##
## Estimate Std. Error z value Pr(>|z|)
## ar1 0.54849 0.24742 2.2168 0.02664 *
## ma1 -0.87209 0.17539 -4.9724 6.613e-07 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
coeftest(bbria4)
##
## z test of coefficients:
##
## Estimate Std. Error z value Pr(>|z|)
## ma1 -0.32505 0.13475 -2.4121 0.01586 *
## ma2 -0.16598 0.16135 -1.0287 0.30362
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
coeftest(bbria5)
##
## z test of coefficients:
##
## Estimate Std. Error z value Pr(>|z|)
## ar1 -0.33007 0.12548 -2.6304 0.008528 **
## ar2 -0.26564 0.12459 -2.1322 0.032993 *
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Dapat diliat hari output coeftest() ini pada :
Arima pertama nilai dari Pr(>|z|) = 0.03941 yaitu signifikan pada ar1
Arima kedua nilai dari Pr(>|z|) = 0.002991 yaitu signifikan pada ma1
Arima ketiga nilai dari Pr(>|z|) = 0.02664 yaitu tidak signifikan .
Arima keempat nilai dari Pr(>|z|) = 0.01586 yaitu signifikan hanya ma1.
Arima kelima nilai dari Pr(>|z|) = 0.008528 yaitu signifikan pada ar1.
Setelah itu akan dilakukan diagnostic checking pada arima yang signifikan
tsdiag(bbria1)
tsdiag(bbria2)
tsdiag(bbria4)
tsdiag(bbria5)
Selanjutnya akan dilakukan uji nilai tengah terhadap residual pada setiap model.
=bbria1$residuals
resid1t.test(resid1, mu=0, alternative = "two.sided")
##
## One Sample t-test
##
## data: resid1
## t = 0.1136, df = 59, p-value = 0.9099
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
## -30.48914 34.15928
## sample estimates:
## mean of x
## 1.835067
=bbria2$residuals
resid2t.test(resid2, mu=0, alternative = "two.sided")
##
## One Sample t-test
##
## data: resid2
## t = 0.10085, df = 59, p-value = 0.92
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
## -30.00109 33.18567
## sample estimates:
## mean of x
## 1.59229
=bbria4$residuals
resid4t.test(resid4, mu=0, alternative = "two.sided")
##
## One Sample t-test
##
## data: resid4
## t = 0.082381, df = 59, p-value = 0.9346
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
## -30.01253 32.58988
## sample estimates:
## mean of x
## 1.288675
=bbria5$residuals
resid5t.test(resid5, mu=0, alternative = "two.sided")
##
## One Sample t-test
##
## data: resid5
## t = 0.090993, df = 59, p-value = 0.9278
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
## -29.70011 32.52996
## sample estimates:
## mean of x
## 1.414923
=bbria1$residuals
resid1t.test(resid1, mu=0, alternative = "two.sided")
##
## One Sample t-test
##
## data: resid1
## t = 0.1136, df = 59, p-value = 0.9099
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
## -30.48914 34.15928
## sample estimates:
## mean of x
## 1.835067
Dapat dilihat dari output t.test() untuk nilai p-values melebihi nilai alpha.
Resid1 : p-value = 0.9099 Resid2 : p-value = 0.92 Resid4 : p-value = 0.9346 Resid5 : p-value = 0.9278
<-stargazer(bbria1, bbria2, bbria4, bbria5, type="text", digits=2, out="BBRI.rtf") str
##
## =========================================================
## Dependent variable:
## ---------------------------------------
## bbridata
## (1) (2) (3) (4)
## ---------------------------------------------------------
## ar1 -0.26** -0.33***
## (0.13) (0.13)
##
## ma1 -0.39*** -0.33**
## (0.13) (0.13)
##
## ma2 -0.17
## (0.16)
##
## ar2 -0.27**
## (0.12)
##
## ---------------------------------------------------------
## Observations 59 59 59 59
## Log Likelihood -368.69 -367.39 -366.86 -366.51
## sigma2 15,660.33 14,959.49 14,683.22 14,509.45
## Akaike Inf. Crit. 741.38 738.77 739.73 739.02
## =========================================================
## Note: *p<0.1; **p<0.05; ***p<0.01
Dari output Dependent variable terlihat pada tslaa1 dan bbria5 signifikan pada ar1 sedangkan untuk bbria2 dan bbria4 signifikan pada ma1. Dan untuk perbandingan Akaike, terlihat bahwa tslaa5 memiliki nilai akaike lebih kecil
accuracy(bbria1)
## ME RMSE MAE MPE MAPE MASE
## Training set 1.835067 124.0953 81.75932 -0.003760151 1.79357 0.9135984
## ACF1
## Training set -0.0721149
accuracy(bbria2)
## ME RMSE MAE MPE MAPE MASE ACF1
## Training set 1.59229 121.2868 79.16528 -0.01364674 1.737697 0.884612 0.03725632
accuracy(bbria4)
## ME RMSE MAE MPE MAPE MASE
## Training set 1.288675 120.1617 80.27301 -0.02275898 1.762323 0.8969901
## ACF1
## Training set -0.01388961
accuracy(bbria5)
## ME RMSE MAE MPE MAPE MASE
## Training set 1.414923 119.4485 79.70868 -0.01544202 1.747832 0.8906841
## ACF1
## Training set -0.005096097
Dari hasil perbandingan menggunakan error dengan function accuracy() terlihat pada kolom RMSE,dan MAE pada bbria5 yang lebih kecil.
Sehingga dapat dikatakan bbria2 dengan model AR1 ordo=(1,0,1) adalah model yang dipilih
=predict(bbria2,n.ahead=6)
pred.data pred.data
## $pred
## Time Series:
## Start = 61
## End = 66
## Frequency = 1
## [1] 4461.249 4461.249 4461.249 4461.249 4461.249 4461.249
##
## $se
## Time Series:
## Start = 61
## End = 66
## Frequency = 1
## [1] 122.3090 143.1608 161.3398 177.6683 192.6176 206.4874
Model Regresi time series memiliki suatu kelebihan dimana tentunya kita dapat memperkirakan atau meramalkan nilai data pada periode berikutnya dengan hanya berdasar pada data-data yang sudah dikumpulkan sebelumya. Dan pada model ini merupakan model terbaik dalam melakukan peramalan, dikarenakan data yang dipakai disini digunakan untuk ramalan jangka panjang.
Model Exponential Smoothing dalam pengujiannya itu banyak mengurangi masalah penyimpanan data, sehingga tidak perlu lagi menyimpan semua data historis atau sebagian hanya pengamatan terakhir, ramalan terakhir, dan suatu nilai konstanta yang harus disimpan metode ini cukup sering digunakan untuk peramalan, namun metode ini kurang baik untuk digunakan pada data ini dikarenakan mengunakan peramalan jangka panjang dan metode ini memiliki tingkat keraguan yang tinggi sehingga peneliti butuh memperhatikan nilai konstanta agar akurat
Model ARIMA juga merupakan model yang bagus untuk digunakan pada data ini, dikarenakan model ini membutuhkan data yang banyak untuk peramalan. namun metode ini lebih baik untuk peramalan jangka pendek.
menurut saya metode yang paling pas dalam menganalisis dan melakukan peramalan adalah metode model regresi time series dan metode arima, dikarenakan yang satu baik untuk peramalan jangka panjang dan satunya lagi baik dikarenakan metode tersebut bagus untuk pengunaan data yang banyak.