Email             :
rpubs             : https://rpubs.com/Garr
Jurusan          : Statistika Bisnis
Address         : ARA Center, Matana University Tower
                         Jl. CBD Barat Kav, RT.1, Curug Sangereng, Kelapa Dua, Tangerang, Banten 15810.


1 soal

  1. Jelaskan bagaimana anda membangun ketiga model tersebut
  2. Bandingkan hasil prediksi dari ketiga model tersebut
  3. Berikan pendapatkan kalian mengenai kelebihan dan kekurangan penggunaan model tersebut pada kasus (dataset) anda.

2 time series regression model

dataset yang dipakai adalah data dari saham perusahaan Tesla, yang dimana Tesla ini merupakan salah satu perusahaan yang dimiliki oleh Elon Musk. yang diluncurkan di pasar modal pada tanggal 26 mei 2010.

tsla = read.csv("TSLA.csv")
datatable(tsla)
datasaham <- tsla %>%
  mutate(Date = ymd(Date)) %>%
  arrange(Date) %>%
  select(Date, High) %>%
  pad() %>%
  mutate(High = na.fill(High, na.aggregate(High)))
## pad applied on the interval: day
glimpse(datasaham)
## Rows: 2,191
## Columns: 2
## $ Date <date> 2016-05-26, 2016-05-27, 2016-05-28, 2016-05-29, 2016-05-30, 2016~
## $ High <dbl> 45.052, 45.186, 45.186, 45.186, 45.186, 44.950, 44.480, 43.982, 4~

pada data ini memiliki baris sebanyak 2,191 dan terdiri dari 2 kolom. yang dimana kolom tersebut memuat data tanggal dan harga tertinggi saham tersebut.

range(datasaham$Date)
## [1] "2016-05-26" "2022-05-25"

jarak data yang digunakan memiliki interval harian yang berasal dari tanggal 26 mei 2016 sampai tanggal 25 mei 2022

ts.plot(tsla$High)

dalam plot ini menunjukan bahwa harga saham sempat mengalami kenaikan harga yang sangat tinggi dibandingkan pada tahun tahun sebelumnya.

3 uji asumsi

untuk menganalisa suatu program linear, ada beberapa asumsi yang harus dipenuhi, yaitu :

datatable(tsla)

3.1 Normalitas

uji normalitas adalah uji yang dilakukan untuk mengecek apakah data penelitian kita berasal dari populasi yang sebarannya normal. uji ini perlu dilakukan karena semua perhitungan statistik parametrik memiliki asumsi normalitas sebaran.

data <- data.frame(tsla)
datatable(data)
y <- as.integer(tsla$Open)
x <- as.integer(tsla$High)

tslalm <- lm(x~y, data = tsla)
tslalm
## 
## Call:
## lm(formula = x ~ y, data = tsla)
## 
## Coefficients:
## (Intercept)            y  
##    -0.08472      1.02271
par(mfrow=c(2,2))
plot(tslalm)

dari output “Normal Q-Q”

3.2 heterokedastisitas

Uji Heteroskedastisitas adalah uji yang menilai apakah ada ketidaksamaan varian dari residual untuk semua pengamatan pada model regresi linear. Uji ini merupakan salah satu dari uji asumsi klasik yang harus dilakukan pada regresi linear.

par(mfrow=c(2,2))
plot(tslalm)

Dari output yang dihasilkan, pada output Residuals vs Fitted ini terlihat bahwa data yang pada titik ini tidak menyebar melainkan bergerombol maka dapat dikatakan bahwa tidak terjadi perbedaan varians residual sehingga ini memenuhi uji asumsi pada heteroskedastisitas.

3.3 Autokorelasi

Uji Autokorelasi adalah sebuah analisis statistik yang dilakukan untuk mengetahui adakah korelasi variabel yang ada di dalam model prediksi dengan perubahan waktu.

dwtest(tslalm)
## 
##  Durbin-Watson test
## 
## data:  tslalm
## DW = 1.9699, p-value = 0.2703
## alternative hypothesis: true autocorrelation is greater than 0

Dari output diatas pada nilai Durbin-Watson test menghasilkan niali p-value = 0.2703 yang mana lebih besar dari nilai alpha 0.05 sehingga dapat disimpulkan bahwa tidak ada terjadi pengaruh antara data yang lama dengan data yang baru ini. Maka demikian bahwa asumsi autokorelasi ini tidak ada pada data ini.

summary(tslalm)
## 
## Call:
## lm(formula = x ~ y, data = tsla)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -25.555  -1.435  -0.414   0.586  86.187 
## 
## Coefficients:
##               Estimate Std. Error  t value Pr(>|t|)    
## (Intercept) -0.0847239  0.2943205   -0.288    0.773    
## y            1.0227110  0.0006871 1488.417   <2e-16 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 8.809 on 1509 degrees of freedom
## Multiple R-squared:  0.9993, Adjusted R-squared:  0.9993 
## F-statistic: 2.215e+06 on 1 and 1509 DF,  p-value: < 2.2e-16

Dari output diatas, nilai Y pada hasil estimate yaitu Y = -0.0847239 + 1.0227110. significant nilai t value yaitu 1488.417 dan nilai Pr(>|t|) yaitu <2e-16 *** yang berarti signifikan.

3.4 kesimpulan

Bila nilai signifikansi t < 0.05 sedangkan t value yaitu 1488.417 maka H0 diterima, artinya tidak terdapat pengaruh yang signifikan antara satu variabel independen terhadap variabel dependen

4 Exponential smoothing Models

Dalam model peramalan pemulusan eksponensial, apabila forecast error adalah positif, yang berarti nilai aktual permintaan lebih tinggi daripada nilai ramalan (A-F > 0), maka model pemulusan eksponensial akan secara otomatis meningkatkan nilai ramalan. Sebaliknya apabila forecasts error adalah negatif, yang berarti nilai aktual permintaan lebih rendah daripada nilai ramalan (A-F < 0), maka model pemulusan eksponensial akan secara otomatis menurunkan nilai ramalan.

4.1 Single Exponential Smoothing

Metode single exponential smoothing merupakan metode yang digunakan pada peramalan jangka pendek yang biasanya hanya 1 bulan ke depan yang mengasumsikan bahwa data berfluktuasi di sekitar nilai mean yang tetap tanpa trend atau pola pertumbuhan konsisten.

Y<-as.integer(data$Open)
X<-as.integer(data$High)
tslases<-ses(data$High ,h=10)
plot(tslases)

4.2 Holt-Winters

Metode Holt-Winters adalah metode prediksi kuantitatif yang digunakan untuk memprediksi data tren dan musiman. Beberapa variasi dari metode Holt-Winters adalah Multiplicative Holt-Winters, Additive Holt-Winters dan Double Seasonal Holt-Winters.

Pada R ini, metode Holt-Winter menggunakan parameter alpha, gamma, dan beta.

tslalog <- log(tsla$High)
tslalog[is.infinite(tslalog)]<-0
tslaholt<-HoltWinters(tslalog, beta = FALSE, gamma = FALSE)
tslaholt
## Holt-Winters exponential smoothing without trend and without seasonal component.
## 
## Call:
## HoltWinters(x = tslalog, beta = FALSE, gamma = FALSE)
## 
## Smoothing parameters:
##  alpha: 0.9999279
##  beta : FALSE
##  gamma: FALSE
## 
## Coefficients:
##       [,1]
## a 6.506261
predic<-forecast(tslaholt,h=10)
predic
##      Point Forecast    Lo 80    Hi 80    Lo 95    Hi 95
## 1512       6.506261 6.463121 6.549400 6.440284 6.572237
## 1513       6.506261 6.445254 6.567267 6.412959 6.599562
## 1514       6.506261 6.431544 6.580977 6.391992 6.620530
## 1515       6.506261 6.419986 6.592535 6.374315 6.638206
## 1516       6.506261 6.409803 6.602718 6.358741 6.653780
## 1517       6.506261 6.400597 6.611924 6.344662 6.667859
## 1518       6.506261 6.392131 6.620390 6.331714 6.680807
## 1519       6.506261 6.384251 6.628270 6.319663 6.692858
## 1520       6.506261 6.376850 6.635671 6.308344 6.704177
## 1521       6.506261 6.369850 6.642671 6.297639 6.714883

nilai akurasi

SSE<-tslaholt$SSE
SSE
## [1] 1.714719
plot(tslaholt)

Dari output yang muncul pada tingkat akurasi terlihat bahwa data hanya dapat memunculkan nilai SSE dan pada metode pemulusan dengan nilai lamda sebesar 0.1 ini memiliki nilai akurat yang jauh lebih kecil sehingga dapat dinyatakan bahwa metode ini lebih baik

4.3 Double Exponential Smoothing

Metode Double expoential smoothing adalah suatu metode yang paling luas digunakan untuk menentukan persamaan trend data pemulusan kedua melalui proses smoothing. Sistem peramalan ini menangkap pola dari data yang telah lalu kemudian digunakan untuk memproyeksikan data yang akan datang.

tslawinters<-HoltWinters(tslalog,gamma = FALSE, beta = FALSE, alpha = 0.1)
plot(tslawinters)

predic<-forecast(tslawinters,h=10)
predic
##      Point Forecast    Lo 80    Hi 80    Lo 95    Hi 95
## 1512       6.663289 6.552927 6.773652 6.494504 6.832075
## 1513       6.663289 6.552376 6.774202 6.493662 6.832916
## 1514       6.663289 6.551829 6.774750 6.492825 6.833754
## 1515       6.663289 6.551283 6.775295 6.491991 6.834588
## 1516       6.663289 6.550741 6.775838 6.491162 6.835417
## 1517       6.663289 6.550201 6.776377 6.490336 6.836243
## 1518       6.663289 6.549664 6.776915 6.489514 6.837064
## 1519       6.663289 6.549129 6.777449 6.488697 6.837882
## 1520       6.663289 6.548597 6.777982 6.487883 6.838696
## 1521       6.663289 6.548067 6.778511 6.487073 6.839506

nilai akurasi

tslasse<-tslawinters$SSE
tslasse
## [1] 11.73079
plot(tslawinters)

Dari output yang muncul pada tingkat akurasi terlihat bahwa data hanya dapat memunculkan nilai SSE pada metode double exponential smoothing dengan nilai lamda sebesar 0.1 dan gamma sebesar 0.1 ini memiliki nilai akurat yang jauh lebih kecil sehingga dapat dinyatakan bahwa metode ini lebih baik.

4.4 Kesimpulan

tslaholt$SSE
## [1] 1.714719
tslawinters$SSE
## [1] 11.73079

Pada nilai SSE antar metode Holt-winter dengan Double exponential smoothing ini dapat dilihat bahwa metode Double Exponential Smoothing memiliki nilai yang lebih kecil dengan lambda sebesar 0.1 dan gamma sebesar 0.1 sehingga dapat dinyatakan bahwa metode ini lebih baik untuk digunakan.

5 Arima Models

Model ARIMA memberikan pendekatan lain dalam peramalan deret waktu. Model ARIMA merupakan salah satu pendekatan yang paling banyak digunakan dalam peramalan deret waktu, dan memberikan pendekatan pelengkap untuk suatu masalah. Model ARIMA bertujuan dalam menggambarkan autokorelasi dalam data.

str(tsla)
## 'data.frame':    1511 obs. of  7 variables:
##  $ Date     : chr  "2016-05-26" "2016-05-27" "2016-05-31" "2016-06-01" ...
##  $ Open     : num  44.1 45 44.6 44.3 43.9 ...
##  $ High     : num  45.1 45.2 45 44.5 44 ...
##  $ Low      : num  43.8 44.2 44.3 43.4 43.4 ...
##  $ Close    : num  45 44.6 44.6 43.9 43.8 ...
##  $ Adj.Close: num  45 44.6 44.6 43.9 43.8 ...
##  $ Volume   : int  20362000 18251500 13945000 14913500 10164000 11145000 11247500 31068000 29860000 22460500 ...
tstsla <- ts(tsla)
str(tstsla)
##  Time-Series [1:1511, 1:7] from 1 to 1511: 1 2 3 4 5 6 7 8 9 10 ...
##  - attr(*, "dimnames")=List of 2
##   ..$ : NULL
##   ..$ : chr [1:7] "Date" "Open" "High" "Low" ...
summary(tstsla)
##       Date             Open              High              Low         
##  Min.   :   1.0   Min.   :  36.22   Min.   :  36.95   Min.   :  35.40  
##  1st Qu.: 378.5   1st Qu.:  55.48   1st Qu.:  56.19   1st Qu.:  54.63  
##  Median : 756.0   Median :  68.94   Median :  69.84   Median :  67.65  
##  Mean   : 756.0   Mean   : 273.80   Mean   : 279.97   Mean   : 266.97  
##  3rd Qu.:1133.5   3rd Qu.: 521.95   3rd Qu.: 543.00   3rd Qu.: 514.00  
##  Max.   :1511.0   Max.   :1234.41   Max.   :1243.49   Max.   :1217.00  
##      Close           Adj.Close           Volume         
##  Min.   :  35.79   Min.   :  35.79   Min.   :  8297500  
##  1st Qu.:  55.34   1st Qu.:  55.34   1st Qu.: 23045750  
##  Median :  68.90   Median :  68.90   Median : 32116500  
##  Mean   : 273.65   Mean   : 273.65   Mean   : 41085943  
##  3rd Qu.: 538.62   3rd Qu.: 538.62   3rd Qu.: 47846350  
##  Max.   :1229.91   Max.   :1229.91   Max.   :304694000
tsladata <- tstsla[,2]
plot(tsladata)
ts.plot(tsladata)

ts.plot(tsladata, main = "Grafik 01",
        xlab=" Saham",
        ylab=" Tahun")

plot(diff(tsladata), main="Grafik 02",
     xlab=" Saham",
     ylab=" Tahun")

Dapat dilihat pada plot tsla, grafik yang dihasilkan cenderung arah nya naik. Namun pada plot kedua terlihat hasil grafiknya lebih stabil dan bergerak pada sumbu horizontal sehingga ini merupakan stasioner.Maka dari itu akan dilakukan uji stasioneritas.

5.1 Dickey-Fuller test for variable

Uji stationeritas Augmented Dickey-Fuller atau ADF adalah pengujian hipotesis nol yang menyatakan bahwa unit root ada dalam model autoregresif. pada data ini memiliki stasioneritas jika perubahan waktu tidak menyebabkan perubahan dalam bentuk distribusi.

adf.test(tsladata)
## 
##  Augmented Dickey-Fuller Test
## 
## data:  tsladata
## Dickey-Fuller = -1.9689, Lag order = 11, p-value = 0.5915
## alternative hypothesis: stationary

Dapat dilihat pada p-value = 0.5815, ini melebihi nilai alpha maka tidak stasioner.

5.2 ADF test for differenced variable

adf.test(diff(tsladata))
## Warning in adf.test(diff(tsladata)): p-value smaller than printed p-value
## 
##  Augmented Dickey-Fuller Test
## 
## data:  diff(tsladata)
## Dickey-Fuller = -10.638, Lag order = 11, p-value = 0.01
## alternative hypothesis: stationary

Namun dilihat dari output diff(tsladata) dengan nilai p-value = 0.01 yang mana ini lebih rendah dari nilai alpha, sehingga dapat disebut sudah stasioner.Kemudian setelah dilakukan uji stasioneer ini akan di identifikasi model.

5.3 ACF and PCF

Fungsi Autokorelasi (ACF) dan Fungsi Autokorelasi Parsial (PACF) dimana ACF mengukur korelasi antar pengamatan dengan jeda k; sedangkan PACF mengukur korelasi antar pengamatan dengan jeda k dan dengan mengontrol korelasi antar dua pengamatan dengan jeda kurang dari k.

par(mfrow=c(2,1))
acf(diff(tsladata))
pacf(diff(tsladata))

Dapat dilihat dari 2 partisi diatas bahwa ada beberapa lag yang melewati batas dan tidak stabil.

tslaa1<-arima(tsladata,order=c(1,1,0))
summary(tslaa1)
## 
## Call:
## arima(x = tsladata, order = c(1, 1, 0))
## 
## Coefficients:
##           ar1
##       -0.0818
## s.e.   0.0257
## 
## sigma^2 estimated as 329.5:  log likelihood = -6519.83,  aic = 13043.65
## 
## Training set error measures:
##                     ME     RMSE     MAE       MPE     MAPE      MASE
## Training set 0.4167147 18.14681 8.44384 0.1081299 2.662791 0.9977895
##                      ACF1
## Training set 0.0002058923
tslaa2<-arima(tsladata,order=c(0,1,1))
summary(tslaa2)
## 
## Call:
## arima(x = tsladata, order = c(0, 1, 1))
## 
## Coefficients:
##           ma1
##       -0.0799
## s.e.   0.0253
## 
## sigma^2 estimated as 329.6:  log likelihood = -6519.95,  aic = 13043.9
## 
## Training set error measures:
##                     ME    RMSE      MAE       MPE    MAPE      MASE
## Training set 0.4187554 18.1483 8.438672 0.1086656 2.66209 0.9971787
##                      ACF1
## Training set -0.001828816
tslaa3<-arima(tsladata,order=c(1,1,1))
summary(tslaa3)
## 
## Call:
## arima(x = tsladata, order = c(1, 1, 1))
## 
## Coefficients:
##           ar1     ma1
##       -0.2939  0.2140
## s.e.   0.5331  0.5457
## 
## sigma^2 estimated as 329.5:  log likelihood = -6519.71,  aic = 13045.41
## 
## Training set error measures:
##                     ME     RMSE      MAE       MPE     MAPE      MASE
## Training set 0.4103827 18.14534 8.461322 0.1064423 2.664244 0.9998553
##                      ACF1
## Training set -0.001372601
tslaa4<-arima(tsladata,order=c(0,1,2))
summary(tslaa4)
## 
## Call:
## arima(x = tsladata, order = c(0, 1, 2))
## 
## Coefficients:
##           ma1     ma2
##       -0.0809  0.0144
## s.e.   0.0257  0.0251
## 
## sigma^2 estimated as 329.5:  log likelihood = -6519.79,  aic = 13045.57
## 
## Training set error measures:
##                     ME     RMSE      MAE       MPE     MAPE     MASE
## Training set 0.4123551 18.14631 8.449658 0.1069922 2.663052 0.998477
##                       ACF1
## Training set -0.0007016925
tslaa5<-arima(tsladata,order=c(2,1,0))
summary(tslaa5)
## 
## Call:
## arima(x = tsladata, order = c(2, 1, 0))
## 
## Coefficients:
##           ar1     ar2
##       -0.0810  0.0099
## s.e.   0.0257  0.0257
## 
## sigma^2 estimated as 329.5:  log likelihood = -6519.75,  aic = 13045.51
## 
## Training set error measures:
##                     ME     RMSE      MAE       MPE     MAPE      MASE
## Training set 0.4123737 18.14591 8.452439 0.1069867 2.663344 0.9988055
##                       ACF1
## Training set -0.0004881687
coeftest(tslaa1)
## 
## z test of coefficients:
## 
##      Estimate Std. Error z value Pr(>|z|)   
## ar1 -0.081822   0.025664 -3.1882 0.001432 **
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
coeftest(tslaa2)
## 
## z test of coefficients:
## 
##      Estimate Std. Error z value Pr(>|z|)   
## ma1 -0.079878   0.025297 -3.1576 0.001591 **
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
coeftest(tslaa3)
## 
## z test of coefficients:
## 
##     Estimate Std. Error z value Pr(>|z|)
## ar1 -0.29389    0.53313 -0.5513   0.5815
## ma1  0.21396    0.54573  0.3921   0.6950
coeftest(tslaa4)
## 
## z test of coefficients:
## 
##      Estimate Std. Error z value Pr(>|z|)   
## ma1 -0.080870   0.025742 -3.1416  0.00168 **
## ma2  0.014395   0.025053  0.5746  0.56558   
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
coeftest(tslaa5)
## 
## z test of coefficients:
## 
##       Estimate Std. Error z value Pr(>|z|)   
## ar1 -0.0810089  0.0257494 -3.1461 0.001655 **
## ar2  0.0099267  0.0257388  0.3857 0.699739   
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Dapat diliat hari output coeftest() ini pada :

Arima pertama nilai dari Pr(>|z|) = 0.001432 yaitu signifikan pada ar1

Arima kedua nilai dari Pr(>|z|) = 0.001591 yaitu signifikan pada ma1

Arima ketiga nilai dari Pr(>|z|) = 0.63825 yaitu tidak signifikan .

Arima keempat nilai dari Pr(>|z|) = 0.00168 . yaitu signifikan hanya ma1.

Arima kelima nilai dari Pr(>|z|) = 0.001655 * yaitu signifikan pada ar1.

Setelah itu akan dilakukan diagnostic checking pada arima yang signifikan

tsdiag(tslaa1)

tsdiag(tslaa2)

tsdiag(tslaa4)

tsdiag(tslaa5)

Selanjutnya akan dilakukan uji nilai tengah terhadap residual pada setiap model.

resid1=tslaa1$residuals
t.test(resid1, mu=0, alternative = "two.sided")
## 
##  One Sample t-test
## 
## data:  resid1
## t = 0.89257, df = 1510, p-value = 0.3722
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
##  -0.4990703  1.3324996
## sample estimates:
## mean of x 
## 0.4167147
resid2=tslaa2$residuals
t.test(resid2, mu=0, alternative = "two.sided")
## 
##  One Sample t-test
## 
## data:  resid2
## t = 0.89687, df = 1510, p-value = 0.3699
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
##  -0.4971024  1.3346132
## sample estimates:
## mean of x 
## 0.4187554
resid4=tslaa4$residuals
t.test(resid4, mu=0, alternative = "two.sided")
## 
##  One Sample t-test
## 
## data:  resid4
## t = 0.88325, df = 1510, p-value = 0.3772
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
##  -0.5034098  1.3281199
## sample estimates:
## mean of x 
## 0.4123551
resid5=tslaa5$residuals
t.test(resid5, mu=0, alternative = "two.sided")
## 
##  One Sample t-test
## 
## data:  resid5
## t = 0.88331, df = 1510, p-value = 0.3772
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
##  -0.5033711  1.3281184
## sample estimates:
## mean of x 
## 0.4123737
resid1=tslaa1$residuals
t.test(resid1, mu=0, alternative = "two.sided")
## 
##  One Sample t-test
## 
## data:  resid1
## t = 0.89257, df = 1510, p-value = 0.3722
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
##  -0.4990703  1.3324996
## sample estimates:
## mean of x 
## 0.4167147

Dapat dilihat dari output t.test() untuk nilai p-values melebihi nilai alpha.

Resid1 : p-value = 0.1988 Resid2 : p-value = 0.1775 Resid4 : p-value = 0.1988 Resid5 : p-value = 0.1775

str<-stargazer(tslaa1, tslaa2, tslaa4, tslaa5, type="text", digits=2, out="TSLA.rtf")
## 
## =========================================================
##                             Dependent variable:          
##                   ---------------------------------------
##                                  tsladata                
##                      (1)       (2)       (3)       (4)   
## ---------------------------------------------------------
## ar1               -0.08***                      -0.08*** 
##                    (0.03)                        (0.03)  
##                                                          
## ma1                         -0.08***  -0.08***           
##                              (0.03)    (0.03)            
##                                                          
## ma2                                     0.01             
##                                        (0.03)            
##                                                          
## ar2                                               0.01   
##                                                  (0.03)  
##                                                          
## ---------------------------------------------------------
## Observations        1,510     1,510     1,510     1,510  
## Log Likelihood    -6,519.83 -6,519.95 -6,519.79 -6,519.75
## sigma2             329.52    329.58    329.51    329.49  
## Akaike Inf. Crit. 13,043.65 13,043.90 13,045.57 13,045.51
## =========================================================
## Note:                         *p<0.1; **p<0.05; ***p<0.01

Dari output Dependent variable terlihat pada tslaa1 dan tslaa5 signifikan pada ar1 sedangkan untuk tslaa2 dan tslaa4 signifikan pada ma1. Dan untuk perbandingan Akaike, terlihat bahwa tslaa5 memiliki nilai akaike lebih kecil sebesar 13.045,51

accuracy(tslaa1)
##                     ME     RMSE     MAE       MPE     MAPE      MASE
## Training set 0.4167147 18.14681 8.44384 0.1081299 2.662791 0.9977895
##                      ACF1
## Training set 0.0002058923
accuracy(tslaa2)
##                     ME    RMSE      MAE       MPE    MAPE      MASE
## Training set 0.4187554 18.1483 8.438672 0.1086656 2.66209 0.9971787
##                      ACF1
## Training set -0.001828816
accuracy(tslaa4)
##                     ME     RMSE      MAE       MPE     MAPE     MASE
## Training set 0.4123551 18.14631 8.449658 0.1069922 2.663052 0.998477
##                       ACF1
## Training set -0.0007016925
accuracy(tslaa5)
##                     ME     RMSE      MAE       MPE     MAPE      MASE
## Training set 0.4123737 18.14591 8.452439 0.1069867 2.663344 0.9988055
##                       ACF1
## Training set -0.0004881687

Dari hasil perbandingan menggunakan error dengan function accuracy() terlihat pada kolom RMSE,dan MAE pada tslaa5 yang lebih kecil.

Sehingga dapat dikatakan tslaa2 dengan model AR1 ordo=(1,0,1) adalah model yang dipilih

pred.data=predict(tslaa2,n.ahead=6)
pred.data
## $pred
## Time Series:
## Start = 1512 
## End = 1517 
## Frequency = 1 
## [1] 626.2601 626.2601 626.2601 626.2601 626.2601 626.2601
## 
## $se
## Time Series:
## Start = 1512 
## End = 1517 
## Frequency = 1 
## [1] 18.15430 24.66999 29.79325 34.15652 38.02233 41.52983

6 perbandingan

Model Regresi time series memiliki suatu kelebihan dimana tentunya kita dapat memperkirakan atau meramalkan nilai data pada periode berikutnya dengan hanya berdasar pada data-data yang sudah dikumpulkan sebelumya. Dan pada model ini merupakan model terbaik dalam melakukan peramalan, dikarenakan data yang dipakai disini digunakan untuk ramalan jangka panjang.

Model Exponential Smoothing dalam pengujiannya itu banyak mengurangi masalah penyimpanan data, sehingga tidak perlu lagi menyimpan semua data historis atau sebagian hanya pengamatan terakhir, ramalan terakhir, dan suatu nilai konstanta yang harus disimpan metode ini cukup sering digunakan untuk peramalan, namun metode ini kurang baik untuk digunakan pada data ini dikarenakan mengunakan peramalan jangka panjang dan metode ini memiliki tingkat keraguan yang tinggi sehingga peneliti butuh memperhatikan nilai konstanta agar akurat

Model ARIMA juga merupakan model yang bagus untuk digunakan pada data ini, dikarenakan model ini membutuhkan data yang banyak untuk peramalan. namun metode ini lebih baik untuk peramalan jangka pendek.

7 pendapat

menurut saya metode yang paling pas dalam menganalisis dan melakukan peramalan adalah metode model regresi time series dan metode arima, dikarenakan yang satu baik untuk peramalan jangka panjang dan satunya lagi baik dikarenakan metode tersebut bagus untuk pengunaan data yang banyak.