Pada laporan ini dilakukan analisis Regresi Linear Berganda untuk mengetahui pengaruh variabel-variabel prediktor terhadap variabel respon.
Variabel:
Tujuan Analisis:
Metode yang digunakan dalam penelitian ini adalah metode regresi linier berganda. Analisis regresi linear berganda adalah pengembangan dari analisis regresi linear sederhana dimana terdapat lebih dari satu variabel independen \((X)\). Analisis ini digunakan untuk melihat sejumlah variabel independen \(X_1, X_2, …, X_n\) terhadap variabel dependen \((Y)\). Persamaan regresi linier berganda adalah sebagai berikut:
\[ Y = \beta_0 + \beta_1 X_1 + \beta_2 X_2+ \beta_3 X_3 + \varepsilon \]
Dengan:
\(\beta_0\) : Intercept (Konstanta)
\(\beta_1, \beta_2, \beta_3\) : Koefisien Regresi
\(\varepsilon\) : Error
## Observation Date Y X1 X2
## Length:42 Min. :2.080 Min. :261.6 Min. :19367
## Class :character 1st Qu.:2.295 1st Qu.:276.0 1st Qu.:20660
## Mode :character Median :2.345 Median :296.2 Median :20972
## Mean :2.388 Mean :289.4 Mean :20963
## 3rd Qu.:2.460 3rd Qu.:302.2 3rd Qu.:21486
## Max. :2.880 Max. :307.8 Max. :21863
## NA's :6 NA's :6 NA's :6
## X3
## Min. : 52.00
## 1st Qu.: 71.63
## Median : 77.91
## Mean : 80.14
## 3rd Qu.: 86.12
## Max. :114.84
## NA's :6
##
## Call:
## lm(formula = Y ~ X1 + X2 + X3, data = df)
##
## Residuals:
## Min 1Q Median 3Q Max
## -0.229065 -0.051136 -0.002841 0.049257 0.226439
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 1.613e+00 7.624e-01 2.116 0.0422 *
## X1 -5.655e-03 1.132e-03 -4.994 2.02e-05 ***
## X2 8.110e-05 3.974e-05 2.041 0.0496 *
## X3 8.875e-03 1.740e-03 5.102 1.48e-05 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.08985 on 32 degrees of freedom
## (6 observations deleted due to missingness)
## Multiple R-squared: 0.7576, Adjusted R-squared: 0.7349
## F-statistic: 33.34 on 3 and 32 DF, p-value: 5.755e-10
# Mengambil koefisien regresi
b0 <- coef(regresi)[1]
b1 <- coef(regresi)[2]
b2 <- coef(regresi)[3]
b3 <- coef(regresi)[4]Berdasarkan output R Studio di atas, diperoleh model awal, yaitu:
Sehingga dapat dibangun model awal regresinya, yaitu:
\[ \widehat{Y} = 1.613 -0.006X_1 + 8.11 \times 10^{-5} X_2 +0.009X_3 \]
Pengujian normalitas residual secara visual dilakukan menggunakan grafik Normal Q-Q Plot.
qqnorm(residual, xlab="Observed Value", ylab="Expected Normal",
main="Normal Q-Q Plot of Residual")
qqline(residual, col="red")Pada Normal Q-Q Plot of Unstandardized Residual dapat dilihat bahwa plot-plot mengikuti garis lurus, sehingga dapat disimpulkan bahwa residual berdistribusi normal. Maka asumsi normalitas terpenuhi secara visual.
Pengujian normalitas secara formal dilakukan menggunakan uji Shapiro-Wilk.
Hipotesis:
\(H_0\) : Residual berdistribusi
normal
\(H_1\) : Residual tidak berdistribusi
normal
Taraf Signifikansi:
\(\alpha = 5\%\).
Statistik Uji:
##
## Shapiro-Wilk normality test
##
## data: residual
## W = 0.97228, p-value = 0.4912
Berdasarkan hasil uji Shapiro-Wilk diperoleh nilai statistik uji sebesar 0.972 dengan nilai p-value sebesar 0.491.
Keputusan:
Karena nilai p-value > 0,05 maka \(H_0\) gagal ditolak.
Kesimpulan:
Pada taraf signifikansi 5%, residual berdistribusi normal atau asumsi normalitas terpenuhi.
Berdasarkan grafik Residuals vs Fitted di atas, dapat dilihat bahwa plot data menyebar secara acak atau tidak membentuk pola tertentu, maka dapat disimpulkan bahwa asumsi linearitas terpenuhi.
Pengujian linearitas model secara formal dilakukan menggunakan Uji Ramsey RESET. Uji ini bertujuan untuk mendeteksi adanya kesalahan spesifikasi model, khususnya bentuk non-linear yang tidak dimasukkan dalam model.
Hipotesis:
\(H_0\) : Model regresi sudah linear
(tidak terdapat kesalahan spesifikasi).
\(H_1\) : Model regresi tidak linear
(terdapat kesalahan spesifikasi).
Taraf Signifikansi:
\(\alpha = 5\%\).
Statistik Uji:
##
## RESET test
##
## data: regresi
## RESET = 2.1705, df1 = 2, df2 = 30, p-value = 0.1317
Berdasarkan hasil Uji Ramsey RESET diperoleh nilai statistik uji sebesar 2.17 dengan nilai p-value sebesar 0.132.
Keputusan:
Karena nilai p-value > 0,05 maka \(H_0\) gagal ditolak.
Kesimpulan:
Pada taraf signifikansi 5%, model regresi tidak terdapat kesalahan spesifikasi sehingga asumsi linearitas terpenuhi.
Berdasarkan grafik Scale Location scatterplot dapat dilihat bahwa asumsi Homoskedastisitas terpenuhi jika residual menyebar secara acak dan tidak membentuk pola.
Pengujian homoskedastisitas secara formal dilakukan menggunakan Uji Glejser. Uji ini digunakan untuk mendeteksi apakah terjadi heteroskedastisitas dalam model regresi.
Hipotesis:
\(H_0\) : Tidak terjadi gejala heteroskedastisitas (varians residual konstan)
\(H_1\) : Terdapat gejala heteroskedastisitas (varians residual tidak konstan)
Taraf Signifikansi:
\(\alpha = 5\%\).
Statistik Uji:
data_model <- model.frame(regresi)
glejser_test <- lm(abs(resid(regresi)) ~ X1 + X2 + X3, data = data_model)
glejser_result <- summary(glejser_test)
glejser_result##
## Call:
## lm(formula = abs(resid(regresi)) ~ X1 + X2 + X3, data = data_model)
##
## Residuals:
## Min 1Q Median 3Q Max
## -0.10138 -0.02626 -0.01533 0.02508 0.13463
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 5.810e-02 4.508e-01 0.129 0.8982
## X1 -1.225e-03 6.695e-04 -1.830 0.0766 .
## X2 1.145e-05 2.350e-05 0.487 0.6295
## X3 1.499e-03 1.029e-03 1.457 0.1548
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.05313 on 32 degrees of freedom
## Multiple R-squared: 0.1985, Adjusted R-squared: 0.1234
## F-statistic: 2.642 on 3 and 32 DF, p-value: 0.06611
Berdasarkan hasil Uji Glejser diperoleh nilai p-value untuk masing-masing variabel sebagai berikut:
Keputusan:
Karena seluruh nilai p-value > 0,05 maka \(H_0\) gagal ditolak.
Kesimpulan:
Pada taraf signifikansi 5%, tidak terdapat indikasi heteroskedastisitas sehingga asumsi homoskedastisitas terpenuhi.
Pengujian non-autokorelasi residual secara formal dilakukan menggunakan Uji Durbin–Watson.
Hipotesis:
\(H_0\) : Tidak terdapat
autokorelasi pada residual (residual saling bebas).
\(H_1\) : Terdapat autokorelasi pada
residual.
Taraf Signifikansi:
\(\alpha = 5\%\)
Statistik Uji:
##
## Durbin-Watson test
##
## data: regresi
## DW = 1.3156, p-value = 0.003851
## alternative hypothesis: true autocorrelation is greater than 0
Berdasarkan hasil uji Durbin–Watson diperoleh nilai statistik Durbin–Watson sebesar 1.316 dengan nilai p-value sebesar 0.004.
Keputusan:
Karena nilai p-value ≤ 0,05 maka \(H_0\) ditolak.
Kesimpulan:
Pada taraf signifikansi 5%, terdapat autokorelasi pada residual sehingga asumsi non-autokorelasi tidak terpenuhi atau terjadi autokorelasi positif pada data yang diobservasi..
Pengujian multikolinearitas dilakukan untuk mengetahui apakah terdapat hubungan linear yang kuat antar variabel independen dalam model regresi. Pengujian ini dilakukan menggunakan Variance Inflation Factor (VIF).
Hipotesis:
\(H_0\) : Tidak terjadi
multikolinearitas antar variabel independen.
\(H_1\) : Terjadi multikolinearitas
antar variabel independen.
Statistik Uji:
## X1 X2 X3
## 1.247203 2.584067 2.708746
Berdasarkan hasil perhitungan VIF diperoleh nilai sebagai berikut:
Kriteria Keputusan:
Jika nilai VIF < 10 maka tidak terjadi multikolinearitas.
Keputusan:
Karena seluruh nilai VIF < 10 maka \(H_0\) gagal ditolak.
Kesimpulan:
Seluruh variabel independen memiliki nilai VIF < 10 sehingga tidak terdapat multikolinearitas dalam model regresi.
Uji F digunakan untuk mengetahui apakah variabel independen secara bersama-sama berpengaruh signifikan terhadap variabel dependen dalam model regresi.
Hipotesis:
\(H_0\) : \(\beta_1 = \beta_2 = \beta_3 = 0\) (tidak
terdapat pengaruh secara simultan).
\(H_1\) : Minimal terdapat satu \(\beta_i \neq 0\) (terdapat pengaruh secara
simultan).
Taraf Signifikansi:
\(\alpha = 5\%\)
Statistik Uji:
##
## Call:
## lm(formula = Y ~ X1 + X2 + X3, data = df)
##
## Residuals:
## Min 1Q Median 3Q Max
## -0.229065 -0.051136 -0.002841 0.049257 0.226439
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 1.613e+00 7.624e-01 2.116 0.0422 *
## X1 -5.655e-03 1.132e-03 -4.994 2.02e-05 ***
## X2 8.110e-05 3.974e-05 2.041 0.0496 *
## X3 8.875e-03 1.740e-03 5.102 1.48e-05 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.08985 on 32 degrees of freedom
## (6 observations deleted due to missingness)
## Multiple R-squared: 0.7576, Adjusted R-squared: 0.7349
## F-statistic: 33.34 on 3 and 32 DF, p-value: 5.755e-10
Berdasarkan hasil estimasi model regresi diperoleh nilai statistik F sebesar 33.342 dengan nilai p-value sebesar 0.
Keputusan:
Karena nilai p-value ≤ 0,05 maka \(H_0\) ditolak.
Kesimpulan:
Pada taraf signifikansi 5%, variabel independen secara simultan berpengaruh signifikan terhadap variabel dependen.
Uji t digunakan untuk mengetahui apakah masing-masing variabel independen secara parsial berpengaruh signifikan terhadap variabel dependen dalam model regresi.
Hipotesis:
\(H_0\) : \(\beta_i = 0\) (variabel \(X_i\) tidak berpengaruh signifikan terhadap
\(Y\)).
\(H_1\) : \(\beta_i \neq 0\) (variabel \(X_i\) berpengaruh signifikan terhadap \(Y\)).
Taraf Signifikansi:
\(\alpha = 5\%\)
Statistik Uji:
##
## Call:
## lm(formula = Y ~ X1 + X2 + X3, data = df)
##
## Residuals:
## Min 1Q Median 3Q Max
## -0.229065 -0.051136 -0.002841 0.049257 0.226439
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 1.613e+00 7.624e-01 2.116 0.0422 *
## X1 -5.655e-03 1.132e-03 -4.994 2.02e-05 ***
## X2 8.110e-05 3.974e-05 2.041 0.0496 *
## X3 8.875e-03 1.740e-03 5.102 1.48e-05 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.08985 on 32 degrees of freedom
## (6 observations deleted due to missingness)
## Multiple R-squared: 0.7576, Adjusted R-squared: 0.7349
## F-statistic: 33.34 on 3 and 32 DF, p-value: 5.755e-10
Berdasarkan hasil estimasi model regresi diperoleh nilai koefisien, statistik uji t, dan p-value sebagai berikut:
Variabel \(X_1\)
Koefisien = -0.006
t-statistic = -4.994
p-value = 0
Variabel \(X_2\)
Koefisien = 0
t-statistic = 2.041
p-value = 0.05
Variabel \(X_3\)
Koefisien = 0.009
t-statistic = 5.102
p-value = 0
Keputusan:
Kesimpulan:
Pada taraf signifikansi 5%, \(H_0\) ditolak karena nilai p-value dari variabel \(X_1\), \(X_2\), dan \(X_3\) lebih kecil dari \(α\) (0,05) sehingga dapat disimpulkan bahwa koefisien parameter signifikan atau dengan kata lain variabel \(X_1\), \(X_2\), dan \(X_3\) berpengaruh signifikan terhadap variabel \(Y\).
Koefisien determinasi digunakan untuk mengetahui seberapa besar kemampuan variabel independen dalam menjelaskan variasi variabel dependen dalam model regresi.
Nilai koefisien determinasi berada pada rentang 0 sampai 1. Semakin besar nilai koefisien determinasi, maka semakin besar pula kemampuan variabel independen dalam menjelaskan variabel dependen.
## [1] 0.7576245
## [1] 0.7349018
Berdasarkan hasil estimasi model regresi diperoleh nilai koefisien determinasi (\(R^2\)) sebesar 0.758 dan nilai Adjusted \(R^2\) sebesar 0.735.
Hal ini menunjukkan bahwa sebesar 75.76% variasi pada variabel dependen dapat dijelaskan oleh variabel independen dalam model, sedangkan sisanya sebesar 24.24% dijelaskan oleh faktor lain di luar model.
Mean Squared Error (MSE) digunakan untuk mengukur rata-rata kuadrat dari residual model regresi.
## [1] 0.007176167
Berdasarkan hasil perhitungan diperoleh nilai Mean Squared Error (MSE) sebesar 0.0072. Nilai MSE yang relatif kecil menunjukkan bahwa model regresi memiliki tingkat kesalahan prediksi yang rendah.
Berdasarkan hasil uji F, model regresi yang dibentuk layak digunakan untuk analisis lebih lanjut. Selain itu, berdasarkan hasil uji t diperoleh bahwa variabel independen dalam model memberikan pengaruh terhadap variabel dependen.
Dengan demikian, model regresi akhir yang diperoleh adalah sebagai berikut:
\[ \widehat{Y} = 1.613 -0.006X_1 + 8.11 \times 10^{-5} X_2 +0.009X_3 \]
Model tersebut menunjukkan hubungan antara variabel independen \(X_1\), \(X_2\), dan \(X_3\) terhadap variabel dependen \(Y\).
Namun demikian, model regresi yang diperoleh masih perlu diperhatikan kembali terhadap pemenuhan asumsi klasik, khususnya pada asumsi non-autokorelasi apabila hasil pengujian menunjukkan adanya pelanggaran terhadap asumsi tersebut.