1 Pendahuluan

Pada laporan ini dilakukan analisis Regresi Linear Berganda untuk mengetahui pengaruh variabel-variabel prediktor terhadap variabel respon.

Variabel:

  • \(Y\) : 10-Year Breakeven Inflation Rate/ Tingkat Titik Impas Inflasi 10 Tahun
  • \(X_1\) : M2 (Money Supply)/ Jumlah Uang Beredar
  • \(X_2\) : Consumer Price Index (CPI)/ Indeks Harga Konsumen (IHK)
  • \(X_3\) : West Texas Intermediate Crude Oil Price (WTI)/ Harga Minyak Mentah West Texas Intermediate (WTI)

Tujuan Analisis:

  1. Mengestimasi parameter regresi linear berganda.
  2. Melakukan uji asumsi klasik.
  3. Melakukan uji signifikansi (uji F dan uji t).
  4. Menentukan model akhir dan interpretasi.

1.1 Dasar Teori

Metode yang digunakan dalam penelitian ini adalah metode regresi linier berganda. Analisis regresi linear berganda adalah pengembangan dari analisis regresi linear sederhana dimana terdapat lebih dari satu variabel independen \((X)\). Analisis ini digunakan untuk melihat sejumlah variabel independen \(X_1, X_2, …, X_n\) terhadap variabel dependen \((Y)\). Persamaan regresi linier berganda adalah sebagai berikut:

\[ Y = \beta_0 + \beta_1 X_1 + \beta_2 X_2+ \beta_3 X_3 + \varepsilon \]

Dengan:

\(\beta_0\) : Intercept (Konstanta)

\(\beta_1, \beta_2, \beta_3\) : Koefisien Regresi

\(\varepsilon\) : Error

1.2 Persiapan Packages

# Install Packages
packages <- c("readxl", "lmtest", "nortest", "car")

to_install <- packages[!packages %in% rownames(installed.packages())]
if(length(to_install) > 0) install.packages(to_install)

# Load packages
library(readxl)
library(lmtest)
library(nortest)
library(car)

2 Input dan Deskripsi Data

2.1 Input Data

# Membaca data dari file Excel
df <- read_excel("D:/KULIAH/SEMESTER 6/Tugas Individu Komstat lanjut/Data Tugas Individu.xlsx")

# Mendefinisikan Variabel
Y  <- df$Y
X1 <- df$X1
X2 <- df$X2
X3 <- df$X3

2.2 Statistik Deskriptif

summary(df)
##  Observation Date         Y               X1              X2       
##  Length:42          Min.   :2.080   Min.   :261.6   Min.   :19367  
##  Class :character   1st Qu.:2.295   1st Qu.:276.0   1st Qu.:20660  
##  Mode  :character   Median :2.345   Median :296.2   Median :20972  
##                     Mean   :2.388   Mean   :289.4   Mean   :20963  
##                     3rd Qu.:2.460   3rd Qu.:302.2   3rd Qu.:21486  
##                     Max.   :2.880   Max.   :307.8   Max.   :21863  
##                     NA's   :6       NA's   :6       NA's   :6      
##        X3        
##  Min.   : 52.00  
##  1st Qu.: 71.63  
##  Median : 77.91  
##  Mean   : 80.14  
##  3rd Qu.: 86.12  
##  Max.   :114.84  
##  NA's   :6

3 Pembentukan Model Regresi

3.1 Estimasi Parameter

regresi <- lm(Y ~ X1 + X2 + X3, data = df)
summary(regresi)
## 
## Call:
## lm(formula = Y ~ X1 + X2 + X3, data = df)
## 
## Residuals:
##       Min        1Q    Median        3Q       Max 
## -0.229065 -0.051136 -0.002841  0.049257  0.226439 
## 
## Coefficients:
##               Estimate Std. Error t value Pr(>|t|)    
## (Intercept)  1.613e+00  7.624e-01   2.116   0.0422 *  
## X1          -5.655e-03  1.132e-03  -4.994 2.02e-05 ***
## X2           8.110e-05  3.974e-05   2.041   0.0496 *  
## X3           8.875e-03  1.740e-03   5.102 1.48e-05 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 0.08985 on 32 degrees of freedom
##   (6 observations deleted due to missingness)
## Multiple R-squared:  0.7576, Adjusted R-squared:  0.7349 
## F-statistic: 33.34 on 3 and 32 DF,  p-value: 5.755e-10

3.2 Model Awal

# Mengambil koefisien regresi
b0 <- coef(regresi)[1]
b1 <- coef(regresi)[2]
b2 <- coef(regresi)[3]
b3 <- coef(regresi)[4]

Berdasarkan output R Studio di atas, diperoleh model awal, yaitu:

  • \(\hat{\beta}_0\) = 1.613
  • \(\hat{\beta}_1\) = -0.006
  • \(\hat{\beta}_2\) = 8.11 \(\times 10^{-5}\)
  • \(\hat{\beta}_3\) = 0.009

Sehingga dapat dibangun model awal regresinya, yaitu:

\[ \widehat{Y} = 1.613 -0.006X_1 + 8.11 \times 10^{-5} X_2 +0.009X_3 \]

3.3 Residual dan Fitted Values

residual <- regresi$residuals
fitted   <- regresi$fitted.values

4 Uji Asumsi Klasik

4.1 Asumsi Normalitas Residual

4.1.1 Secara Visual

Pengujian normalitas residual secara visual dilakukan menggunakan grafik Normal Q-Q Plot.

qqnorm(residual, xlab="Observed Value", ylab="Expected Normal",
       main="Normal Q-Q Plot of Residual")
qqline(residual, col="red")

Pada Normal Q-Q Plot of Unstandardized Residual dapat dilihat bahwa plot-plot mengikuti garis lurus, sehingga dapat disimpulkan bahwa residual berdistribusi normal. Maka asumsi normalitas terpenuhi secara visual.

4.1.2 Secara Formal

Pengujian normalitas secara formal dilakukan menggunakan uji Shapiro-Wilk.

Hipotesis:

\(H_0\) : Residual berdistribusi normal
\(H_1\) : Residual tidak berdistribusi normal

Taraf Signifikansi:

\(\alpha = 5\%\).

Statistik Uji:

shapiro_result <- shapiro.test(residual)
shapiro_result
## 
##  Shapiro-Wilk normality test
## 
## data:  residual
## W = 0.97228, p-value = 0.4912

Berdasarkan hasil uji Shapiro-Wilk diperoleh nilai statistik uji sebesar 0.972 dengan nilai p-value sebesar 0.491.

Keputusan:

Karena nilai p-value > 0,05 maka \(H_0\) gagal ditolak.

Kesimpulan:

Pada taraf signifikansi 5%, residual berdistribusi normal atau asumsi normalitas terpenuhi.

4.2 Asumsi Linearitas

4.2.1 Secara Visual

plot(regresi, 1)  # Residuals vs Fitted

Berdasarkan grafik Residuals vs Fitted di atas, dapat dilihat bahwa plot data menyebar secara acak atau tidak membentuk pola tertentu, maka dapat disimpulkan bahwa asumsi linearitas terpenuhi.

4.2.2 Secara Formal

Pengujian linearitas model secara formal dilakukan menggunakan Uji Ramsey RESET. Uji ini bertujuan untuk mendeteksi adanya kesalahan spesifikasi model, khususnya bentuk non-linear yang tidak dimasukkan dalam model.

Hipotesis:

\(H_0\) : Model regresi sudah linear (tidak terdapat kesalahan spesifikasi).
\(H_1\) : Model regresi tidak linear (terdapat kesalahan spesifikasi).

Taraf Signifikansi:

\(\alpha = 5\%\).

Statistik Uji:

reset_result <- resettest(regresi)
reset_result
## 
##  RESET test
## 
## data:  regresi
## RESET = 2.1705, df1 = 2, df2 = 30, p-value = 0.1317

Berdasarkan hasil Uji Ramsey RESET diperoleh nilai statistik uji sebesar 2.17 dengan nilai p-value sebesar 0.132.

Keputusan:

Karena nilai p-value > 0,05 maka \(H_0\) gagal ditolak.

Kesimpulan:

Pada taraf signifikansi 5%, model regresi tidak terdapat kesalahan spesifikasi sehingga asumsi linearitas terpenuhi.

4.3 Asumsi Homoskedastisitas

4.3.1 Secara Visual

plot(regresi, 3)

Berdasarkan grafik Scale Location scatterplot dapat dilihat bahwa asumsi Homoskedastisitas terpenuhi jika residual menyebar secara acak dan tidak membentuk pola.

4.3.2 Secara Formal

Pengujian homoskedastisitas secara formal dilakukan menggunakan Uji Glejser. Uji ini digunakan untuk mendeteksi apakah terjadi heteroskedastisitas dalam model regresi.

Hipotesis:

\(H_0\) : Tidak terjadi gejala heteroskedastisitas (varians residual konstan)

\(H_1\) : Terdapat gejala heteroskedastisitas (varians residual tidak konstan)

Taraf Signifikansi:

\(\alpha = 5\%\).

Statistik Uji:

data_model <- model.frame(regresi)

glejser_test <- lm(abs(resid(regresi)) ~ X1 + X2 + X3, data = data_model)
glejser_result <- summary(glejser_test)
glejser_result
## 
## Call:
## lm(formula = abs(resid(regresi)) ~ X1 + X2 + X3, data = data_model)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -0.10138 -0.02626 -0.01533  0.02508  0.13463 
## 
## Coefficients:
##               Estimate Std. Error t value Pr(>|t|)  
## (Intercept)  5.810e-02  4.508e-01   0.129   0.8982  
## X1          -1.225e-03  6.695e-04  -1.830   0.0766 .
## X2           1.145e-05  2.350e-05   0.487   0.6295  
## X3           1.499e-03  1.029e-03   1.457   0.1548  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 0.05313 on 32 degrees of freedom
## Multiple R-squared:  0.1985, Adjusted R-squared:  0.1234 
## F-statistic: 2.642 on 3 and 32 DF,  p-value: 0.06611

Berdasarkan hasil Uji Glejser diperoleh nilai p-value untuk masing-masing variabel sebagai berikut:

  • Variabel \(X_1\) : 0.077
  • Variabel \(X_2\) : 0.63
  • Variabel \(X_3\) : 0.155

Keputusan:

Karena seluruh nilai p-value > 0,05 maka \(H_0\) gagal ditolak.

Kesimpulan:

Pada taraf signifikansi 5%, tidak terdapat indikasi heteroskedastisitas sehingga asumsi homoskedastisitas terpenuhi.

4.4 Asumsi Non-Autokorelasi

Pengujian non-autokorelasi residual secara formal dilakukan menggunakan Uji Durbin–Watson.

Hipotesis:

\(H_0\) : Tidak terdapat autokorelasi pada residual (residual saling bebas).
\(H_1\) : Terdapat autokorelasi pada residual.

Taraf Signifikansi:

\(\alpha = 5\%\)

Statistik Uji:

dw_result <- dwtest(regresi)
dw_result
## 
##  Durbin-Watson test
## 
## data:  regresi
## DW = 1.3156, p-value = 0.003851
## alternative hypothesis: true autocorrelation is greater than 0

Berdasarkan hasil uji Durbin–Watson diperoleh nilai statistik Durbin–Watson sebesar 1.316 dengan nilai p-value sebesar 0.004.

Keputusan:

Karena nilai p-value ≤ 0,05 maka \(H_0\) ditolak.

Kesimpulan:

Pada taraf signifikansi 5%, terdapat autokorelasi pada residual sehingga asumsi non-autokorelasi tidak terpenuhi atau terjadi autokorelasi positif pada data yang diobservasi..

4.5 Asumsi Multikolinearitas

Pengujian multikolinearitas dilakukan untuk mengetahui apakah terdapat hubungan linear yang kuat antar variabel independen dalam model regresi. Pengujian ini dilakukan menggunakan Variance Inflation Factor (VIF).

Hipotesis:

\(H_0\) : Tidak terjadi multikolinearitas antar variabel independen.
\(H_1\) : Terjadi multikolinearitas antar variabel independen.

Statistik Uji:

vif_result <- vif(regresi)
vif_result
##       X1       X2       X3 
## 1.247203 2.584067 2.708746

Berdasarkan hasil perhitungan VIF diperoleh nilai sebagai berikut:

  • Variabel \(X_1\) : 1.247
  • Variabel \(X_2\) : 2.584
  • Variabel \(X_3\) : 2.709

Kriteria Keputusan:

Jika nilai VIF < 10 maka tidak terjadi multikolinearitas.

Keputusan:

Karena seluruh nilai VIF < 10 maka \(H_0\) gagal ditolak.

Kesimpulan:

Seluruh variabel independen memiliki nilai VIF < 10 sehingga tidak terdapat multikolinearitas dalam model regresi.

5 Uji Signifikansi Model

5.1 Uji F (Simultan)

Uji F digunakan untuk mengetahui apakah variabel independen secara bersama-sama berpengaruh signifikan terhadap variabel dependen dalam model regresi.

Hipotesis:

\(H_0\) : \(\beta_1 = \beta_2 = \beta_3 = 0\) (tidak terdapat pengaruh secara simultan).
\(H_1\) : Minimal terdapat satu \(\beta_i \neq 0\) (terdapat pengaruh secara simultan).

Taraf Signifikansi:

\(\alpha = 5\%\)

Statistik Uji:

f_result <- summary(regresi)
f_result
## 
## Call:
## lm(formula = Y ~ X1 + X2 + X3, data = df)
## 
## Residuals:
##       Min        1Q    Median        3Q       Max 
## -0.229065 -0.051136 -0.002841  0.049257  0.226439 
## 
## Coefficients:
##               Estimate Std. Error t value Pr(>|t|)    
## (Intercept)  1.613e+00  7.624e-01   2.116   0.0422 *  
## X1          -5.655e-03  1.132e-03  -4.994 2.02e-05 ***
## X2           8.110e-05  3.974e-05   2.041   0.0496 *  
## X3           8.875e-03  1.740e-03   5.102 1.48e-05 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 0.08985 on 32 degrees of freedom
##   (6 observations deleted due to missingness)
## Multiple R-squared:  0.7576, Adjusted R-squared:  0.7349 
## F-statistic: 33.34 on 3 and 32 DF,  p-value: 5.755e-10

Berdasarkan hasil estimasi model regresi diperoleh nilai statistik F sebesar 33.342 dengan nilai p-value sebesar 0.

Keputusan:

Karena nilai p-value ≤ 0,05 maka \(H_0\) ditolak.

Kesimpulan:

Pada taraf signifikansi 5%, variabel independen secara simultan berpengaruh signifikan terhadap variabel dependen.

5.2 Uji t (Parsial)

Uji t digunakan untuk mengetahui apakah masing-masing variabel independen secara parsial berpengaruh signifikan terhadap variabel dependen dalam model regresi.

Hipotesis:

\(H_0\) : \(\beta_i = 0\) (variabel \(X_i\) tidak berpengaruh signifikan terhadap \(Y\)).
\(H_1\) : \(\beta_i \neq 0\) (variabel \(X_i\) berpengaruh signifikan terhadap \(Y\)).

Taraf Signifikansi:

\(\alpha = 5\%\)

Statistik Uji:

t_result <- summary(regresi)
t_result
## 
## Call:
## lm(formula = Y ~ X1 + X2 + X3, data = df)
## 
## Residuals:
##       Min        1Q    Median        3Q       Max 
## -0.229065 -0.051136 -0.002841  0.049257  0.226439 
## 
## Coefficients:
##               Estimate Std. Error t value Pr(>|t|)    
## (Intercept)  1.613e+00  7.624e-01   2.116   0.0422 *  
## X1          -5.655e-03  1.132e-03  -4.994 2.02e-05 ***
## X2           8.110e-05  3.974e-05   2.041   0.0496 *  
## X3           8.875e-03  1.740e-03   5.102 1.48e-05 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 0.08985 on 32 degrees of freedom
##   (6 observations deleted due to missingness)
## Multiple R-squared:  0.7576, Adjusted R-squared:  0.7349 
## F-statistic: 33.34 on 3 and 32 DF,  p-value: 5.755e-10

Berdasarkan hasil estimasi model regresi diperoleh nilai koefisien, statistik uji t, dan p-value sebagai berikut:

  • Variabel \(X_1\)
    Koefisien = -0.006
    t-statistic = -4.994
    p-value = 0

  • Variabel \(X_2\)
    Koefisien = 0
    t-statistic = 2.041
    p-value = 0.05

  • Variabel \(X_3\)
    Koefisien = 0.009
    t-statistic = 5.102
    p-value = 0

Keputusan:

  • Variabel \(X_1\): Karena p-value ≤ 0,05 maka \(H_0\) ditolak.
  • Variabel \(X_2\): Karena p-value ≤ 0,05 maka \(H_0\) ditolak.
  • Variabel \(X_3\): Karena p-value ≤ 0,05 maka \(H_0\) ditolak.

Kesimpulan:

Pada taraf signifikansi 5%, \(H_0\) ditolak karena nilai p-value dari variabel \(X_1\), \(X_2\), dan \(X_3\) lebih kecil dari \(α\) (0,05) sehingga dapat disimpulkan bahwa koefisien parameter signifikan atau dengan kata lain variabel \(X_1\), \(X_2\), dan \(X_3\) berpengaruh signifikan terhadap variabel \(Y\).

6 Koefisien Determinasi & MSE

6.1 Koefisien Determinasi

Koefisien determinasi digunakan untuk mengetahui seberapa besar kemampuan variabel independen dalam menjelaskan variasi variabel dependen dalam model regresi.

Nilai koefisien determinasi berada pada rentang 0 sampai 1. Semakin besar nilai koefisien determinasi, maka semakin besar pula kemampuan variabel independen dalam menjelaskan variabel dependen.

r2_result <- summary(regresi)
r2_result$r.squared
## [1] 0.7576245
r2_result$adj.r.squared
## [1] 0.7349018

Berdasarkan hasil estimasi model regresi diperoleh nilai koefisien determinasi (\(R^2\)) sebesar 0.758 dan nilai Adjusted \(R^2\) sebesar 0.735.

Hal ini menunjukkan bahwa sebesar 75.76% variasi pada variabel dependen dapat dijelaskan oleh variabel independen dalam model, sedangkan sisanya sebesar 24.24% dijelaskan oleh faktor lain di luar model.

6.2 Mean Squared Error (MSE)

Mean Squared Error (MSE) digunakan untuk mengukur rata-rata kuadrat dari residual model regresi.

mse <- mean(residual^2, na.rm = TRUE)
mse
## [1] 0.007176167

Berdasarkan hasil perhitungan diperoleh nilai Mean Squared Error (MSE) sebesar 0.0072. Nilai MSE yang relatif kecil menunjukkan bahwa model regresi memiliki tingkat kesalahan prediksi yang rendah.

7 Model Akhir

Berdasarkan hasil uji F, model regresi yang dibentuk layak digunakan untuk analisis lebih lanjut. Selain itu, berdasarkan hasil uji t diperoleh bahwa variabel independen dalam model memberikan pengaruh terhadap variabel dependen.

Dengan demikian, model regresi akhir yang diperoleh adalah sebagai berikut:

\[ \widehat{Y} = 1.613 -0.006X_1 + 8.11 \times 10^{-5} X_2 +0.009X_3 \]

Model tersebut menunjukkan hubungan antara variabel independen \(X_1\), \(X_2\), dan \(X_3\) terhadap variabel dependen \(Y\).

Namun demikian, model regresi yang diperoleh masih perlu diperhatikan kembali terhadap pemenuhan asumsi klasik, khususnya pada asumsi non-autokorelasi apabila hasil pengujian menunjukkan adanya pelanggaran terhadap asumsi tersebut.