Pembangunan manusia merupakan salah satu indikator penting dalam menilai keberhasilan pembangunan suatu daerah. Keberhasilan tersebut tidak hanya dilihat dari aspek ekonomi, tetapi juga dari kualitas hidup masyarakat yang tercermin dalam Indeks Pembangunan Manusia (IPM). IPM menggambarkan capaian pembangunan dari dimensi kesehatan, pendidikan, dan standar hidup layak. Di Provinsi Sumatera Utara, setiap kabupaten/kota memiliki tingkat pembangunan yang berbeda-beda, sehingga nilai IPM antarwilayah juga menunjukkan variasi. Perbedaan ini dipengaruhi oleh berbagai faktor yang berkaitan dengan kualitas sumber daya manusia dan kesejahteraan masyarakat.
Beberapa faktor yang diduga berpengaruh terhadap IPM adalah Rata-Rata Lama Sekolah, Umur Harapan Hidup saat Lahir, dan Pengeluaran Perkapita. Rata-Rata Lama Sekolah mencerminkan tingkat pendidikan masyarakat, Umur Harapan Hidup saat Lahir menunjukkan derajat kesehatan, sedangkan Pengeluaran Perkapita menggambarkan kemampuan masyarakat dalam memenuhi kebutuhan hidup yang layak. Untuk mengetahui pengaruh ketiga variabel tersebut terhadap IPM di setiap kabupaten/kota di Provinsi Sumatera Utara, dapat digunakan analisis regresi linear berganda. Melalui analisis ini, dapat diketahui seberapa besar pengaruh masing-masing variabel terhadap IPM sehingga hasil penelitian diharapkan dapat menjadi bahan pertimbangan dalam penyusunan kebijakan pembangunan manusia yang lebih efektif dan merata.
Data yang digunakan dalam penelitian ini adalah data sekunder yang bersumber dari Badan Pusat Statistik (BPS) Provinsi Sumatera Utara, khususnya publikasi Indeks Pembangunan Manusia Provinsi Sumatera Utara dan tabel statistik terkait kabupaten/kota. Unit analisis dalam penelitian ini adalah seluruh kabupaten/kota di Provinsi Sumatera Utara.
Adapun variabel yang digunakan terdiri sebagai berikut:
Suatu model regresi linear yang melibatkan lebih dari satu variabel bebas yang bertujuan untuk menjelaskan hubungan antara variabel dependen dengan faktor-faktor yang memengaruhinya disebut dengan regresi linear berganda. Analisis regresi linear berganda adalah pengembangan dari analisis regresi linear sederhana, di mana terdapat lebih dari satu variabel independen \((X)\). Analisis ini digunakan untuk melihat sejumlah variabel independen \((X_1, X_2, \ldots, X_n)\) terhadap variabel dependen \((Y)\).
Asumsi-asumsi yang digunakan adalah sebagai berikut:
Sementara model regresi berganda sendiri adalah:
\[ Y = \beta_0 + \beta_1 X_1 + \beta_2 X_2 + \cdots + \beta_k X_k + \varepsilon \]
dengan:
Agar estimator model regresi bersifat Best Linear Unbiased Estimator (BLUE) melalui pendekatan Ordinary Least Squares (OLS), model wajib memenuhi pengujian asumsi klasik berikut:
Uji linearitas digunakan untuk mengetahui apakah hubungan antara variabel independen dan variabel dependen bersifat linear. Uji ini penting dilakukan sebagai salah satu prasyarat dalam analisis regresi linear.
Secara visual, linearitas dapat diamati melalui grafik scatterplot antara variabel independen \((X)\) dan variabel dependen \((Y)\). Hubungan dikatakan linear apabila sebaran titik menunjukkan pola yang cenderung mengikuti garis lurus.
Secara formal, uji linearitas dilakukan dengan melihat nilai signifikansi pada baris Deviation from Linearity dalam tabel ANOVA. Hipotesis yang digunakan adalah:
Dengan taraf signifikansi \(\alpha = 0{,}05\), keputusan diambil sebagai berikut:
Uji normalitas digunakan dalam model regresi untuk mengetahui apakah nilai residual atau sisaan dari model regresi berdistribusi normal atau tidak. Model regresi yang baik adalah model yang memiliki residual yang berdistribusi normal. Pengujian normalitas residual dalam penelitian ini dilakukan melalui uji formal dan uji visual.
Secara formal, uji normalitas residual dapat dilakukan menggunakan uji Kolmogorov-Smirnov dan Shapiro-Wilk. Pada penelitian ini, pengujian normalitas dilakukan dengan memperhatikan nilai signifikansi (p-value) dari hasil uji tersebut.
Hipotesis yang digunakan adalah:
Taraf signifikansi yang digunakan adalah:
\[ \alpha = 5\% = 0{,}05 \]
Statistik uji Kolmogorov-Smirnov dirumuskan sebagai:
\[ D = \max \left| F_n(x) - F_0(x) \right| \]
dengan:
Kriteria keputusan yang digunakan adalah:
Dengan demikian, residual dikatakan berdistribusi normal apabila nilai signifikansi lebih besar atau sama dengan 0,05.
Selain menggunakan uji formal, normalitas residual juga dapat dilihat secara visual melalui grafik Normal Q-Q Plot. Pada grafik ini, residual dikatakan berdistribusi normal apabila titik-titik plot berada di sekitar dan mengikuti garis diagonal. Sebaliknya, jika titik-titik menyebar jauh dari garis diagonal, maka terdapat indikasi bahwa residual tidak berdistribusi normal.
Uji multikolinearitas bertujuan untuk mengetahui apakah dalam model regresi terdapat korelasi yang tinggi antar variabel independen. Model regresi yang baik seharusnya tidak mengalami korelasi yang tinggi antar variabel bebas, karena kondisi tersebut dapat menyebabkan ketidakstabilan dalam penaksiran koefisien regresi.
Salah satu cara yang umum digunakan untuk mendeteksi adanya multikolinearitas adalah dengan melihat nilai Variance Inflation Factor (VIF). Nilai VIF untuk variabel independen ke-\(i\) dirumuskan sebagai berikut:
\[ VIF_i = \frac{1}{1 - R_i^2}, \quad i = 1, 2, \ldots, n \]
dengan:
Nilai VIF yang semakin besar menunjukkan adanya multikolinearitas yang semakin tinggi. Kriteria yang digunakan dalam pengujian multikolinearitas adalah sebagai berikut:
Dengan demikian, model regresi yang baik adalah model yang memiliki nilai VIF untuk setiap variabel independen kurang dari 10.
Uji homoskedastisitas digunakan untuk menguji apakah residual pada model regresi memiliki varians yang konstan pada setiap tingkat nilai prediksi. Dalam analisis regresi, asumsi homoskedastisitas perlu dipenuhi agar model yang dihasilkan memberikan estimasi yang baik serta pengujian statistik, seperti uji \(t\) dan uji \(F\), dapat dilakukan secara tepat.
Secara visual, uji homoskedastisitas dapat diamati melalui grafik Scatterplot SRESID by ZPRED. Jika titik-titik pada grafik menyebar secara acak, tidak membentuk pola tertentu, dan tersebar secara merata di sekitar garis horizontal, maka dapat disimpulkan bahwa asumsi homoskedastisitas terpenuhi. Namun, jika titik-titik membentuk pola tertentu, seperti pola kipas, mengerucut, atau bergelombang, maka menunjukkan adanya gejala heteroskedastisitas.
Uji autokorelasi bertujuan untuk mengetahui apakah terdapat korelasi antara residual pada suatu pengamatan dengan residual pada pengamatan lainnya. Dalam analisis regresi, asumsi yang harus dipenuhi adalah tidak adanya autokorelasi antar residual. Salah satu metode yang umum digunakan untuk mendeteksi autokorelasi adalah uji Durbin-Watson.
Hipotesis yang digunakan adalah sebagai berikut:
Statistik uji Durbin-Watson adalah:
\[ d = \frac{\sum_{i=2}^{n}(e_i - e_{i-1})^2}{\sum_{i=1}^{n} e_i^2} \]
dengan:
Kriteria pengambilan keputusan adalah sebagai berikut:
Keterangan:
Uji F digunakan untuk mengetahui apakah variabel independen secara bersama-sama berpengaruh terhadap variabel dependen. Model regresi yang baik adalah model yang menunjukkan adanya hubungan linear yang signifikan antara variabel dependen dan variabel independen.
Hipotesis yang digunakan adalah:
Taraf signifikansi yang digunakan adalah:
\[ \alpha = 0{,}05 \]
Statistik uji:
\[ F_{hitung} = \frac{JKR / k}{JKS / (n - k - 1)} \]
dengan:
Kriteria pengujian:
Uji \(t\) digunakan untuk mengetahui pengaruh masing-masing variabel independen secara parsial terhadap variabel dependen. Uji ini bertujuan untuk mengetahui apakah setiap koefisien regresi memiliki pengaruh yang signifikan terhadap variabel dependen.
Hipotesis yang digunakan adalah sebagai berikut:
Taraf signifikansi yang digunakan adalah:
\[ \alpha = 0{,}05 \]
Statistik uji yang digunakan adalah:
\[ t_{hitung} = \frac{\hat{\beta}_i}{s(\hat{\beta}_i)} \]
dengan:
Nilai \(t_{hitung}\) dapat dilihat pada tabel Coefficients.
Kriteria pengambilan keputusan adalah sebagai berikut:
Dengan demikian, apabila \(H_0\) ditolak, maka variabel independen ke-\(i\) berpengaruh signifikan secara parsial terhadap variabel dependen.
Koefisien determinasi digunakan untuk mengukur seberapa besar proporsi variasi variabel dependen yang dapat dijelaskan oleh variabel independen dalam model regresi. Koefisien determinasi dinyatakan dengan simbol \(R^2\). Nilai \(R^2\) berada pada rentang 0 sampai 1. Semakin mendekati 1, maka model regresi semakin baik dalam menjelaskan variasi variabel dependen. Sebaliknya, jika nilai \(R^2\) mendekati 0, maka kemampuan model dalam menjelaskan variasi variabel dependen semakin rendah.
Nilai koefisien determinasi dapat dilihat pada tabel Model Summary. Secara matematis, koefisien determinasi dirumuskan sebagai berikut:
\[ R^2 = \frac{JKR}{JKT} \]
dengan:
Adapun sifat-sifat koefisien determinasi adalah sebagai berikut:
Apabila nilai koefisien determinasi sebesar \(a\%\), maka sebesar \(a\%\) variasi variabel dependen dapat dijelaskan oleh variabel independen, sedangkan sisanya sebesar \((100 - a)\%\) dijelaskan oleh variabel lain di luar model.
Model akhir merupakan model regresi yang telah memenuhi kriteria fit dan hanya memuat variabel independen yang memiliki pengaruh signifikan terhadap variabel dependen berdasarkan hasil pengujian yang telah dilakukan sebelumnya. Dengan demikian, model akhir digunakan sebagai model terbaik untuk menjelaskan hubungan antara variabel bebas dan variabel terikat dalam penelitian.
Mean Squared Error (MSE) merupakan ukuran yang digunakan untuk menilai besar kecilnya kesalahan prediksi yang dihasilkan oleh model. MSE diperoleh dari rata-rata kuadrat selisih antara nilai aktual dan nilai prediksi. Semakin kecil nilai MSE, maka semakin baik kemampuan model dalam melakukan prediksi.
Secara matematis, MSE dirumuskan sebagai berikut:
\[ MSE = \frac{1}{n} \sum_{i=1}^{n} (y_i - \hat{y}_i)^2 \]
dengan:
Nilai MSE yang kecil menunjukkan bahwa hasil prediksi model semakin mendekati nilai aktual, sehingga model dapat dikatakan memiliki kinerja yang lebih baik.
Pada tahap ini dilakukan eksplorasi dan visualisasi data untuk memahami karakteristik masing-masing variabel penelitian sebelum dilakukan analisis regresi linear berganda.
# Import data
data_ipm <- read_excel("C:/Users/HP/Downloads/Data Komlan Anareg.xlsx")
# Ubah nama kolom
colnames(data_ipm) <- c("Kabupaten_Kota", "IPM", "RLS", "UHH", "PPK")
# Statistik deskriptif
desc <- describe(data_ipm[, c("IPM", "RLS", "UHH", "PPK")])
desc## vars n mean sd median trimmed mad min max range
## IPM 1 33 71.79 4.42 71.67 71.89 3.20 62.93 81.76 18.83
## RLS 2 33 9.29 1.37 9.40 9.39 1.02 5.88 11.50 5.62
## UHH 3 33 69.53 2.51 69.77 69.70 2.25 63.05 74.25 11.20
## PPK 4 33 10716.09 2092.46 11439.00 10826.59 1470.74 6152.00 15503.00 9351.00
## skew kurtosis se
## IPM -0.17 -0.09 0.77
## RLS -0.69 0.19 0.24
## UHH -0.60 0.28 0.44
## PPK -0.44 -0.21 364.25
par(mfrow = c(2,2))
hist(data_ipm$IPM,
main = "Histogram IPM",
xlab = "IPM",
col = "lightblue",
border = "black")
hist(data_ipm$RLS,
main = "Histogram RLS",
xlab = "Rata-Rata Lama Sekolah",
col = "lightgreen",
border = "black")
hist(data_ipm$UHH,
main = "Histogram UHH",
xlab = "Umur Harapan Hidup",
col = "lightpink",
border = "black")
hist(data_ipm$PPK,
main = "Histogram PPK",
xlab = "Pengeluaran Per Kapita",
col = "lightyellow",
border = "black")Berdasarkan histogram, variabel IPM, RLS, dan UHH menunjukkan distribusi yang relatif terpusat pada nilai tengah dan secara visual cukup mendekati distribusi normal, meskipun tidak sepenuhnya simetris. Variabel UHH tampak memiliki sebaran yang paling stabil. Sementara itu, variabel PPK menunjukkan penyebaran yang lebih besar dan cenderung tidak simetris, sehingga mengindikasikan adanya variasi pengeluaran per kapita yang cukup tinggi antar kabupaten/kota di Provinsi Sumatera Utara.
par(mfrow = c(2,2))
plot(data_ipm$RLS, data_ipm$IPM,
main = "Scatterplot RLS terhadap IPM",
xlab = "RLS",
ylab = "IPM",
pch = 19,
col = "blue")
abline(lm(IPM ~ RLS, data = data_ipm), col = "red", lwd = 2)
plot(data_ipm$UHH, data_ipm$IPM,
main = "Scatterplot UHH terhadap IPM",
xlab = "UHH",
ylab = "IPM",
pch = 19,
col = "darkgreen")
abline(lm(IPM ~ UHH, data = data_ipm), col = "red", lwd = 2)
plot(data_ipm$PPK, data_ipm$IPM,
main = "Scatterplot PPK terhadap IPM",
xlab = "PPK",
ylab = "IPM",
pch = 19,
col = "purple")
abline(lm(IPM ~ PPK, data = data_ipm), col = "red", lwd = 2)
Berdasarkan scatterplot antara variabel bebas dengan IPM, terlihat bahwa
Rata-Rata Lama Sekolah (RLS), Umur Harapan Hidup (UHH), dan Pengeluaran
Per Kapita (PPK) sama-sama memiliki kecenderungan hubungan positif
terhadap IPM. Hal ini ditunjukkan oleh pola sebaran titik yang cenderung
mengikuti garis regresi yang menaik. Secara visual, hubungan RLS
terhadap IPM tampak paling kuat karena titik-titik data relatif lebih
rapat mengikuti arah garis. Sementara itu, hubungan UHH terhadap IPM dan
PPK terhadap IPM juga menunjukkan pola positif, meskipun dengan
penyebaran data yang sedikit lebih besar.
# Membentuk model regresi awal
model <- lm(IPM ~ RLS + UHH + PPK, data = data_ipm)
# Menampilkan ringkasan model
summary(model)##
## Call:
## lm(formula = IPM ~ RLS + UHH + PPK, data = data_ipm)
##
## Residuals:
## Min 1Q Median 3Q Max
## -0.88898 -0.25128 -0.00493 0.27862 0.66832
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 15.98151644 2.11524070 7.555 0.0000000249869867 ***
## RLS 1.62113151 0.08807946 18.405 < 0.0000000000000002 ***
## UHH 0.44137990 0.03211156 13.745 0.0000000000000313 ***
## PPK 0.00093932 0.00005603 16.765 < 0.0000000000000002 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.4305 on 29 degrees of freedom
## Multiple R-squared: 0.9914, Adjusted R-squared: 0.9905
## F-statistic: 1115 on 3 and 29 DF, p-value: < 0.00000000000000022
## (Intercept) RLS UHH PPK
## 15.9815164410 1.6211315099 0.4413798953 0.0009393217
Model awal sebagai berikut: \[ \widehat{Y} = 15.982 + 1.621\,X_1 + 0.441\,X_2 + 0.001\,X_3 \]
par(mfrow = c(2,2))
plot(data_ipm$RLS, data_ipm$IPM,
main = "Scatterplot RLS terhadap IPM",
xlab = "Rata-Rata Lama Sekolah",
ylab = "Indeks Pembangunan Manusia",
pch = 19, col = "blue")
abline(lm(IPM ~ RLS, data = data_ipm), col = "red", lwd = 2)
plot(data_ipm$UHH, data_ipm$IPM,
main = "Scatterplot UHH terhadap IPM",
xlab = "Umur Harapan Hidup",
ylab = "Indeks Pembangunan Manusia",
pch = 19, col = "darkgreen")
abline(lm(IPM ~ UHH, data = data_ipm), col = "red", lwd = 2)
plot(data_ipm$PPK, data_ipm$IPM,
main = "Scatterplot PPK terhadap IPM",
xlab = "Pengeluaran Per Kapita",
ylab = "Indeks Pembangunan Manusia",
pch = 19, col = "purple")
abline(lm(IPM ~ PPK, data = data_ipm), col = "red", lwd = 2)
Ketiga variabel independen yaitu RLS, UHH, dan PPK menunjukkan hubungan
linear positif terhadap IPM.
error <- model$residuals
# Menampilkan Histogram dan Q-Q Plot
par(mfrow=c(1,2))
hist(error, breaks=10, col="lightblue", main="Histogram Residual", xlab="Residual")
qqnorm(error, col="steelblue", main="Q-Q Plot Residual")
qqline(error, col="red", lwd=2)
# Uji Kolmogorov-Smirnov
ks_test <- ks.test(error, "pnorm", mean(error), sd(error))
ks_test##
## Exact one-sample Kolmogorov-Smirnov test
##
## data: error
## D = 0.057091, p-value = 0.9997
## alternative hypothesis: two-sided
Interpretasi Normalitas: Berdasarkan visualisasi grafik Histogram, kemencengan data dapat terlihat, dan pada Q-Q Plot diharapkan titik-titik menyebar mengikuti garis diagonal merah. Secara formal, uji Kolmogorov-Smirnov menghasilkan p-value sebesar 0.9997. Karena nilai p-value tersebut lebih besar dari 0.05 (> 0.05), maka kita gagal menolak \(H_0\). Artinya, asumsi normalitas residual terpenuhi.
## RLS UHH PPK
## 2.500181 1.125409 2.373340
Nilai VIF adalah untuk setiap variabel Kurang dari 10 sehingga Tidak terjadi Multikolinieritas.
# Plot Visualisasi Homoskedastisitas
plot(fitted(model), residuals(model),
col = "steelblue",
pch = 19,
main = "Scatterplot SRESID by ZPRED",
xlab = "ZPRED",
ylab = "SRESID")
abline(h = 0, col = "red", lwd = 2, lty = 2)##
## studentized Breusch-Pagan test
##
## data: model
## BP = 0.88792, df = 3, p-value = 0.8283
Interpretasi Homoskedastisitas: Secara visual dari scatterplot di atas, apabila titik-titik menyebar secara acak di atas dan di bawah angka 0 tanpa membentuk pola tertentu, maka terindikasi homoskedastisitas. Secara pengujian formal melalui Uji Breusch-Pagan, diperoleh nilai p-value sebesar 0.8283. Karena nilai tersebut lebih besar dari 0.05 (> 0.05), maka kita gagal menolak \(H_0\). Kesimpulannya, asumsi homoskedastisitas terpenuhi.
##
## Durbin-Watson test
##
## data: model
## DW = 1.7631, p-value = 0.1943
## alternative hypothesis: true autocorrelation is greater than 0
Interpretasi Autokorelasi: Dari pengujian Durbin-Watson, diperoleh nilai statistik DW sebesar 1.7631 dengan nilai p-value sebesar 0.1943. Karena nilai p-value lebih besar dari 0.05 (> 0.05), maka gagal menolak \(H_0\). Artinya, tidak terdapat masalah autokorelasi antar residual di dalam observasi.
\(H_0\) : \(\beta_1 = \beta_2 = \beta_3 = 0\)
(variabel independen secara simultan tidak berpengaruh terhadap
IPM)
\(H_1\) : minimal ada satu \(\beta_i \neq 0\)
(variabel independen secara simultan berpengaruh terhadap IPM)
## Analysis of Variance Table
##
## Response: IPM
## Df Sum Sq Mean Sq F value Pr(>F)
## RLS 1 532.77 532.77 2874.72 < 0.00000000000000022 ***
## UHH 1 34.87 34.87 188.13 0.00000000000003298 ***
## PPK 1 52.09 52.09 281.05 < 0.00000000000000022 ***
## Residuals 29 5.37 0.19
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
f_hitung <- summary(model)$fstatistic[1]
df1 <- summary(model)$fstatistic[2]
df2 <- summary(model)$fstatistic[3]
p_value_f <- pf(f_hitung, df1, df2, lower.tail = FALSE)
f_tabel <- qf(0.95, df1, df2)Interpretasi Uji F:
Berdasarkan hasil pengujian simultan, diperoleh nilai \(F_{hitung}\) sebesar
1114.6349 dan nilai \(F_{tabel}\) sebesar 2.934
dengan p-value sebesar 0. Karena
Fhitung lebih besar dari Ftabel dan nilai
p-value lebih kecil dari 0,05, maka keputusan
yang diperoleh adalah menolak H0. Dengan demikian,
variabel independen secara simultan berpengaruh
signifikan terhadap variabel dependen.
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 15.9815164410 2.11524069613 7.555413 0.0000000249869866608595
## RLS 1.6211315099 0.08807946066 18.405330 0.0000000000000000154097
## UHH 0.4413798953 0.03211155653 13.745204 0.0000000000000312633501
## PPK 0.0009393217 0.00005602989 16.764655 0.0000000000000001844268
Interpretasi Variabel RLS memiliki p-value sebesar 0, variabel UHH sebesar 0, dan variabel PPK sebesar 0. Dengan taraf signifikansi 0,05, maka:
Variabel RLS berpengaruh signifikan terhadap IPM.
Variabel UHH berpengaruh signifikan terhadap IPM.
Variabel PPK berpengaruh signifikan terhadap IPM.
## [1] 0.9914021
Nilai koefisien determinasi \(R^2\) yang diperoleh adalah sebesar 0.9914 atau 99.14%. Hal ini menunjukkan bahwa variabel independen dalam model mampu menjelaskan variasi variabel dependen sebesar 99.14%, sedangkan sisanya sebesar 0.86% dijelaskan oleh faktor lain di luar model.
Semua asumsi terpenuhi sehingga model akhir sama dengan model awal
# Membentuk model regresi awal
model <- lm(IPM ~ RLS + UHH + PPK, data = data_ipm)
# Menampilkan ringkasan model
summary(model)##
## Call:
## lm(formula = IPM ~ RLS + UHH + PPK, data = data_ipm)
##
## Residuals:
## Min 1Q Median 3Q Max
## -0.88898 -0.25128 -0.00493 0.27862 0.66832
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 15.98151644 2.11524070 7.555 0.0000000249869867 ***
## RLS 1.62113151 0.08807946 18.405 < 0.0000000000000002 ***
## UHH 0.44137990 0.03211156 13.745 0.0000000000000313 ***
## PPK 0.00093932 0.00005603 16.765 < 0.0000000000000002 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.4305 on 29 degrees of freedom
## Multiple R-squared: 0.9914, Adjusted R-squared: 0.9905
## F-statistic: 1115 on 3 and 29 DF, p-value: < 0.00000000000000022
## (Intercept) RLS UHH PPK
## 15.9815164410 1.6211315099 0.4413798953 0.0009393217
: \[ \widehat{Y} = 15.982 + 1.621\,X_1 + 0.441\,X_2 + 0.001\,X_3 \] Atau dapat ditulis juga sebagai berikut \[ \widehat{Y} = 15.982 + 1.621\,RLS + 0.441\,UHH + 0.001\,PPK \]
## [1] 0.1853297
Nilai Mean Square Error (MSE) yang diperoleh dari tabel ANOVA pada baris residual adalah sebesar 0.1853. Nilai ini menunjukkan rata-rata kuadrat galat (residual) dari model regresi. Semakin kecil nilai MSE, maka semakin baik model dalam menjelaskan data. Nilai yang didapat tersebut tergolong rendah sehingga dapat dikatakan bahwa model regresi nya cukup baik
Berdasarkan hasil analisis regresi linear berganda, diperoleh persamaan model sebagai berikut:
\[ \widehat{IPM} = 15.982 + 1.621\,RLS + 0.441\,UHH + 0.001\,PPK \]
Berdasarkan pengujian asumsi klasik, model regresi menunjukkan bahwa asumsi normalitas residual terpenuhi, non-multikolinearitas terpenuhi, homoskedastisitas terpenuhi, dan non-autokorelasi terpenuhi.
Hasil uji F menunjukkan bahwa model signifikan secara simultan dengan nilai p-value sebesar 0. Secara parsial, variabel yang berpengaruh signifikan adalah RLS, UHH, PPK terhadap IPM.
Interpretasi koefisien model menunjukkan bahwa setiap kenaikan 1 satuan RLS akan menaikkan IPM sebesar 1.621 satuan, setiap kenaikan 1 satuan UHH akan menaikkan IPM sebesar 0.441 satuan, dan setiap kenaikan 1 satuan PPK akan menaikkan IPM sebesar 0.001 satuan, dengan asumsi variabel lain konstan.
Nilai \(R^2\) sebesar 0.9914 menunjukkan bahwa model mampu menjelaskan 99.14% variasi IPM, sedangkan sisanya sebesar 0.86% dijelaskan oleh faktor lain di luar model. Nilai MSE sebesar 0.1853 menunjukkan rata-rata kuadrat galat model.