Anggota Kelompok:

  1. Alvina Anggraeni (M0722007)

  2. Anindya Salsabila (M0722013)

  3. Dinah Zhahirah Febriyanti (M0722033)

  4. Ivonny Asya Tatristya Febriyanti (M0722043)

Pendahuluan

Analisis regresi merupakan teknik analisis data yang digunakan untuk mengkaji hubungan antara beberapa variabel dan meramal suatu variabel. Teknik ini biasa dikenal dalam ilmu statistika dan dikemukakan oleh Sir Francis Galton (1822-1911). Analisis regresi terbagi menjadi dua jenis yaitu regresi linear sederhana dan regresi linear berganda. Pada regresi linear berganda, variabel independennya berjumlah lebih dari satu dan memengaruhi variabel dependen.

Tujuan dari analisi regresi linear berganda adalah untuk memprediksi nilai variabel dependen atau response \((Y)\), apabila nilai-nilai variabel independennya atau prediktor \((X_1, X_2, ..., X_n)\) diketahui.

Landasan Teori

Model Regresi Ganda

Menurut Sembiring (1995), model regresi linear adalah model yang memberikan gambaran tentang hubungan antara variabel independen dengan variabel dependen. Secara umum model persamaannya sebagai berikut:

\(Y_i = \beta_0+\beta_ix_{i1} + \beta_2x_{i2}+...+\beta_kx_{ik}+\epsilon_i, i= 1,2,.....,n; \epsilon \sim N(0,\sigma^2)\)

dengan

\(Y_i\) : nilai variabel dependen pada pengamatan ke i

\(x_{i1}, x_{i2},...,x_{nk}\) : nilai variabel dependen ke-\(j\), \(j\) = \(1,2,...,k\) pada pengamatan ke i = 1,2,…,n

\(\beta_0,\beta_1,...,\beta_p\) : parameter koefisien regresi ke-j, j = 1,2,…,k

\(\epsilon_i\) : \(eror\) untuk pengamatan ke \(i\) yang berdisribusi normal dengan mean nol dan varians konstan \(\sigma^2\) \((\epsilon_i \sim N(0,\sigma^2))\) dimana \(eror\) tidak saling berkorelasi

Jika diambil sebanyak \(n\) pengamatan, maka model untuk pengamatan ke-\(i\) adalah : \(y_i = \beta_0 +{\sum_{k=1}^{p}\beta_kX_{ik}+\epsilon_i}\)

Pada model ini, hubungan antara variabel independen dan variabel dependen diangap konstan pada setiap lokasi pengamatan.

Jika dituliskan dalam notasi matriks maka menjadi persamaan:

\(y = X\beta + \epsilon\)

atau dapat dituliskan dalam bentuk matriks

\(Y = X\beta + \epsilon,\epsilon \sim N(0,\sigma^2I)\)

dengan

dan

\(Y\) : vektor variabel dependen berukuran \(n\) x \(k\)

\(X\) : matriks variabel independen berukuran \(n\) x \((k+1)\)

\(\beta\) : vektor parameter berukuran \((k + 1)\) x \(1\)

\(\epsilon\) : vektor error berukuran \(𝑛\) x \(1\)

Sedangkan nilai estimasi untuk \(y\) dan \(\epsilon\) adalah :

\(\hat{y}\) = \(X\beta\) dan

\(\hat\epsilon\) = \(y-\hat{y} = y - X\hat\beta\) : residu

Parameter dalam model regresi linier berpengaruh terhadap kecocokan model dengan data yang digunakan, sehingga estimasi parameter diperlukan dalam penentuan parameter.

Uji Signifikansi

Uji Signifikansi Simultan (F)

Menurut Ghozali (2012: 98), uji simultan F pada dasarnya menunjukkan apakah semua variabel independen atau variabel independen yang dimasukkan dalam model mempunyai pengaruh secara bersama-sama (simultan) terhadap variabel dependen. Uji simultan dilakukan secara bersamasama dengan analisis varians (ANOVA).

Hasil uji F ini semakin diperkuat dengan hasil dari uji kesesuaian model \((R^2)\). Menurut Trijono (2015:77), keputusan untuk menerima model sebagai baik atau tepat harus dilihat bersama antara besarnya nilai F dan \(R^2\).

Nilai \(R^2\) terletak antara 0 – 1. Nilai \(R^2\) yang kecil berarti kemampuan variabel-variabel independen dalam menjelaskan variabel dependen amat terbatas. Nilai yang mendekati satu berarti variabel-variabel independen memberikan hampir semua informasi yang dibutuhkan untuk memprediksi variabel dependen.

Hipotesis

\(H_0\): \(\beta_1 = \beta_2 = \beta_3 = ... = \beta_k = 0\) (tidak ada pengaruh secara simultan variabel independen terhadap variabel dependen)

\(H_1\): minimal ada satu \(\beta_k \neq 0\) (ada pengaruh secara simultan variabel independen terhadap variabel dependen)

Daerah Kritis

\(H_0\) ditolak jika nilai \(F_{hitung} > F_{(k-1,n-k,\alpha)}\)

Statistik Uji

\(F = \frac{RKR}{RKS}\)

di mana

\(RKR = \frac{JKR}{k-1}\)

\(JKR = \sum_{i=1}^n (\hat{Y_i} - \bar{Y})^2\)

\(RKS = \frac{JKS}{n-k}\)

\(JKS = \sum_{i=1}^n (Y_i - \hat{Y_i})^2\)

dengan

k : banyaknya pengamatan

n : jumlah sampel

JKR : jumlah Kuadrat Regresi

JKS : jumlah Kuadrat Galat

RKR : rataan Kuadrat untuk Regresi

RKS : rataan Kuadrat untuk Galat

k-1 : derajat keindependenan JKR

n-1 : derajat keindependenan JKG

Uji Signifikansi Parsial (t)

Menurut Ghozali (2013) Uji statistik t pada dasarnya digunakan untuk menunjukkan seberapa jauh pengaruh satu variabel independen secara individual dalam menerangkan variabel dependen. Hipotesis dari masing masing variabel yang akan di uji dengan statistik ini lebih dahulu ditentukan nilai \(t_{hitung}\) dengan rumus:

\(t_{hitung} = \frac{b_i}{S(b_i)}\)

dengan

\(b_i\)        : koefisien regresi

\(S(b_i)\) : kesalahan baku koefisien regresi

Hipotesis dalam pengujian ini adalah:

Hipotesis

\(H_0\): \(\beta_i\) = 0 (parameter regresi ke-i tidak berpengaruh signifikan terhadap model)

\(H_1\): \(\beta_i\) \(\neq\) 0, untuk \(i\) = 0,1 (variabel independen ke-i berpengaruh signifikan terhadap model)

Adapun penerimaan atau penolakan hipotesis dalam uji t berdasarkan pada kriteria berikut:

i). Apabila \(t_{hitung} > t_{tabel}\) dan nilai signifikan \(<0,05\) maka variabel independen dapat menerangkan variabel dependennya atau dengan kata lain terdapat pengaruh yang signifikan diantara dua variabel yang diteliti.

ii). Apabila \(t_{hitung} < t_{tabel}\) dan nilai signifikan \(>0,05\) maka variabel independen tidak dapat menerangkan variabel dependennya atau dengan kata lain tidak terdapat pengaruh yang signifikan diantara dua variabel yang diteliti.

iii). Diberikan tingkat signifikansi sebesar \(alpha = 0,05\), maka keputusan yang diambil adalah dengan membandingkan antara nilai \(t_{hitung}\) dengan \(t_{tabel}\) Selanjutnya aturan keputusannya adalah sebagai berikut:

\(H_0\) ditolak apabila nilai p-value < \(\alpha = 0.05\)

Uji Asumsi Klasik

Uji Normalitas

Uji normalitas berfungsi untuk menguji apakah dalam sebuah model regresi memiliki residual yang berdistribusi normal. Banyak metode statistik yang memerlukan asumsi bahwa data berdistribusi normal. Jika data tidak berdistribusi normal, analisis yang dilakukan dapat menghasilkan kesimpulan yang tidak akurat atau tidak valid. Oleh karena itu, uji normalitas perlu dilakukan sebelum menerapkan metode statistik tertentu. Terdapat beberapa macam uji normalitas, seperti uji Kolmogorov-Smirnov, uji Shapiro Wilk, dll.

Uji Kolmogorov-Smirnov

Hipotesis

\(H_0\): Residu berdistribusi normal

\(H_1\): Residu tidak berdistribusi normal

Daerah Kritis

\(H_0\) ditolak jika nilai \(D > D_\alpha,_n\) (nilai pada tabel Kolmogorov Smirnov)

dengan

\(n\) : banyaknya observasi/nilai pengamatan

\(\alpha\) : tingkat signifikansi yang dipilih untuk pengujian hipotesis (probabilitas maksimum untuk membuat kesalahan tipe I/kesalahan menolak hipotesis nol ketika sebenarnya benar). Nilai \(\alpha\) yang umum digunakan adalah 0.05 atau 0.01.

Statistik Uji

\(D = \max_x \left| F_n(x) - F_0(x) \right|\)

dengan

\(F_n(x)\) : probabilitas kumulatif normal.

\(F_0(x)\) : probabilitas kumulatif empiris.

Uji Shapiro Wilk

Hipotesis

\(H_0\): Residu berdistribusi normal

\(H_1\): Residu tidak berdistribusi normal

Daerah Kritis

\(H_0\) ditolak jika nilai \(\alpha(0,10) < SW < \alpha(0,50)\) (nilai pada tabel Shapiro Wilk)

Statistik Uji

\(SW = \frac{[\sum_{i=1}^k a_i(x_{n-i+1} - x_i)]^2}{[\sum_{i=1}^n x_i - \bar{x}]^2}\)

dengan

\(a_i\) : konstanta yang dihasilkan dari kovarians, varians, dan mean sampel

\(x_n-_i+_1\) : nilai pengamatan ke n-i+1

\(x_i\) : nilai pengamatan ke i

\(\bar{x}\) : rata-rata nilai pengamatan

Uji Homogenitas

Uji homogenitas digunakan untuk menguji apakah dalam model regresi terjadi ketidaksamaan varian dari residual dari suatu pengamatan ke pengamatan lain. Syarat yang harus terpenuhi dalam model regresi adalah tidak adanya gejala heteroskedastisitas (Gujarati, 2003). Pengujian kali ini menggunakan uji Breusch-Pagan.

Hipotesis

\(H_0\): Variansi residu homogen

\(H_1\): Paling tidak terdapat satu variansi residu tidak homogen

Daerah kritis:

\(H_0\) ditolak apabila nilai \(\phi_{hitung}\) > \(X^2_{(\alpha;k)}\) atau nilai p-value < \(\alpha\) = 0,05

dengan k = banyaknya variabel independen

\(\alpha\) : tingkat signifikansi yang dipilih untuk pengujian hipotesis (probabilitas maksimum untuk membuat kesalahan tipe I/kesalahan menolak hipotesis nol ketika sebenarnya benar). Nilai \(\alpha\) yang umum digunakan adalah 0.05 atau 0.01.

Statistik Uji :

\(\phi\) = \(\frac{1}{2}\) \((JKR)\)

dengan JKR : Jumlah Kuadrat Regresi

Uji Non Autokorelasi

Menurut Gujarati (1995) autokorelasi dapat didefinisikan sebagai hubungan yang terjadi antara anggota observasi yang diurutkan menurut waktu dan ruang. Dalam konteks regresi, model regresi linear klasik mengasumsikan bahwa autokorelasi seperti itu tidak terdapat dalam sesatan \(\epsilon_i\) , yang disebut kondisi non autokorelasi. Salah satu cara mendeteksi autokorelasi, yaitu dengan uji Durbin Watson (Gujarati, 1995). Hipotesis dalam pengujian ini adalah:

Hipotesis

\(H_0\): Tidak ada autokorelasi antar residu

\(H_1\): Ada autokorelasi antar residu

Adapun mekanismenya adalah sebagai berikut

i). Melakukan perhitungan metode kuadrat terkecil untuk memperoleh nilai \(\epsilon_i\)

ii). Mencari besarnya nilai d yang diperoleh dengan rumus \[d=\frac{\sum_{i=2}^{n}(e_{i}-e_{i-1})^{2}}{\sum_{i=1}^{n}e_{i}^{2}}\]

iii). Untuk ukuran sampel 𝑛 dan 𝑘 = 𝑝−1, dengan 𝑝 adalah banyaknya parameter sehingga diperoleh nilai kritis \(d_L\) dan \(d_U\) (dapat dilihat pada Tabel Statistik 𝑑 )

iv). Jika diberikan tingkat signifikansi sebesar \(\alpha\), maka keputusan yang diambil adalah dengan membandingkan antara nilai d pengujian dengan nilai \(d_U\) (nilai batas atas dari tabel Durbin-Watson) dan \(d_L\) (nilai batas bawah dari tabel Durbin-Watson). Selanjutnya aturan keputusannya adalah sebagai berikut:

\(d_w\) < \(d_L\) : \(H_0\) ditolak

\(d_w\) > (4-\(d_L\)): \(H_0\) ditolak

\(d_U\) < \(d_w\) < (4-\(d_U\)) : \(H_0\) tidak ditolak

\(d_L\)\(d_w\)\(d_U\) atau (4-\(d_U\)) ≤ \(d_w\) ≤(4-\(d_L\)) :pengujian tidak dapat diambil keputusan.

Uji Non Multikolinearitas

Uji non-multikolinearitas merupakan salah satu asumsi dalam analisis regresi yang penting untuk memastikan bahwa variabel independen dalam model tidak saling berkorelasi tinggi. Dalam konteks regresi berganda atau ketika kita menggunakan lebih dari satu variabel independen, uji ini membantu mengidentifikasi apakah terdapat multikolinearitas antara variabel-variabel tersebut. Menurut Montgomery dan Peck (1992), salah satu cara mendeteksi adanya multikolinearitas dalam model adalah dengan nilai tolerance dan VIF (Variance Inflation Factors).

Hipotesis

\(H_0\): Tidak terjadi multikolinearitas

\(H_1\): Terjadi multikolinearitas

Daerah kritis: \(H_0\) ditolak apabila nilai \(VIF > 10\)

\(\alpha\) : tingkat signifikansi yang dipilih untuk pengujian hipotesis (probabilitas maksimum untuk membuat kesalahan tipe I/kesalahan menolak hipotesis nol ketika sebenarnya benar). Nilai \(\alpha\) yang umum digunakan adalah 0.05 atau 0.01.

Statistik Uji:

\(VIF_j\) = \(C_{jj}\) = \(\frac{1}{1-R_j^2}\) , \(j = 1,2,...k\)

Langkah-Langkah Analisis Data

  1. Menguji signikansi antara variabel independen terhadap variabel dependen, dengan uji signfikansi secara simultan dan secara parsial
  2. Menguji asumsi klasik yakni meliputi uji normalitas, uji homogen, uji non autokorelasi, dan uji non multikolinearitas
  3. Memodelkan dengan regresi linear berganda
  4. Kesimpulan

Pembahasan

Sumber Data

Data yang digunakan pada analisis ini adalah data IPM (Indeks Pembangunan Manusia) di Jawa Tengah tahun 2023 berdasarkan UHH (Usia Harapan Hidup), HLS (Harapan Lama Sekolah), dan Pengeluaran per Kapita yang Disesuaikan. Data ini bersumber dari website resmi Badan Pusat Statistik (BPS) Jawa Tengah https://jateng.bps.go.id/. Analisis data ini bertujuan untuk mengetahui ada tidaknya pengaruh UHH, HLS, dan PPK terhadap IPM Jawa Tengah tahun 2023.

library(readxl)
## Warning: package 'readxl' was built under R version 4.3.2
library (car)
## Loading required package: carData
library (MASS)
library (lmtest)
## Loading required package: zoo
## 
## Attaching package: 'zoo'
## The following objects are masked from 'package:base':
## 
##     as.Date, as.Date.numeric
data <- read_excel("F:/IPM JATENG.xlsx")
data
## # A tibble: 35 × 4
##        Y    X1    X2    X3
##    <dbl> <dbl> <dbl> <dbl>
##  1  71.8  74.2  12.7 11432
##  2  73.9  74.0  13.3 12492
##  3  70.2  73.4  12.0 10964
##  4  69.1  74.5  11.8 10226
##  5  71.4  73.8  13.4  9734
##  6  74.3  75.2  13.5 11110
##  7  69.4  72.2  11.8 11577
##  8  71.4  74.2  12.6 10493
##  9  75.4  76.2  12.7 13716
## 10  77.6  77.1  13.4 12968
## # ℹ 25 more rows

dengan

\(Y\) : Indeks Pembangunan Manusia (IPM)

\(X_1\) : Usia Harapan Hidup (UHH)

\(X_2\) : Harapan Lama Sekolah (HLS)

\(X_3\) : Pendapatan per Kapita (PPK)

Model Regresi

model.mkt = lm(Y~.,data = data)
summary(model.mkt)
## 
## Call:
## lm(formula = Y ~ ., data = data)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -1.0949 -0.4289 -0.1438  0.3570  1.7593 
## 
## Coefficients:
##               Estimate Std. Error t value Pr(>|t|)    
## (Intercept) -1.674e+01  4.981e+00  -3.361  0.00207 ** 
## X1           7.014e-01  7.981e-02   8.789 6.36e-10 ***
## X2           1.963e+00  2.089e-01   9.399 1.38e-10 ***
## X3           1.041e-03  9.462e-05  11.006 3.09e-12 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 0.6296 on 31 degrees of freedom
## Multiple R-squared:  0.9815, Adjusted R-squared:  0.9797 
## F-statistic: 547.6 on 3 and 31 DF,  p-value: < 2.2e-16

Uji Signifikansi

Uji Signifikansi Simultan (F)

Hipotesis

\(H_0\) : Ketiga variabel secara simultan tidak berpengaruh signifikan terhadap Indeks Pembangunan Manusia (IPM)

\(H_1\) : Paling tidak ada satu variabel yang berpengaruh signifikan terhadap Indeks Pembangunan Manusia (IPM)

Taraf signifkansi: \(\alpha\) = 5%

Daerah kritis: \(H_0\) ditolak apabila nilai p-value < \(\alpha\) = 0,05

Statistik Uji:

model.mkt = lm(Y~.,data = data)
summary(model.mkt)
## 
## Call:
## lm(formula = Y ~ ., data = data)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -1.0949 -0.4289 -0.1438  0.3570  1.7593 
## 
## Coefficients:
##               Estimate Std. Error t value Pr(>|t|)    
## (Intercept) -1.674e+01  4.981e+00  -3.361  0.00207 ** 
## X1           7.014e-01  7.981e-02   8.789 6.36e-10 ***
## X2           1.963e+00  2.089e-01   9.399 1.38e-10 ***
## X3           1.041e-03  9.462e-05  11.006 3.09e-12 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 0.6296 on 31 degrees of freedom
## Multiple R-squared:  0.9815, Adjusted R-squared:  0.9797 
## F-statistic: 547.6 on 3 and 31 DF,  p-value: < 2.2e-16

Kesimpulan

Berdasarkan output diperoleh nilai p-value : < \(2,2e-16\) , dimana p-value : < \(2,2e-16\) < \(\alpha\) = 0.05, maka \(H_0\) ditolak yang berarti bahwa paling tidak ada satu variabel yang berpengarauh signifikan terhadap Indeks Pembangunan Manusia (IPM)

Uji Signifikansi Parsial (t)

Hipotesis

Variabel \(X_1\) = Umur Harapan Hidup

\(H_0\): Umur Harapan Hidup tidak berpengaruh signifikan terhadap Indeks Pembangunan Manusia

\(H_1\): Umur Harapan Hidup berpengaruh signifikan terhadap Indeks Pembangunan Manusia

Variabel \(X_2\) = Harapan Lama Sekolah

\(H_0\): Harapan Lama Sekolah tidak berpengaruh signifikan terhadap Indeks Pembangunan Manusia

\(H_1\): Harapan Lama Sekolah berpengaruh signifikan terhadap Indeks Pembangunan Manusia

Variabel \(X_3\) = Rata-rata Pengeluaran Per kapita

\(H_0\): Rata-rata Pengeluaran Per kapita tidak berpengaruh signifikan terhadap Indeks Pembangunan Manusia

\(H_1\): Rata-rata Pengeluaran Per kapita berpengaruh signifikan terhadap Indeks Pembangunan Manusia

Taraf signifkansi: \(\alpha\) = 5%

Daerah kritis: \(H_0\) ditolak apabila nilai p-value < \(\alpha\) = 0.05

Statistik Uji:

summary(model.mkt)
## 
## Call:
## lm(formula = Y ~ ., data = data)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -1.0949 -0.4289 -0.1438  0.3570  1.7593 
## 
## Coefficients:
##               Estimate Std. Error t value Pr(>|t|)    
## (Intercept) -1.674e+01  4.981e+00  -3.361  0.00207 ** 
## X1           7.014e-01  7.981e-02   8.789 6.36e-10 ***
## X2           1.963e+00  2.089e-01   9.399 1.38e-10 ***
## X3           1.041e-03  9.462e-05  11.006 3.09e-12 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 0.6296 on 31 degrees of freedom
## Multiple R-squared:  0.9815, Adjusted R-squared:  0.9797 
## F-statistic: 547.6 on 3 and 31 DF,  p-value: < 2.2e-16

Kesimpulan

Untuk \(X_1\): Karena p-value = \(6,36\) x \(10^{-10}\) < \(\alpha = 0,05\), maka \(H_0\) ditolak yang artinya Umur Harapan Hidup berpengaruh signifikan terhadap Indeks Pembangunan Manusia.

Untuk \(X_2\): Karena p-value = \(1,38\) x \(10^{-10}\) < \(\alpha = 0,05\), maka \(H_0\) ditolak yang artinya Harapan Lama Sekolah berpengaruh signifikan terhadap Indeks Pembangunan Manusia.

Untuk \(X_3\): Karena p-value = \(3,09\) x \(10^{-12}\) < \(\alpha = 0,05\), maka \(H_0\) ditolak yang artinya Rata-rata Pengeluaran Per kapita berpengaruh signifikan terhadap Indeks Pembangunan Manusia.

library(ggplot2)

# Scatterplot for X1 vs Y
ggplot(data, aes(x = X1, y = Y)) +
  geom_point() +
  labs(x = "X1", y = "Y", title = "Scatterplot of Y vs X1")

Berdasarkan plot dapat dilihat bahwa plot linear ke kanan sehingga dapat disimpulkan bahwa Usia Harapan Hidup (AHH) memiliki hubungan positif dengan Indeks Pembangunan Manusia (IPM).

# Scatterplot for X2 vs Y
ggplot(data, aes(x = X2, y = Y)) +
  geom_point() +
  labs(x = "X2", y = "Y", title = "Scatterplot of Y vs X2")

Berdasarkan plot dapat dilihat bahwa plot linear ke kanan sehingga dapat disimpulkan bahwa Rata Lama Sekolah (RLS) memiliki hubungan positif dengan Indeks Pembangunan Manusia (IPM).

# Scatterplot for X3 vs Y
ggplot(data, aes(x = X3, y = Y)) +
  geom_point() +
  labs(x = "X3", y = "Y", title = "Scatterplot of Y vs X3")

Berdasarkan plot dapat dilihat bahwa plot linear ke kanan sehingga dapat disimpulkan bahwa Pendapatan per Kapita (PPK) memiliki hubungan positif dengan Indeks Pembangunan Manusia (IPM).

Uji Asumsi Klasik

Uji Normalitas

Hipotesis

\(H_0\): Residu berdistribusi normal

\(H_1\): Residu tidak berdistribusi normal

Taraf signifkansi: \(\alpha\) = 5%

Daerah kritis: \(H_0\) ditolak apabila nilai p-value < \(\alpha\) = 0,05

Statistik Uji:

shapiro.test(model.mkt$residuals)
## 
##  Shapiro-Wilk normality test
## 
## data:  model.mkt$residuals
## W = 0.94797, p-value = 0.09813

Kesimpulan

Berdasarkan uji Shapiro-Wilk diatas, diperoleh nilai p-value = 0.09813 > \(\alpha\) = 0.05 sehingga \(H_0\) diterima. Dapat disimpulkan bahwa residu berdistribusi normal, yang artinya asumsi normalitas terpenuhi.

Uji Homogenitas

Hipotesis

\(H_0\): Variansi residu homogen

\(H_1\): Paling tidak terdapat satu variansi residu tidak homogen

Taraf signifkansi: \(\alpha\) = 5%

Daerah kritis: \(H_0\) ditolak apabila nilai p-value < \(\alpha\) = 0,05

Statistik Uji:

bptest(model.mkt)
## 
##  studentized Breusch-Pagan test
## 
## data:  model.mkt
## BP = 5.7002, df = 3, p-value = 0.1271

Kesimpulan

Berdasarkan uji Breushch-Pagan diatas, diperoleh nilai p-value = 0.1271 > \(\alpha\) = 0.05 sehingga \(H_0\) diterima. Dapat disimpulkan bahwa variansi residu homogen dan uji homogenitas terpenuhi.

Uji Non Autokorelasi

Hipotesis \(H_0\): Tidak ada autokorelasi antar residu

\(H_1\): Ada autokorelasi antar residu

Taraf signifkansi: \(\alpha\) = 5%

Daerah kritis: \(H_0\) ditolak apabila nilai p-value < \(\alpha\) = 0,05

Statistik Uji:

dwtest(model.mkt)
## 
##  Durbin-Watson test
## 
## data:  model.mkt
## DW = 1.9596, p-value = 0.3654
## alternative hypothesis: true autocorrelation is greater than 0

Kesimpulan Berdasarkan uji Durbin-Watson diatas, diperoleh nilai p-value = 0.3654 > \(\alpha\) = 0.05 sehingga \(H_0\) diterima. Dapat disimpulkan bahwa tidak ada autokorelasi antar residu, yang artinya asumsi non autokorelasi terpenuhi.

Uji Multikolinearitas

Hipotesis

\(H_0\): Tidak terjadi multikolinearitas

\(H_1\): Terjadi multikolinearitas

Taraf signifkansi: \(\alpha\) = 5%

Daerah kritis: \(H_0\) ditolak apabila nilai VIF > 10

Statistik Uji:

vif(model.mkt)
##       X1       X2       X3 
## 1.802305 3.119453 2.479315

Kesimpulan Berdasarkan uji VIF diatas, diperoleh nilai VIF dari X1,X2,X3 < 10 sehingga \(H_0\) diterima. Dapat disimpulkan bahwa tidak terjadi multikolinearitas, yang artinya asumsi non multikolinearitas terpenuhi.

Model Regresi Linear Berganda

Analisis Regresi variabel \(Y\) Indeks Pembangunan Manusia (IPM) dengan variabel independen yaitu Usia Harapan Hidup (UHH) (\(X_1\)), Harapan Lama Sekolah (HLS) (\(X_2\)), dan Pengeluaran per Kapita (PPK) (\(X_3\)).

modelregresi <- lm(data$Y~data$`X1`+data$`X2`+data$`X3`, data = data)
modelregresi
## 
## Call:
## lm(formula = data$Y ~ data$X1 + data$X2 + data$X3, data = data)
## 
## Coefficients:
## (Intercept)      data$X1      data$X2      data$X3  
##  -16.744544     0.701412     1.963253     0.001041

Berdasarkan hasil analisis regresi diatas didapatkan persamaan regresi: \[Y = -16,74454 + 0,701412X_1 + 1,963253X_2 + 0,001041X_3\] Interpretasi

Dapat disimpulkan bahwa setiap kenaikan satu tahun Usia Harapan Hidup (UHH) akan menaikkan Indeks Pembangunan Manusia (IPM) sebesesar 0,701412, setiap kenaikan satu tahun Harapan Lama sekolah (HLS) akan menaikkan Indeks Pembangunan Manusia (IPM) sebesesar 1,963253, setiap kenaikan seribu rupiah Pengeluaran per Kapita (PPK) akan menaikkan Indeks Pembangunan Manusia (IPM) sebesesar 0,001041. Apabila nilai koefisien dari \(X_1\) (Usia Harapan HIdup), \(X_2\) (Harapan Lama Sekolah), \(X_3\) (Pengeluran per Kapita) maka akan menurunkan Indeks Pembangunan Manusia (IPM) sebesar 16,74454.

Sumber Referensi

  1. Hadajani, S, S. dkk. (2021). Metode Statistika dengan R. Surakarta : UNS Press.

  2. https://rmarkdown.rstudio.com/authoring_quick_tour.html

  3. https://rstudio.github.io/bslib/articles/theming/