Asumsi Regresi Berganda pada Hubungan antara Tingkat Kehadiran dan IQ dengan Nilai UAS

Tiara Kurnia Sandy

2024-05-28


1 Pendahuluan

1.1 Latar Belakang

Keberhasilan akademik seorang mahasiswa umumnya diukur berdasarkan nilai yang diperoleh. Nilai tersebut biasanya diperoleh pada semester tertentu dan dinyatakan dalam rentang nilai yang sudah ditetapkan. penulis ingin meneliti hubungan antara tingkat kehadiran dan IQ dengan Nilai UAS. Data tersebut akan dianalisis dengan menggunakan analisis regresi linier berganda dengan melakukan uji asumsi klasik terlebih dahulu. Pendugaan awal besarnya nilai UAS bergantung pada besarnya tingkat kehadiran dan IQ seorang mahasiswa. Tujuan akhir yang diinginkan adalah apakah besarnya nilai UAS bergantung pada besarnya tingkat kehadiran dan IQ seorang mahasiswa.

1.2 Regresi Linier Berganda

Regresi linier berganda adalah model persamaan yang digunakan untuk menjelaskan hubungan antara satu variabel terikat (Y) dan dua atau lebih variabel bebas (X1, X2, …, Xn). Tujuan dari uji regresi linier berganda adalah untuk memprediksi nilai variabel terikat (Y) berdasarkan nilai-nilai variabel bebasnya (X1, X2, …, Xn). Selain itu, uji ini juga bertujuan untuk mengetahui arah hubungan antara variabel terikat dengan variabel-variabel bebas tersebut.Model regresi linier berganda sebagai berikut : \[ Y = β_0 + β_1 X_1+β_2X_2+...+β_kX_k+εn, n=1,2,3,dst \]

1.3 Uji Asumsi Klasik

Menurut Imam Ghozali (2011), uji asumsi klasik terhadap model regresi linier yang digunakan untuk dilakukan agar dapat diketahui apakah model regresi baik atau tidak. Tujuan pengujian asumsi klasik adalah untuk memberikan kepastian bahwa persamaan regresi yang diperoleh memiliki ketepatan dalam estimasi, tidak bias, dan konsisten. Sebelum melakukan analisis regresi terlebih dahulu dilakukan pengujian asumsi. Asumsi-asumsi yang harus dipenuhi dalam analisis regresi, antara lain Normalitas, Homoskedastisitas, Non Multikolinieritas, dan Non Autokorelasi.

1.3.1 Normalitas

Uji normalitas bertujuan untuk menentukan apakah residual memiliki distribusi normal atau tidak. Model regresi yang baik ditandai dengan data yang berdistribusi normal atau mendekati normal. Uji statistik untuk normalitas dibagi menjadi dua jenis, yaitu uji statistik sederhana yang mengamati nilai kurtosis dan skewness dari residual, serta uji statistik non parametrik Kolmogorov-Smirnov. Hipotesis untuk Uji Normalitas adalah sebagai berikut: H0:Residual berdistribusi normal. H1: Residual tidak berdistribusi normal

1.3.2 Homokedastisitas

Homoskedastisitas artinya ragam sisaan di setiap nilai X bersifat homogen atau bernilai sama. pelanggaran dari asumsi ini disebut heteroskedastisitas. Apabila asumsi ini terlanggar berakibat pada meningkatnya ragam dari sebaran bukan lagi penduga yang efisien. Asumsi yang menyatakan bahwa varian setiap sisaan masih tetap sama baik untuk nilai-nilai pada variabel independen yang kecil maupun besar. Asumsi ini dapat ditulis sebagai berikut: \[ var(ɛ_i )=σ^2,i=1,2,…,n \]

1.3.3 Non Multikolinieritas

Digunakan untuk mengetahui ada atau tidaknya hubungan linier antar variabel prediktor. Data dapat digunakan pada regresi linier apabila antar variabel prediktor tidak terdapat hubungan linier. Untuk mengetahui adanya multikolinieritas atau tidak, salah satunya dapat dengan menggunakan nilai VIF (Variance Inflation Factor). Perhitungan VIF adalah sebagai berikut : \[ VIF= 1/(1-r_s^2) \]

Hipotesis:
H0= Tidak Terdapat Multikolinieritas H1= Terdapat Multikolinieritas Kriteria pengambilan keputusan : VIF < 10 maka tidak terdapat multikolinieritas (Terima H0)

1.3.4 Non Autokorelasi

Uji autokorelasi bertujuan untuk menentukan apakah ada korelasi antara residual pada periode t dengan residual pada periode sebelumnya dalam model regresi. Autokorelasi terjadi karena observasi berurutan dari waktu ke waktu saling berkaitan. Masalah ini muncul ketika residual tidak independen antara satu observasi dengan observasi lainnya. Salah satu uji yang digunakan untuk mendeteksi autokorelasi adalah Uji Durbin Watson, dengan kriteria keputusan sebagai berikut:

  • Jika \(d < d_L\) atau \(d > 4 - d_L\), maka terjadi autokorelasi.
  • Jika \(d_U < d < 4 - d_U\), maka tidak terjadi autokorelasi.
  • Jika \(d_L \leq d \leq d_U\) atau \(4 - d_U \leq d \leq 4 - d_L\), maka tidak dapat disimpulkan apakah terjadi autokorelasi atau tidak.

1.4 Uji Simultan (Uji F)

Melalui uji F, kita dapat memperoleh informasi tentang apakah semua variabel penjelas (seluruh prediktor) dalam model memiliki pengaruh secara simultan terhadap variabel respon. Uji simultan ini digunakan untuk mengetahui apakah variabel-variabel independen secara bersama-sama mempengaruhi variabel dependen. Nilai uji F dapat ditemukan dalam output regresi yang dihasilkan oleh SPSS. Jika tingkat signifikansi < 0,05 (tingkat kepercayaan yang dipilih), maka H0 ditolak dan H1 diterima.

1.5 Uji Parsial

Digunakan untuk mengetahui apakah variabel independen secara parsial berpengaruh terhadap variabel dependen. Hipotesis yang digunakan dalam uji parsial adalah sebagai berikut: H0= variabel independen bukan merupakan penjelas yang signifikan terhadap variabel dependen. H1= variabel independen merupakan penjelas yang signifikan terhadap variabel dependen.

1.6 Data

Data yang digunakan adalah data Tingkat Kehadiran dan IQ terhadap Nilai UAS mahasiswa.

X1 X2 Y
60 110 65
70 120 70
75 115 75
80 130 75
70 110 80
90 120 80
95 120 85
95 125 95
100 110 90
100 120 98

X1 = Tingkat Kehadiran X2 = IQ Y = Nilai UAS

2 Source Code

2.1 Library yang Dibutuhkan

> library("car") 
> library("tseries") 
> library("readxl") 
> library("lmtest")

2.2 Mengimport Data Excel

> library(readxl) 
> Laprak2 <-  read_excel("C:/KOMSTAT/Laprak2.xlsx") 
> View(Laprak2)
> Laprak2
# A tibble: 10 × 4
   Mahasiswa `Tingkat Kehadiran(%) (X1)` `IQ (X2)` `Nilai UAS (Y)`
       <dbl>                       <dbl>     <dbl>           <dbl>
 1         1                          60       110              65
 2         2                          70       120              70
 3         3                          75       115              75
 4         4                          80       130              75
 5         5                          70       110              80
 6         6                          90       120              80
 7         7                          95       120              85
 8         8                          95       125              95
 9         9                         100       110              90
10        10                         100       120              98

2.3 Menampilkan Data

> Laprak2
# A tibble: 10 × 4
   Mahasiswa `Tingkat Kehadiran(%) (X1)` `IQ (X2)` `Nilai UAS (Y)`
       <dbl>                       <dbl>     <dbl>           <dbl>
 1         1                          60       110              65
 2         2                          70       120              70
 3         3                          75       115              75
 4         4                          80       130              75
 5         5                          70       110              80
 6         6                          90       120              80
 7         7                          95       120              85
 8         8                          95       125              95
 9         9                         100       110              90
10        10                         100       120              98

2.4 Pendefinisian Vektor

> Y <- Laprak2$`Nilai UAS (Y)`
> X1 <- Laprak2$`Tingkat Kehadiran(%) (X1)`
> X2 <- Laprak2$`IQ (X2)`
> Data <- data.frame(Y, X1, X2)
> View(Data)

2.5 Analisis Regresi Berganda

> regresi <-lm(Y~X1+X2, data=Data)
> summary(regresi)

Call:
lm(formula = Y ~ X1 + X2, data = Data)

Residuals:
   Min     1Q Median     3Q    Max 
-5.494 -3.434 -1.466  3.982  6.843 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)   
(Intercept)  41.0362    30.7883   1.333  0.22433   
X1            0.6906     0.1289   5.359  0.00105 **
X2           -0.1475     0.2739  -0.538  0.60705   
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 5.274 on 7 degrees of freedom
Multiple R-squared:  0.8114,    Adjusted R-squared:  0.7575 
F-statistic: 15.05 on 2 and 7 DF,  p-value: 0.002916

2.6 Plot Pemeriksaan Sisaan

Untuk mellakukan pemeriksaan sisaan, dapat dilakukan dengan melihat plot Residual vs Fitted, Q-Q Plot, Scale-Location, Cook’s Distance, dan Leverage vs Sisaan.Function plot digunakan sebagai perintah menyajikan plot dari data yang dituliskan argumen 1 untuk Residuals vs Fitted, 2 Normal untuk Q-Q, 3 untuk Scale-Location, par(mfrow) untuk menjadikan 3 plot sekaligus ditampilkan pada satu layer dengan 2 baris dan tiap barisnya berisi dua plot.

> par(mfrow=c(2,2))
> plot(regresi,1)
> plot(regresi,2)
> plot(regresi,3)

  1. Plot 1 : Tidak bebentuk pola tertentu maka asumsi linearitas terpenuhi.
  2. Plot 2 : Tidak terlihat adanya pelanggaran normalitas dikarenakan sebaran plot mendekati model (garis lurus).
  3. Plot 3 : Penyebaran titik-titik data tidak membentuk pola bergelombang melebar kemudian menyempit dan melebar kembali, penyebaran titik-titik data tidak berpola, dan tidak mengumpul hanya di atas atau dibawah saja, maka dapat disimpulkan tidak terdapat gejala heteroskedastisitas.

2.7 Uji Asumsi

> #Uji Normalitas Residual
> sisa<-residuals(regresi)
> jarque.bera.test(sisa)

    Jarque Bera Test

data:  sisa
X-squared = 1.2098, df = 2, p-value = 0.5461
> shapiro.test(sisa)

    Shapiro-Wilk normality test

data:  sisa
W = 0.84294, p-value = 0.04785
> 
> #Uji Homoskedastisitas
> bptest(regresi)

    studentized Breusch-Pagan test

data:  regresi
BP = 1.7501, df = 2, p-value = 0.4168
> 
> #Uji Non Autokorelasi
> dwtest(regresi)

    Durbin-Watson test

data:  regresi
DW = 2.8557, p-value = 0.9247
alternative hypothesis: true autocorrelation is greater than 0
> 
> #Pendektesian Multikolinieritas
> car::vif(regresi)
      X1       X2 
1.106171 1.106171 
  1. Function residuals digunakan untuk meng-extract hasil residual dari model pada argumen object reg kemudian disimpan dalam object sisa.
  • jarque.bera.test digunakan untuk melakukan uji Jarque Bera untuk mencari Normalitas Residual dari data sisa
  • shapiro.test digunakan untuk melakukan uji Shapiro Wilk untuk mencari Normalitas Residual dari data sisa
  1. Function bptest digunakan untuk melakukan uji Breusch Pagan untuk mengetahui terpenuhi atau tidaknya asumsi Homoskedastisitas
  2. Function dwtest digunakan untuk melakukan uji Durbin Watson untuk mengetahui apakah terjadi autokorelasi atau tidak
  3. Function car::vif digunakan untuk melakukan pendeteksian Multikolinieritas

3 Pembahasan

3.1 Persamaan Regresi

Variabel Pendugaan Parameter
Konstanta 30.7883
TingkatKehadiran(X1) 0.1289
IQ(X2) 0.2739

Diperoleh bentuk persamaan dari hasil analisis regresi berganda diatas yaitu : \[ Ŷ = 30.7883 + 0.1289(X_1)+0.2739(X_2) \] Interpretasi:

  1. Apabila Tingkat Kehadiran bernilai konstan, maka setiap peningkatan 1% akan menaikkan Nilai UAS sebesar 0.1289%
  2. Apabila IQ bernilai konstan, maka setiap peningkatan 1% akan menaikkan Nilai UAS sebesar 0.2739%
  3. Apabila Nilai Tingkat Kehadiran dan IQ bernilai 0, maka Nilai UAS 30.7883

3.2 Uji Asumsi

Uji Asumsi P-Value
Normalitas (Jarque) 0.5461
Normalitas (Shapiro) 0.04785
Homoskedastitas 0.4168
Non Autokorelasi 0.9247
Multikoliniearitas Nilai VIF
Tingkat Kehadiran(X1) 1.106171
IQ(X2) 1.106171

Interpretasi Hasil Uji Asumsi

  1. Uji Normalitas Residual Jarque

    Hipotesis:

    H0 : Residual berdistribusi normal

    H1 : Residual tidak berdistribusi normal

    P-Value (0.5461) > α (0.05) maka keputusan H0 diterima. Dapat disimpulkan bahwa residual berdistribusi normal

  2. Uji Normalitas Residual Shapiro

    Hipotesis:

    H0 : Residual berdistribusi normal

    H1: Residual tidak berdistribusi normal

    P-Value (0.04785) < α (0.05) maka keputusan H0 ditolak. Dapat disimpulkan bahwa residual berdistribusi tidak normal

  3. Uji Homoskedastisitas

    Hipotesis:

    H0 : δ2 = δ3 = 0

    H1 : Paling tidak terdapat satu δj ≠ 2,3

    P-Value (0.4168) < α (0.05) maka keputusan H0 ditolak. Dapat disimpulkan bahwa varian residual tidak bersifat homoskedastisitas.

  4. Uji Non Autokorelasi

    Hipotesis:

    H0 : ρ = 0

    H1 : ρ ≠ 0

    P-Value (0.9247) > α (0.05) maka keputusan H0 diterima. Dapat disimpulkan bahwa tidak terjadi autokorelasi sehingga asumsi sudah terpenuhi.

  5. Pendeteksian Multikolinieritas

    Karena nilai VIF < 10, maka asumsi non-multikolinieritas sudah terpenuhi.

3.3 Uji Hipotesis

Hasil Uji Hipotesis Parsial

  1. Uji Simultan

    Hipotesis:

    H0 : β0 = β1 = β2 = 0

    H1 : minimal terdapat β dimana βi ≠ 0,i = 0,1,2

    P-Value (0.00296) < α (0.05) maka keputusan H0 ditolak. Dapat disimpulkan bahwa Tingkat Kehadiran dan IQ berpengaruh signifikan terhadap Nilai UAS

  2. Uji Parsial

    Hipotesis:

    H0 : βi = 0

    H1 : βi ≠ 0

    Kesimpulan :

    • P-Value (0.00105) < α (0.05) maka keputusan H0 ditolak. Dapat disimpulkan bahwa semakin tinggi Tingkat Kehadiran mahasiswa, semakin tinggi pula Nilai UAS yang diperoleh

    • P-Value Variabel Clock Speed (0.60705) > α (0.05) maka keputusan H0 ditolak. Dapat disimpulkan bahwa peningkatan atau penurunan IQ tidak memiliki dampak yang signifikan terhadap nilai UAS.

  3. Koefisien Determinasi

    Diperoleh nilai koefisien determinasi pada summary(reg) sebesar 81.14%. Dapat disimpulkan bahwa Nilai UAS (Y) dapat dijelaskan oleh Tingkat Kehadiran (X1) dan IQ(X2) dalam model regresi ini.

4 Daftar Pustaka

I,Made.Y(2016). Modul Regresi Linier Berganda. Universitas Udayana.

Ghozali, Imam. 2018. Aplikasi Analisis Multivariate Dengan Program IBM SPSS 25 Semarang: Universitas Dipenogoro

Sudijono, Anas. 1996. Pengantar Statistik Pendidikan. Jakarta: Rajawali Spiegel. Murray. R. 2004. Statistika. Jakarta :Erlangga