1 PENDAHULUAN

1.1 Latar Belakang

Pendidikan merupakan salah satu aspek penting dalam kehidupan manusia. Pendidikan dapat meningkatkan kualitas sumber daya manusia sehingga dapat mengikuti perkembangan zaman yang semakin modern terutama pada era globalisasi seperti sekarang ini. Salah satu usaha untuk mewujudkan hal tersebut adalah dengan meningkatkan hasil belajar. Prestasi belajar merupakan tolak ukur yang utama untuk mengetahui keberhasilan belajar.

Terdapat banyak faktor yang mempengaruhi prestasi belajar seseorang, beberapa diantaranya yaitu intelligence quotient dan tingkat kehadiran siswa. Intelligence Quotient (IQ) didefinisikan sebagai suatu indikator untuk mengukur kecerdasan seseorang. IQ menggambarkan kemampuan seseorang dalam berpikir, mengingat, memahami, mengevaluasi, mengolah, menguasai lingkungan, dan bertindak secara terarah. Biasanya IQ memiliki kaitan yang erat dengan intelektual, logika, kemampuan menganalisis, pemecahan masalah matematis, dan strategis.

Minat belajar seseorang dapat dilihat dari tingkat kehadiran seseorang untuk menghadiri kelas. Seseorang yang memiliki minat belajar yang rendah akan memiliki tingkat kehadiran yang rendah atau dapat dikatakan jarang menghadiri suatu kelas. Hal ini tentunya juga dapat mempengaruhi prestasi belajar seseorang.

Prestasi belajar pada kasus ini dilihat dari nilai UAS yang diperoleh. Untuk mengetahui apakah tingkat kehadiran siswa dan IQ mempengaruhi nilai UAS dapat digunakan analisis regresi linier berganda. Regresi linier merupakan metode analisis yang berguna untuk mengetahui hubungan antara dua variabel (variabel bebas dan variabel terikat). Analisis regresi linier bertujuan untuk mencari tahu apakah variabel bebas mempengaruhi variabel terikat. Apabila variabel bebas terbukti mempengaruhi variabel terikat maka nilai variabel bebas tersebut dapat digunakan untuk memprediksi nilai variabel terikat pada masa mendatang. Regresi linier berganda merupakan model regresi yang melibatkan lebih dari satu variabel bebas (independen). Pada kasus ini terdapat dua variabel bebas yaitu tingkat kehadiran siswa dan IQ, maka analisis yang paling tepat untuk mengetahui hubungan variabel bebas (tingkat kehadiran siswa dan IQ) dan variabel terikat (nilai UAS) yaitu regresi linier berganda.

2 TINJAUAN PUSTAKA

2.1 Analisis Regresi

Gujarati (2006) mendefinisikan analisis regresi sebagai kajian terhadap hubungan satu variabel yang disebut sebagai variabel yang diterangkan (the explained variable) dengan satu atau dua variabel yang menerangkan (the explanatory variable). Variabel pertama disebut sebagai variabel terikat/respons, sedangkan variabel kedua disebut sebagai variabel bebas/prediktor. Analisis regresi bertujuan untuk menjelaskan atau memodelkan hubungan antar variabel di mana Y sebagai variabel terikat/respons dan X sebagai variable bebas/prediktor. Menurut Kurniawan,R., & Yuniarto,B (2016) analisis regresi digunakan untuk memprediksikan seberapa jauh perubahan nilai suatu variabel apabila dilakukan manipulasi (dinaikturunkan) pada variabel lain.

2.2 Regresi Linier Berganda

Agung (2018) mendefinisikan regresi linier berganda sebagai suatu analisis yang dilakukan terhadap variabel respon/terikat dan dua atau lebih variabel bebas/prediktor. Model regresi linier berganda secara matematik sebagai berikut:
\[ \hat Y = a +b_1X_1+b_2X_2+…+b_nX_n \] Keterangan :
\(\hat Y\)= variabel terikat/respons
\(a\) = konstanta
\(b_n\)= koefisien-koefisien regresi dari \(x_1\),\(x_2\),…, \(x_n\)
\(x_n\)= variabel bebas/prediktor

2.2.1 Uji Signifikansi Secara Serentak (Simultan)

Uji simultan adalah uji semua variabel independen secara keseluruhan dan serentak terhadap variabel dependen. Uji ini dilakukan untuk melihat apakah variabel independen secara keseluruhan berpengaruh signifikan terhadap variabel dependen, apabila hasilnya signifika maka dapat dikatakan bahwa hubungan yang terjadi dapat berlaku untuk populasi. Statistik Uji yang digunakan pada uji ini yaitu overall F test.

Hipotesis pada uji ini yaitu:

\(H_0\) : \(\beta_1 = \beta_2 = ...=\beta_i = 0\) di mana \(i = 1, 2, ..., p-1\)
\(H_1\) : minimal ada satu nilai \(\beta_i\) ≠ 0

Hipotesis nol menunjukkan bahwa seluruh variabel independen yang diuji tidak berpengaruh secara signifikan terhadap variabel dependen. Hipotesis alternatif menunjukkan bahwa minimal ada satu variabel independen yang berpengaruh secara signifikan terhadap variabel dependen. Pengambilan keputusan pada uji ini yaitu:

  • Terima \(H_0\) jika F hitung < t tabel atau p-value > 0.05
  • Tolak \(H_0\) jika F hitung > t tabel atau p-value < 0.05

2.2.2 Uji Signifikansi Secara Parsial

Uji signifikansi secara parsial digunakan untuk melihat pengaruh tiap variabel bebas (independent) secara terpisah atau sendiri-sendiri terhadap variabel terikat (dependent). Hal ini perlu dilakukan sebab pada regresi linier berganda setiap variabel bebas memberi pengaruh yang berbeda dalam model regresi. Statistik uji yang digunakan pada uji signifikansi secara parsial ini yaitu Uji T.

Hipotesis pada uji ini yaitu:

\(H_0\) : \(\beta_i\) = 0
\(H_1\) : \(\beta_i\) ≠ 0 untuk \(i = 1, 2, ..., p-1\)

Hipotesis nol menunjukkan bahwa variabel independen yang diuji tidak berpengaruh secara signifikan terhadap variabel dependen. Hipotesis alternatif menunjukkan bahwa variabel independen yang diuji berpengaruh secara signifikan terhadap variabel dependen. Pengambilan keputusan pada uji ini yaitu:

  • Terima \(H_0\) jika t hitung < t tabel atau p-value > 0.05
  • Tolak \(H_0\) jika t hitung > t tabel atau p-value < 0.05

2.2.3 R-Square (Koefisien Determinasi)

Nilai \(R^2\) dapat diinterpretasikan sebagai besar dari proporsi variabilitas total dalam variabel dependen yang dapat dihitung oleh sekumpulan variabel independen. Jika nilai \(R^2\) = 1 artinya model yang dihasilkan mampu menerangkan semua variabilitas dalam variabel dependen. Namun, jika \(R^2\) = 0 artinya tidak ada hubungan antara variabel independen dengan variabel dependen. Semakin dekaat nilai \(R^2\) dengan 1, maka semakin baik tingkat kecocokan model dengan data yang diolah.

2.3 Uji Asumsi Klasik

Uji asumsi klasik adalah uji yang dilakukan sebelum pemrosesan data regresi agar persamaan yang dihasilkan memenuhi kaidah Best Linier Unbias Estimator. Uji asumsi klasik dilakukan agar persamaan yang dihasilkan dapat menghasilkan prediksi yang akurat. Terdapat beberapa uji asumsi klasik yang dilakukan untuk mendapatkan persamaaan regresi yang baik yaitu Uji Multikolinearitas, Uji Normalitas, Uji Heteroskedastisitas, dan Uji Autokorelasi.

2.3.1 Uji Multikolinearitas

Hubungan linear antarvariabel bebas disebut dengan multikolinearitas. Hubungan tersebut tercipta karena adanya korelasi antar variabel bebas, di mana setiap ada perubahan pada usatu variabel bebas, akan mengakibatkan variabel bebas yang lainnya berubah. Dalam membuat model regresi berganda, variabel bebas yang baik adalah variabel bebas yang mempunyai hubungan dengan variabel terikat, tetapi tidak mempunyai hubungan dengan variabel bebas lainnya. Gejala adanya multikolinearitas antara lain dengan melihat nilai Variance Inflation Factor (\(VIF\)) dan Tolerance nya. Jika nilai \(VIF\) < 10 dan Tolerance > 0.1, maka dinyatakan tidak terjadi multikolinearitas. \[ VIF=\frac{1}{1-{R_i}^2} \] \[ tol = (1-R_i^2) \] di mana \(R_i^2\) adalah koefisien determinasi dari regresi variabel bebas ke-\(i\)

2.3.2 Uji Normalitas

Uji normalitas bertujuan agar residu yang dihasilkan dari selisih antara \(Y\) aktual dan \(Y\) prediksi terdistribusi dengan normal. Dalam perhitungan statistik, data yang dimiliki harus benar-benar mewakili populasi sehingga hasil penelitian dapat digeneralisasikan pada populasi, dan sifat dari karakteristik populasi adalah terdistribusi normal. Untuk mendeteksi apakah data normal atau tidak dapat dilakukan dengan beberapa uji diantaranya uji Jarque-Bera dan uji Saphiro-Wilk.

2.3.3 Uji Heteroskedastisitas

Heteroskedastisitas adalah adanya ketidaksamaan varian dari residual untuk semua pengamatan pada model regresi. Untuk mendeteksi adanya indikasi heteroskedastisitas atau tidak dapat dilakukan dengan uji Breusch-Pagan

2.3.4 Uji Autokorelasi

Autokorelasi merupakan keadaan dimana pada model regresi ada korelasi antara residual pada periode t dengan residual pada periode sebelumnya (t-1). Model regresi yang baik adalah yang tidak adanya autokorelasi. Uji autokorelasi dapat dilakukan dengan pengujian Durbin Watson (DW).

2.4 Data

Ingin diketahui pengaruh tingkat kehadiran siswa dan intelligence quotien (\(IQ\)) terhadap nilai ujian akhir sekolah. Dilakukan pengamatan terhadap 10 siswa dan dihasilkan data sebagai berikut.

> Data <- read.table ("clipboard", header = TRUE)
> Data
    X1  X2  Y
1   60 110 65
2   70 120 70
3   75 115 75
4   80 130 75
5   80 110 80
6   90 120 80
7   95 120 85
8   95 125 95
9  100 110 90
10 100 120 98

\(Y\): Nilai Ujian Akhir Sekolah \(X1\): Tingkat Kehadiran Siswa \(X2\): Intelligence Quotient (\(IQ\))

3 SOURCE CODE

3.1 Library yang Dibutuhkan

> library(magrittr)
> library(car)
> library(normtest)
> library(lmtest)

3.2 Model Regresi Berganda

3.2.1 Pendugaan parameter

> Y<-Data[,3]
> Y
 [1] 65 70 75 75 80 80 85 95 90 98

Mengambil semua baris pada kolom 3 (kolom Y) dengan kode [,3], nilai UAS sebagai variabel dependen yang disimpan dengan nama Y dari data. Lalu mencetak Data.

> X<-Data[,-3]
> X
    X1  X2
1   60 110
2   70 120
3   75 115
4   80 130
5   80 110
6   90 120
7   95 120
8   95 125
9  100 110
10 100 120

Mengambil semua baris kecuali kolom 3 yang artinya kolom X1 dan X2, tingkat kehadiran dan IQ sebagai variabel independen yang disimpan dengan nama X dari data. Selanjutnya mencetak X.

> x<-cbind(cons=1,X)%>% as.matrix()
> x
      cons  X1  X2
 [1,]    1  60 110
 [2,]    1  70 120
 [3,]    1  75 115
 [4,]    1  80 130
 [5,]    1  80 110
 [6,]    1  90 120
 [7,]    1  95 120
 [8,]    1  95 125
 [9,]    1 100 110
[10,]    1 100 120

Menambahkan kolom pada variabel independen yaitu nilai konstanta 1 sebanyak 10 yang kemudian dibentuk sebagai matriks, disimpan dengan nama x. Kemudian x dicetak

> beta<-solve(t(x)%*%x)%*%(t(x)%*%Y)
> beta%>% round(4)
        [,1]
cons 23.0545
X1    0.7372
X2   -0.0343

Melakukan pendugaan parameter beta dengan mengalikan invers dari matriks transpose x yang dikalikan matriks x dengan matriks transpose x yang dikalikan matriks Y. Disimpan dengan nama beta, kemudian menggunakan fungsi round() untuk mengatur berapa banyak angka dibelakang koma hasil dari perhitungan. Dari pendugaan parameter tersebut diperoleh persamaan regresi: \[ \hat Y = 23.0545+0.7372X_1-0.0343X_2 \]

3.2.2 Uji Parsial

> Y_duga<-x%*%beta
> e<- Y-Y_duga
> 
> n<-nrow(x)
> MSE <- sum(e^2)/(n-1)
> VarCov<-MSE*solve(t(x)%*%x)
> Se<-VarCov%>%diag()%>%sqrt()
> 
> p<-ncol(x)
> SU<-beta/Se
> pVal<-c(2*pt(abs(SU[1]),n-1,lower.tail=F),
+         2*pt(abs(SU[-1]),n-p,lower.tail=F))
> 
> data.frame(
+   Koefesien = beta%>%rownames(),
+   Pend.Parameter = beta%>% round(4),
+   Std.Error= Se%>% round(3),
+   Stat.uji= SU%>% round(3),
+   pValue= pVal%>% round(3),
+   Sig = ifelse(pVal < 0.001, "***",
+                ifelse(pVal < 0.01, "**",
+                       ifelse(pVal < 0.05, "*",
+                              ifelse(pVal < 0.1, ".",""))))
+ )
     Koefesien Pend.Parameter Std.Error Stat.uji pValue Sig
cons      cons        23.0545    22.552    1.022  0.333    
X1          X1         0.7372     0.096    7.657  0.000 ***
X2          X2        -0.0343     0.194   -0.177  0.865    

3.2.3 Koefisien Determinasi

> JK_Error<-sum(e^2)
> JK_Tot<-sum((Y-mean(Y))^2)
> R2<-1-(JK_Error/JK_Tot)
> R2
[1] 0.8719029

3.2.4 Uji Simultan

> Fhit<-(R2/(p-1))/((1-R2)/(n-p))
> pval<-pf(Fhit,p-1,n-p, lower.tail=F)
> Fhit; pval
[1] 23.82303
[1] 0.0007522929

3.3 Uji Asumsi Klasik

> modelreg<-lm(Y~.,Data)
> summary(modelreg)

Call:
lm(formula = Y ~ ., data = Data)

Residuals:
    Min      1Q  Median      3Q     Max 
-5.2861 -2.8939  0.0296  1.6791  6.1993 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept) 23.05445   25.57161   0.902 0.397247    
X1           0.73723    0.10918   6.752 0.000264 ***
X2          -0.03433    0.22051  -0.156 0.880686    
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 4.346 on 7 degrees of freedom
Multiple R-squared:  0.8719,    Adjusted R-squared:  0.8353 
F-statistic: 23.82 on 2 and 7 DF,  p-value: 0.0007523

3.3.1 Uji Multikolinearitas

> modelreg %>% vif()
      X1       X2 
1.055571 1.055571 

3.3.2 Uji Normalitas

Uji Shapiro-Wilk

> modelreg %>% residuals()%>% shapiro.test()

    Shapiro-Wilk normality test

data:  .
W = 0.95125, p-value = 0.6833

Uji Jarque-Bera

> modelreg %>% residuals()%>% normtest::jb.norm.test()

    Jarque-Bera test for normality

data:  .
JB = 0.58528, p-value = 0.589

3.3.3 Uji Heteroskedastisitas

> modelreg %>% bptest()

    studentized Breusch-Pagan test

data:  .
BP = 5.905, df = 2, p-value = 0.05221

3.3.4 Uji Autokorelasi

> modelreg %>% dwtest()

    Durbin-Watson test

data:  .
DW = 2.594, p-value = 0.8013
alternative hypothesis: true autocorrelation is greater than 0

4 HASIL DAN PEMBAHASAN

4.1 Model Regresi

Model persamaan regresi yang dihasilkan dari pendugaan parameter sebagai berikut: \[ \hat Y = 23.0545+0.7372X_1-0.0343X_2 \] Nilai konstanta memiliki nilai positif sebesar 23.0545. Tanda positif artinya menunjukkan pengaruh yang searah antara variabel independen dan variabel dependen. Hal ini menunjukkan bahwa jika semua variabel independen yang meliputi Tingkat Kehadiran (X1) dan IQ (X2) bernilai 0 atau tidak mengalami perubahan, maka nilai UAS adalah 23.0545.

Nilai koefisien regresi untuk variabel Tingkat kehadiran (X1) memiliki nilai positif sebesar 0,7372. Hal ini menunjukkan jika Tingkat Kehadiran mengalami kenaikan 1 satuan, maka nilai UAS akan naik sebesar 0,7372 dengan asumsi variabel independen lainnya dianggap konstan. Tanda positif artinya menunjukkan pengaruh yang searah antara variabel independen dan variabel dependen.

Nilai koefisien regresi untuk variabel IQ (X2) yaitu sebesar - 0,0343. Nilai tersebut menunjukkan pengaruh negatif (berlawanan arah) antara variabel IQ dan nilai UAS. Hal ini artinya jika variabel IQ mengalami kenaikan 1 satuan, maka sebaliknya variabel nilai UAS akan mengalami penurunan sebesar 0,0343. Dengan asumsi bahwa variabel lainnya dianggap konstan.

4.2 Regresi Linier Berganda

4.2.1 Uji F

Hipotesis untuk kasus ini yaitu:

\(H_0\) : \(\beta_1 = \beta_2\) (Tingkat kehadiran dan IQ tidak berpengaruh terhadap nilai UAS)
\(H_1\) : minimal ada satu nilai \(\beta_i\) ≠ 0 (Minimal ada satu variabel bebas yang berpengaruh terhadap nilai UAS)

Dari hasil perhitungan diperoleh

  • F hitung = 23.82303

  • nilai-p = 0.0007522929

  • Keputusan : Karena nilai-p < taraf signifikansi (5%), maka tolak \(H_0\)

  • Kesimpulan : Pada taraf signifikansi 5% dapat disimpulkan bahwa minimal ada satu variabel bebas yang berpengaruh terhadap nilai UAS

4.2.2 Uji T

Untuk \(\beta_1\)

Hipotesis untuk kasus ini yaitu:

\(H_0\) : \(\beta_1\) = 0 (Tingkat kehadiran siswa tidak berpengaruh terhadap nilai UAS)
\(H_1\) : \(\beta_1\) ≠ 0 (Tingkat kehadiran siswa berpengaruh terhadap nilai UAS)

Dari hasil perhitungan diperoleh

  • t hitung = 7.657

  • nilai-p = 0.000

  • Keputusan : Karena nilai-p < taraf signifikansi (5%), maka tolak \(H_0\)

  • Kesimpulan : Pada taraf signifikansi 5% dapat disimpulkan bahwa tingkat kehadiran secara parsial mempengaruhi nilai UAS

Untuk \(\beta_2\)

Hipotesis untuk kasus ini yaitu:

\(H_0\) : \(\beta_2\) = 0 (IQ tidak berpengaruh terhadap nilai UAS)
\(H_1\) : \(\beta_2\) ≠ 0 (IQ berpengaruh terhadap nilai UAS)

Dari hasil perhitungan diperoleh

  • t hitung = -0.177

  • nilai-p = 0.865

  • Keputusan : Karena nilai-p > taraf signifikansi (5%), maka terima \(H_0\)

  • Kesimpulan : Pada taraf signifikansi 5% dapat disimpulkan bahwa IQ secara secara parsial tidak mempengaruhi nilai UAS

4.2.3 Koefisien Determinasi

Hasil perhitungan koefisien determinasi yaitu

\(R^2\) = 0.8719

Artinya semua variabel bebas (tingkat kehadiran dan IQ) secara bersamaan memiliki pengaruh sebesar 87,19% terhadap nilai UAS. Sedangkan sisanya sebesar 12.81 dipengaruhi oleh variabel lain yang tidak diuji dalam penelitian.

4.3 Uji Asumsi Klasik

4.3.1 Multikolinearitas

Hipotesis untuk kasus ini:

\(H_0\) : Tidak terdapat multikolinearitas
\(H_1\) : Terdapat multikolinearitas

Dari hasil perhitungan diperoleh

\(VIF\) = 1.055571

Karena nilai \(VIF\) < 10, maka terima \(H_0\) yang artinya tidak terdapat indikasi multikolinearitas. Maka asumsi terpenuhi.

4.3.2 Normalitas

Hipotesis untuk kasus ini:

\(H_0\) : Berdistribusi normal
\(H_1\) : Tidak berdistribusi normal

Dari hasil perhitungan diperoleh

  • Shapiro-Wilk normality test

W = 0.95125, p-value = 0.6833

  • Jarque-Bera test for normality

JB = 0.58528, p-value = 0.6025

Kedua uji tersebut memiliki p-value > 0.05, artinya data berdistribusi normal sehingga asumsi normalitas terpenuhi.

4.3.3 Heteroskedastisitas

Hipotesis untuk kasus ini:

\(H_0\) : Tidak terdapat heteroskedastisitas
\(H_1\) : Terdapat heteroskedastisitas

Dari hasil perhitungan diperoleh

studentized Breusch-Pagan test

BP = 5.905, df = 2, p-value = 0.05221

Karena p-value > 0.05, artinya tidak terdapat indikasi heteroskedastisitas. Maka asumsi terpenuhi.

4.3.4 Autokorelasi

Hipotesis untuk kasus ini:

\(H_0\) : Tidak terdapat autokorelasi
\(H_1\) : Terdapat autokorelasi

Dari hasil perhitungan diperoleh

Durbin-Watson test

DW = 2.594, p-value = 0.8013

Karena p-value > 0.05, artinya tidak terdapat indikasi autokorelasi. Maka asumsi terpenuhi.

5 KESIMPULAN

Model regresi linier berganda yang dihasilkan yaitu: \[ \hat Y = 23.0545+0.7372X_1-0.0343X_2 \] Nilai koefisien determinasi sebesar 0.8719 menunjukkan bahwa semua variabel bebas (tingkat kehadiran dan IQ) secara bersamaan memiliki pengaruh sebesar 87,19% terhadap nilai UAS. Sedangkan sisanya sebesar 12.81 dipengaruhi oleh variabel lain yang tidak diuji dalam penelitian. Setelah dilakukan pengujian asumsi klasik terhadap model, ditunjukkan bahwa seluruh asumsi terpenuhi. Tidak adanya pelanggaran asumsi menunjukkan bahwa model regresi dapat menghasilkan prediksi yang akurat.

6 DAFTAR PUSTAKA

Kurniawan,R., & Yuniarto,B. (2016). Analisis Regresi: Dasar dan Penerapannya Dengan R. KENCANA. http://webadmin.ipusnas.id/ipusnas/publications/books/87967/ (e-book)

Suyono. (2018). Analisis Regresi untuk Penelitian. DEPUBLISH. http://webadmin.ipusnas.id/ipusnas/publications/books/65641/ (e-book)

Santoso, A.B. (2018). Tutorial & Solusi Pengolahan Data Regresi. CV. GARUDA MAS SEJAHTERA. http://webadmin.ipusnas.id/ipusnas/publications/books/156784/ (e-book)

Putra, Z.H & Sacitra, W. (2015). Hubungan Intelegensi dengan Hasil Belajar Matematika Siswa Kelas V SD Negeri 68 Pekanbaru. JPM IAIN Antasari, 2(2), 1-18.