1 PENDAHULUAN
1.1 Latar Belakang
Pendidikan merupakan salah satu aspek penting dalam kehidupan manusia. Pendidikan dapat meningkatkan kualitas sumber daya manusia sehingga dapat mengikuti perkembangan zaman yang semakin modern terutama pada era globalisasi seperti sekarang ini. Salah satu usaha untuk mewujudkan hal tersebut adalah dengan meningkatkan hasil belajar. Prestasi belajar merupakan tolak ukur yang utama untuk mengetahui keberhasilan belajar.
Terdapat banyak faktor yang mempengaruhi prestasi belajar seseorang, beberapa diantaranya yaitu intelligence quotient dan tingkat kehadiran siswa. Intelligence Quotient (IQ) didefinisikan sebagai suatu indikator untuk mengukur kecerdasan seseorang. IQ menggambarkan kemampuan seseorang dalam berpikir, mengingat, memahami, mengevaluasi, mengolah, menguasai lingkungan, dan bertindak secara terarah. Biasanya IQ memiliki kaitan yang erat dengan intelektual, logika, kemampuan menganalisis, pemecahan masalah matematis, dan strategis.
Minat belajar seseorang dapat dilihat dari tingkat kehadiran seseorang untuk menghadiri kelas. Seseorang yang memiliki minat belajar yang rendah akan memiliki tingkat kehadiran yang rendah atau dapat dikatakan jarang menghadiri suatu kelas. Hal ini tentunya juga dapat mempengaruhi prestasi belajar seseorang.
Prestasi belajar pada kasus ini dilihat dari nilai UAS yang diperoleh. Untuk mengetahui apakah tingkat kehadiran siswa dan IQ mempengaruhi nilai UAS dapat digunakan analisis regresi linier berganda. Regresi linier merupakan metode analisis yang berguna untuk mengetahui hubungan antara dua variabel (variabel bebas dan variabel terikat). Analisis regresi linier bertujuan untuk mencari tahu apakah variabel bebas mempengaruhi variabel terikat. Apabila variabel bebas terbukti mempengaruhi variabel terikat maka nilai variabel bebas tersebut dapat digunakan untuk memprediksi nilai variabel terikat pada masa mendatang. Regresi linier berganda merupakan model regresi yang melibatkan lebih dari satu variabel bebas (independen). Pada kasus ini terdapat dua variabel bebas yaitu tingkat kehadiran siswa dan IQ, maka analisis yang paling tepat untuk mengetahui hubungan variabel bebas (tingkat kehadiran siswa dan IQ) dan variabel terikat (nilai UAS) yaitu regresi linier berganda.
2 TINJAUAN PUSTAKA
2.1 Analisis Regresi
Gujarati (2006) mendefinisikan analisis regresi sebagai kajian terhadap hubungan satu variabel yang disebut sebagai variabel yang diterangkan (the explained variable) dengan satu atau dua variabel yang menerangkan (the explanatory variable). Variabel pertama disebut sebagai variabel terikat/respons, sedangkan variabel kedua disebut sebagai variabel bebas/prediktor. Analisis regresi bertujuan untuk menjelaskan atau memodelkan hubungan antar variabel di mana Y sebagai variabel terikat/respons dan X sebagai variable bebas/prediktor. Menurut Kurniawan,R., & Yuniarto,B (2016) analisis regresi digunakan untuk memprediksikan seberapa jauh perubahan nilai suatu variabel apabila dilakukan manipulasi (dinaikturunkan) pada variabel lain.
2.2 Regresi Linier Berganda
Agung (2018) mendefinisikan regresi linier berganda sebagai suatu
analisis yang dilakukan terhadap variabel respon/terikat dan dua atau
lebih variabel bebas/prediktor. Model regresi linier berganda secara
matematik sebagai berikut:
\[
\hat Y = a +b_1X_1+b_2X_2+…+b_nX_n
\] Keterangan :
\(\hat Y\)= variabel
terikat/respons
\(a\) = konstanta
\(b_n\)= koefisien-koefisien regresi
dari \(x_1\),\(x_2\),…, \(x_n\)
\(x_n\)= variabel bebas/prediktor
2.2.1 Uji Signifikansi Secara Serentak (Simultan)
Uji simultan adalah uji semua variabel independen secara keseluruhan dan serentak terhadap variabel dependen. Uji ini dilakukan untuk melihat apakah variabel independen secara keseluruhan berpengaruh signifikan terhadap variabel dependen, apabila hasilnya signifika maka dapat dikatakan bahwa hubungan yang terjadi dapat berlaku untuk populasi. Statistik Uji yang digunakan pada uji ini yaitu overall F test.
Hipotesis pada uji ini yaitu:
\(H_0\) : \(\beta_1 = \beta_2 = ...=\beta_i = 0\) di
mana \(i = 1, 2, ..., p-1\)
\(H_1\) : minimal ada satu nilai \(\beta_i\) ≠ 0
Hipotesis nol menunjukkan bahwa seluruh variabel independen yang diuji tidak berpengaruh secara signifikan terhadap variabel dependen. Hipotesis alternatif menunjukkan bahwa minimal ada satu variabel independen yang berpengaruh secara signifikan terhadap variabel dependen. Pengambilan keputusan pada uji ini yaitu:
- Terima \(H_0\) jika F hitung < t tabel atau p-value > 0.05
- Tolak \(H_0\) jika F hitung > t tabel atau p-value < 0.05
2.2.2 Uji Signifikansi Secara Parsial
Uji signifikansi secara parsial digunakan untuk melihat pengaruh tiap variabel bebas (independent) secara terpisah atau sendiri-sendiri terhadap variabel terikat (dependent). Hal ini perlu dilakukan sebab pada regresi linier berganda setiap variabel bebas memberi pengaruh yang berbeda dalam model regresi. Statistik uji yang digunakan pada uji signifikansi secara parsial ini yaitu Uji T.
Hipotesis pada uji ini yaitu:
\(H_0\) : \(\beta_i\) = 0
\(H_1\) : \(\beta_i\) ≠ 0 untuk \(i = 1, 2, ..., p-1\)
Hipotesis nol menunjukkan bahwa variabel independen yang diuji tidak berpengaruh secara signifikan terhadap variabel dependen. Hipotesis alternatif menunjukkan bahwa variabel independen yang diuji berpengaruh secara signifikan terhadap variabel dependen. Pengambilan keputusan pada uji ini yaitu:
- Terima \(H_0\) jika t hitung < t tabel atau p-value > 0.05
- Tolak \(H_0\) jika t hitung > t tabel atau p-value < 0.05
2.2.3 R-Square (Koefisien Determinasi)
Nilai \(R^2\) dapat diinterpretasikan sebagai besar dari proporsi variabilitas total dalam variabel dependen yang dapat dihitung oleh sekumpulan variabel independen. Jika nilai \(R^2\) = 1 artinya model yang dihasilkan mampu menerangkan semua variabilitas dalam variabel dependen. Namun, jika \(R^2\) = 0 artinya tidak ada hubungan antara variabel independen dengan variabel dependen. Semakin dekaat nilai \(R^2\) dengan 1, maka semakin baik tingkat kecocokan model dengan data yang diolah.
2.3 Uji Asumsi Klasik
Uji asumsi klasik adalah uji yang dilakukan sebelum pemrosesan data regresi agar persamaan yang dihasilkan memenuhi kaidah Best Linier Unbias Estimator. Uji asumsi klasik dilakukan agar persamaan yang dihasilkan dapat menghasilkan prediksi yang akurat. Terdapat beberapa uji asumsi klasik yang dilakukan untuk mendapatkan persamaaan regresi yang baik yaitu Uji Multikolinearitas, Uji Normalitas, Uji Heteroskedastisitas, dan Uji Autokorelasi.
2.3.1 Uji Multikolinearitas
Hubungan linear antarvariabel bebas disebut dengan multikolinearitas. Hubungan tersebut tercipta karena adanya korelasi antar variabel bebas, di mana setiap ada perubahan pada usatu variabel bebas, akan mengakibatkan variabel bebas yang lainnya berubah. Dalam membuat model regresi berganda, variabel bebas yang baik adalah variabel bebas yang mempunyai hubungan dengan variabel terikat, tetapi tidak mempunyai hubungan dengan variabel bebas lainnya. Gejala adanya multikolinearitas antara lain dengan melihat nilai Variance Inflation Factor (\(VIF\)) dan Tolerance nya. Jika nilai \(VIF\) < 10 dan Tolerance > 0.1, maka dinyatakan tidak terjadi multikolinearitas. \[ VIF=\frac{1}{1-{R_i}^2} \] \[ tol = (1-R_i^2) \] di mana \(R_i^2\) adalah koefisien determinasi dari regresi variabel bebas ke-\(i\)
2.3.2 Uji Normalitas
Uji normalitas bertujuan agar residu yang dihasilkan dari selisih antara \(Y\) aktual dan \(Y\) prediksi terdistribusi dengan normal. Dalam perhitungan statistik, data yang dimiliki harus benar-benar mewakili populasi sehingga hasil penelitian dapat digeneralisasikan pada populasi, dan sifat dari karakteristik populasi adalah terdistribusi normal. Untuk mendeteksi apakah data normal atau tidak dapat dilakukan dengan beberapa uji diantaranya uji Jarque-Bera dan uji Saphiro-Wilk.
2.3.3 Uji Heteroskedastisitas
Heteroskedastisitas adalah adanya ketidaksamaan varian dari residual untuk semua pengamatan pada model regresi. Untuk mendeteksi adanya indikasi heteroskedastisitas atau tidak dapat dilakukan dengan uji Breusch-Pagan
2.3.4 Uji Autokorelasi
Autokorelasi merupakan keadaan dimana pada model regresi ada korelasi antara residual pada periode t dengan residual pada periode sebelumnya (t-1). Model regresi yang baik adalah yang tidak adanya autokorelasi. Uji autokorelasi dapat dilakukan dengan pengujian Durbin Watson (DW).
2.4 Data
Ingin diketahui pengaruh tingkat kehadiran siswa dan intelligence quotien (\(IQ\)) terhadap nilai ujian akhir sekolah. Dilakukan pengamatan terhadap 10 siswa dan dihasilkan data sebagai berikut.
> Data <- read.table ("clipboard", header = TRUE)
> Data
X1 X2 Y
1 60 110 65
2 70 120 70
3 75 115 75
4 80 130 75
5 80 110 80
6 90 120 80
7 95 120 85
8 95 125 95
9 100 110 90
10 100 120 98\(Y\): Nilai Ujian Akhir Sekolah \(X1\): Tingkat Kehadiran Siswa \(X2\): Intelligence Quotient (\(IQ\))
3 SOURCE CODE
3.1 Library yang Dibutuhkan
> library(magrittr)
> library(car)
> library(normtest)
> library(lmtest)3.2 Model Regresi Berganda
3.2.1 Pendugaan parameter
> Y<-Data[,3]
> Y
[1] 65 70 75 75 80 80 85 95 90 98Mengambil semua baris pada kolom 3 (kolom Y) dengan kode
[,3], nilai UAS sebagai variabel dependen yang disimpan
dengan nama Y dari data. Lalu mencetak Data.
> X<-Data[,-3]
> X
X1 X2
1 60 110
2 70 120
3 75 115
4 80 130
5 80 110
6 90 120
7 95 120
8 95 125
9 100 110
10 100 120Mengambil semua baris kecuali kolom 3 yang artinya kolom X1 dan X2, tingkat kehadiran dan IQ sebagai variabel independen yang disimpan dengan nama X dari data. Selanjutnya mencetak X.
> x<-cbind(cons=1,X)%>% as.matrix()
> x
cons X1 X2
[1,] 1 60 110
[2,] 1 70 120
[3,] 1 75 115
[4,] 1 80 130
[5,] 1 80 110
[6,] 1 90 120
[7,] 1 95 120
[8,] 1 95 125
[9,] 1 100 110
[10,] 1 100 120Menambahkan kolom pada variabel independen yaitu nilai konstanta 1 sebanyak 10 yang kemudian dibentuk sebagai matriks, disimpan dengan nama x. Kemudian x dicetak
> beta<-solve(t(x)%*%x)%*%(t(x)%*%Y)
> beta%>% round(4)
[,1]
cons 23.0545
X1 0.7372
X2 -0.0343Melakukan pendugaan parameter beta dengan mengalikan invers dari matriks transpose x yang dikalikan matriks x dengan matriks transpose x yang dikalikan matriks Y. Disimpan dengan nama beta, kemudian menggunakan fungsi round() untuk mengatur berapa banyak angka dibelakang koma hasil dari perhitungan. Dari pendugaan parameter tersebut diperoleh persamaan regresi: \[ \hat Y = 23.0545+0.7372X_1-0.0343X_2 \]
3.2.2 Uji Parsial
> Y_duga<-x%*%beta
> e<- Y-Y_duga
>
> n<-nrow(x)
> MSE <- sum(e^2)/(n-1)
> VarCov<-MSE*solve(t(x)%*%x)
> Se<-VarCov%>%diag()%>%sqrt()
>
> p<-ncol(x)
> SU<-beta/Se
> pVal<-c(2*pt(abs(SU[1]),n-1,lower.tail=F),
+ 2*pt(abs(SU[-1]),n-p,lower.tail=F))
>
> data.frame(
+ Koefesien = beta%>%rownames(),
+ Pend.Parameter = beta%>% round(4),
+ Std.Error= Se%>% round(3),
+ Stat.uji= SU%>% round(3),
+ pValue= pVal%>% round(3),
+ Sig = ifelse(pVal < 0.001, "***",
+ ifelse(pVal < 0.01, "**",
+ ifelse(pVal < 0.05, "*",
+ ifelse(pVal < 0.1, ".",""))))
+ )
Koefesien Pend.Parameter Std.Error Stat.uji pValue Sig
cons cons 23.0545 22.552 1.022 0.333
X1 X1 0.7372 0.096 7.657 0.000 ***
X2 X2 -0.0343 0.194 -0.177 0.865 3.2.3 Koefisien Determinasi
> JK_Error<-sum(e^2)
> JK_Tot<-sum((Y-mean(Y))^2)
> R2<-1-(JK_Error/JK_Tot)
> R2
[1] 0.87190293.2.4 Uji Simultan
> Fhit<-(R2/(p-1))/((1-R2)/(n-p))
> pval<-pf(Fhit,p-1,n-p, lower.tail=F)
> Fhit; pval
[1] 23.82303
[1] 0.00075229293.3 Uji Asumsi Klasik
> modelreg<-lm(Y~.,Data)
> summary(modelreg)
Call:
lm(formula = Y ~ ., data = Data)
Residuals:
Min 1Q Median 3Q Max
-5.2861 -2.8939 0.0296 1.6791 6.1993
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 23.05445 25.57161 0.902 0.397247
X1 0.73723 0.10918 6.752 0.000264 ***
X2 -0.03433 0.22051 -0.156 0.880686
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 4.346 on 7 degrees of freedom
Multiple R-squared: 0.8719, Adjusted R-squared: 0.8353
F-statistic: 23.82 on 2 and 7 DF, p-value: 0.00075233.3.1 Uji Multikolinearitas
> modelreg %>% vif()
X1 X2
1.055571 1.055571 3.3.2 Uji Normalitas
Uji Shapiro-Wilk
> modelreg %>% residuals()%>% shapiro.test()
Shapiro-Wilk normality test
data: .
W = 0.95125, p-value = 0.6833Uji Jarque-Bera
> modelreg %>% residuals()%>% normtest::jb.norm.test()
Jarque-Bera test for normality
data: .
JB = 0.58528, p-value = 0.5893.3.3 Uji Heteroskedastisitas
> modelreg %>% bptest()
studentized Breusch-Pagan test
data: .
BP = 5.905, df = 2, p-value = 0.052213.3.4 Uji Autokorelasi
> modelreg %>% dwtest()
Durbin-Watson test
data: .
DW = 2.594, p-value = 0.8013
alternative hypothesis: true autocorrelation is greater than 04 HASIL DAN PEMBAHASAN
4.1 Model Regresi
Model persamaan regresi yang dihasilkan dari pendugaan parameter sebagai berikut: \[ \hat Y = 23.0545+0.7372X_1-0.0343X_2 \] Nilai konstanta memiliki nilai positif sebesar 23.0545. Tanda positif artinya menunjukkan pengaruh yang searah antara variabel independen dan variabel dependen. Hal ini menunjukkan bahwa jika semua variabel independen yang meliputi Tingkat Kehadiran (X1) dan IQ (X2) bernilai 0 atau tidak mengalami perubahan, maka nilai UAS adalah 23.0545.
Nilai koefisien regresi untuk variabel Tingkat kehadiran (X1) memiliki nilai positif sebesar 0,7372. Hal ini menunjukkan jika Tingkat Kehadiran mengalami kenaikan 1 satuan, maka nilai UAS akan naik sebesar 0,7372 dengan asumsi variabel independen lainnya dianggap konstan. Tanda positif artinya menunjukkan pengaruh yang searah antara variabel independen dan variabel dependen.
Nilai koefisien regresi untuk variabel IQ (X2) yaitu sebesar - 0,0343. Nilai tersebut menunjukkan pengaruh negatif (berlawanan arah) antara variabel IQ dan nilai UAS. Hal ini artinya jika variabel IQ mengalami kenaikan 1 satuan, maka sebaliknya variabel nilai UAS akan mengalami penurunan sebesar 0,0343. Dengan asumsi bahwa variabel lainnya dianggap konstan.
4.2 Regresi Linier Berganda
4.2.1 Uji F
Hipotesis untuk kasus ini yaitu:
\(H_0\) : \(\beta_1 = \beta_2\) (Tingkat kehadiran dan
IQ tidak berpengaruh terhadap nilai UAS)
\(H_1\) : minimal ada satu nilai \(\beta_i\) ≠ 0 (Minimal ada satu variabel
bebas yang berpengaruh terhadap nilai UAS)
Dari hasil perhitungan diperoleh
F hitung = 23.82303
nilai-p = 0.0007522929
Keputusan : Karena nilai-p < taraf signifikansi (5%), maka tolak \(H_0\)
Kesimpulan : Pada taraf signifikansi 5% dapat disimpulkan bahwa minimal ada satu variabel bebas yang berpengaruh terhadap nilai UAS
4.2.2 Uji T
Untuk \(\beta_1\)
Hipotesis untuk kasus ini yaitu:
\(H_0\) : \(\beta_1\) = 0 (Tingkat kehadiran siswa
tidak berpengaruh terhadap nilai UAS)
\(H_1\) : \(\beta_1\) ≠ 0 (Tingkat kehadiran siswa
berpengaruh terhadap nilai UAS)
Dari hasil perhitungan diperoleh
t hitung = 7.657
nilai-p = 0.000
Keputusan : Karena nilai-p < taraf signifikansi (5%), maka tolak \(H_0\)
Kesimpulan : Pada taraf signifikansi 5% dapat disimpulkan bahwa tingkat kehadiran secara parsial mempengaruhi nilai UAS
Untuk \(\beta_2\)
Hipotesis untuk kasus ini yaitu:
\(H_0\) : \(\beta_2\) = 0 (IQ tidak berpengaruh
terhadap nilai UAS)
\(H_1\) : \(\beta_2\) ≠ 0 (IQ berpengaruh terhadap
nilai UAS)
Dari hasil perhitungan diperoleh
t hitung = -0.177
nilai-p = 0.865
Keputusan : Karena nilai-p > taraf signifikansi (5%), maka terima \(H_0\)
Kesimpulan : Pada taraf signifikansi 5% dapat disimpulkan bahwa IQ secara secara parsial tidak mempengaruhi nilai UAS
4.2.3 Koefisien Determinasi
Hasil perhitungan koefisien determinasi yaitu
\(R^2\) = 0.8719
Artinya semua variabel bebas (tingkat kehadiran dan IQ) secara bersamaan memiliki pengaruh sebesar 87,19% terhadap nilai UAS. Sedangkan sisanya sebesar 12.81 dipengaruhi oleh variabel lain yang tidak diuji dalam penelitian.
4.3 Uji Asumsi Klasik
4.3.1 Multikolinearitas
Hipotesis untuk kasus ini:
\(H_0\) : Tidak terdapat
multikolinearitas
\(H_1\) : Terdapat
multikolinearitas
Dari hasil perhitungan diperoleh
\(VIF\) = 1.055571
Karena nilai \(VIF\) < 10, maka terima \(H_0\) yang artinya tidak terdapat indikasi multikolinearitas. Maka asumsi terpenuhi.
4.3.2 Normalitas
Hipotesis untuk kasus ini:
\(H_0\) : Berdistribusi normal
\(H_1\) : Tidak berdistribusi
normal
Dari hasil perhitungan diperoleh
- Shapiro-Wilk normality test
W = 0.95125, p-value = 0.6833
- Jarque-Bera test for normality
JB = 0.58528, p-value = 0.6025
Kedua uji tersebut memiliki p-value > 0.05, artinya data berdistribusi normal sehingga asumsi normalitas terpenuhi.
4.3.3 Heteroskedastisitas
Hipotesis untuk kasus ini:
\(H_0\) : Tidak terdapat
heteroskedastisitas
\(H_1\) : Terdapat
heteroskedastisitas
Dari hasil perhitungan diperoleh
studentized Breusch-Pagan test
BP = 5.905, df = 2, p-value = 0.05221
Karena p-value > 0.05, artinya tidak terdapat indikasi heteroskedastisitas. Maka asumsi terpenuhi.
4.3.4 Autokorelasi
Hipotesis untuk kasus ini:
\(H_0\) : Tidak terdapat
autokorelasi
\(H_1\) : Terdapat autokorelasi
Dari hasil perhitungan diperoleh
Durbin-Watson test
DW = 2.594, p-value = 0.8013
Karena p-value > 0.05, artinya tidak terdapat indikasi autokorelasi. Maka asumsi terpenuhi.
5 KESIMPULAN
Model regresi linier berganda yang dihasilkan yaitu: \[ \hat Y = 23.0545+0.7372X_1-0.0343X_2 \] Nilai koefisien determinasi sebesar 0.8719 menunjukkan bahwa semua variabel bebas (tingkat kehadiran dan IQ) secara bersamaan memiliki pengaruh sebesar 87,19% terhadap nilai UAS. Sedangkan sisanya sebesar 12.81 dipengaruhi oleh variabel lain yang tidak diuji dalam penelitian. Setelah dilakukan pengujian asumsi klasik terhadap model, ditunjukkan bahwa seluruh asumsi terpenuhi. Tidak adanya pelanggaran asumsi menunjukkan bahwa model regresi dapat menghasilkan prediksi yang akurat.
6 DAFTAR PUSTAKA
Kurniawan,R., & Yuniarto,B. (2016). Analisis Regresi: Dasar dan Penerapannya Dengan R. KENCANA. http://webadmin.ipusnas.id/ipusnas/publications/books/87967/ (e-book)
Suyono. (2018). Analisis Regresi untuk Penelitian. DEPUBLISH. http://webadmin.ipusnas.id/ipusnas/publications/books/65641/ (e-book)
Santoso, A.B. (2018). Tutorial & Solusi Pengolahan Data Regresi. CV. GARUDA MAS SEJAHTERA. http://webadmin.ipusnas.id/ipusnas/publications/books/156784/ (e-book)
Putra, Z.H & Sacitra, W. (2015). Hubungan Intelegensi dengan Hasil Belajar Matematika Siswa Kelas V SD Negeri 68 Pekanbaru. JPM IAIN Antasari, 2(2), 1-18.