STUDI KASUS : PENGARUH TINGKAT KEHADIRAN DAN IQ TERHADAP NILAI UAS

Prestasi belajar siswa merupakan hasil dari berbagai faktor yang saling berkaitan, baik yang berasal dari dalam diri siswa maupun dari lingkungan sekitarnya. Di antara faktor internal, kecerdasan intelektual atau IQ menjadi salah satu indikator penting karena berkaitan dengan kemampuan berpikir, memahami konsep, serta menyelesaikan persoalan. Sementara itu, dari sisi eksternal, tingkat kehadiran di kelas mencerminkan seberapa aktif siswa mengikuti proses pembelajaran yang pada akhirnya dapat memengaruhi pemahaman materi yang diperoleh.

Dalam studi kasus ini, digunakan data yang memuat informasi mengenai IQ dan persentase kehadiran sepuluh orang siswa, yang diduga memiliki hubungan dengan capaian nilai Ujian Akhir Semester (UAS). Data tersebut disajikan dalam bentuk tabel yang mencakup tiga variabel utama, yaitu tingkat kehadiran, IQ, serta nilai UAS.

Siswa IQ
(X2)
Tingkat Kehadiran (%)
(X1)
Nilai UAS
(Y)
1 110 60 65
2 120 70 70
3 115 75 75
4 130 80 75
5 110 80 80
6 120 90 80
7 120 95 85
8 125 95 95
9 110 100 90
10 120 100 98

Melalui pendekatan regresi linier berganda, penelitian ini bertujuan untuk menganalisis pengaruh tingkat kehadiran dan IQ terhadap nilai UAS. Secara lebih rinci, analisis diarahkan untuk menjawab pertanyaan berikut:

  1. Persamaan Regresi Linear Berganda Hitung β (koefisien regresi) secara manual di R dan bandingkan hasilnya dengan fungsi lm()

  2. Uji F (simultan) Menentukan apakah tingkat kehadiran dan IQ secara bersama-sama berpengaruh signifikan terhadap nilai UAS.

  3. Uji t (parsial) Menentukan apakah masing-masing variabel bebas (kehadiran dan IQ) secara individu berpengaruh signifikan terhadap nilai UAS.

  4. Koefisien Determinasi Mengukur seberapa besar variasi nilai UAS dapat dijelaskan oleh variabel tingkat kehadiran dan IQ, serta interpretasi hasilnya.

  5. Uji Asumsi Regresi Memeriksa normalitas residual, homoskedastisitas, autokorelasi, dan multikolinearitas.

Load Library dan Input Data

# Load Library
library(lmtest)
## Warning: package 'lmtest' was built under R version 4.4.3
## Loading required package: zoo
## Warning: package 'zoo' was built under R version 4.4.3
## 
## Attaching package: 'zoo'
## The following objects are masked from 'package:base':
## 
##     as.Date, as.Date.numeric
library(car)
## Warning: package 'car' was built under R version 4.4.3
## Loading required package: carData
## Warning: package 'carData' was built under R version 4.4.2
# Input Data
IQ <- c(110,120,115,130,110,120,120,125,110,120)
kehadiran <- c(60,70,75,80,80,90,95,95,100,100)
UAS <- c(65,70,75,75,80,80,85,95,90,98)

data <- data.frame(IQ, kehadiran, UAS)
DT::datatable(data)

Persamaan Regresi Berganda

Persamaan regresi linier berganda dibuat untuk menganalisis pengaruh beberapa variabel bebas terhadap satu variabel dependen. Dalam konteks studi ini, variabel dependen adalah nilai UAS, sedangkan variabel bebasnya adalah tingkat kehadiran dan IQ. Model ini membantu memahami bagaimana setiap variabel independen berkontribusi terhadap variabel terikat secara simultan.

Secara umum, model regresi linear berganda dapat dituliskan sebagai berikut.

\[Y = \beta_0 + \beta_1 X_1 + \beta_2 X_2 + \dots + \beta_n X_n + \epsilon\]

Keterangan - \(Y\) : Variabel dependen - \(X_n\) : Variabel independen ke-\(k\) - \(\beta_n\) : Koefisien regresi variabel bebas $X_ n$

Untuk estimasi nilai Y berdasarkan data yang tersedia, digunakan persamaan prediksi (regresi berganda dengan β topi):

\[\hat{Y} = \hat{\beta}_0 + \hat{\beta}_1 X_1 + \hat{\beta}_2 X_2 + \dots + \hat{\beta}_k X_k\]

Keterangan:

  • \(\hat{Y}\) : Penduga/Estimasi \(Y\)

  • \(\hat{\beta}_k\) : Koefisien regresi estimasi

Analisis dilakukan dengan menghitung koefisien regresi β secara manual dengan perhitungan manual dan membandingkannya dengan hasil fungsi lm()

Manual

Pendekatan manual pada regresi linear berganda menggunakan representasi matriks memungkinkan kita untuk menghitung koefisien regresi \(\hat{\beta}\) secara langsung. model regresi secara matriks ditulis sebagai berikut.

\[ Y = X \beta + \varepsilon \]

Keterangan: - \(Y\) : Vektor kolom berisi nilai variabel dependen (ukuran \(n \times 1\)) - \(X\) : Matriks variabel independen, dengan kolom pertama diisi angka 1 untuk konstanta intercept (ukuran \(n \times k\)) - \(\beta\) : Vektor kolom koefisien regresi yang akan diestimasi (ukuran \(k \times 1\)) - \(\varepsilon\) : Vektor galat/residual (ukuran \(n \times 1\))

Untuk memperoleh estimasi \(\hat{\beta}\) yang meminimalkan jumlah kuadrat residual, digunakan metode Ordinary Least Squares (OLS):

\[ \hat{\beta} = (X'X)^{-1} X'Y \]

Keterangan: - \(X'\) : Transpose dari matriks \(X\) - \((X'X)^{-1}\) : Invers dari hasil perkalian \(X'\) dengan \(X\) - \(X'Y\) : Hasil perkalian \(X'\) dengan vektor \(Y\)

Berikut Penyelesaiannya.

Kehadiran <- c(60, 70, 75, 80, 80, 90, 95, 95, 100, 100)   # X1
IQ <- c(110, 120, 115, 130, 110, 120, 120, 125, 110, 120)  # X2
UAS <- c(65, 70, 75, 75, 80, 80, 85, 95, 90, 98) #Y

# Matriks X (dengan intercept)
X <- cbind(1, Kehadiran, IQ)
X
##         Kehadiran  IQ
##  [1,] 1        60 110
##  [2,] 1        70 120
##  [3,] 1        75 115
##  [4,] 1        80 130
##  [5,] 1        80 110
##  [6,] 1        90 120
##  [7,] 1        95 120
##  [8,] 1        95 125
##  [9,] 1       100 110
## [10,] 1       100 120
# Matriks Y
Y <- matrix(UAS, ncol = 1)
Y
##       [,1]
##  [1,]   65
##  [2,]   70
##  [3,]   75
##  [4,]   75
##  [5,]   80
##  [6,]   80
##  [7,]   85
##  [8,]   95
##  [9,]   90
## [10,]   98
# Transpose X
Xt <- t(X)
Xt
##           [,1] [,2] [,3] [,4] [,5] [,6] [,7] [,8] [,9] [,10]
##              1    1    1    1    1    1    1    1    1     1
## Kehadiran   60   70   75   80   80   90   95   95  100   100
## IQ         110  120  115  130  110  120  120  125  110   120
# Hitung (X'Y)
XtY <- Xt %*% Y
XtY
##            [,1]
##             813
## Kehadiran 69925
## IQ        96060
# Hitung (X'X)
XtX <- Xt %*% X
XtX
##                Kehadiran     IQ
##             10       845   1180
## Kehadiran  845     73075  99900
## IQ        1180     99900 139650
# Invers (X'X)
XtX_inv <- solve(XtX)
XtX_inv
##                           Kehadiran            IQ
##           34.62208967 -0.0188185492 -0.2790840870
## Kehadiran -0.01881855  0.0006311333 -0.0002924764
## IQ        -0.27908409 -0.0002924764  0.0025745622
# Beta duga
beta_hat <- XtX_inv %*% XtY
rownames(beta_hat) <- c("Intercept (b0)", "Kehadiran (b1)", "IQ (b2)")
colnames(beta_hat) <- "Estimasi Manual"

beta_hat
##                Estimasi Manual
## Intercept (b0)      23.0544545
## Kehadiran (b1)       0.7372330
## IQ (b2)             -0.0343275

Berdasarkan hasil perhitungan manual menunjukkan bahwa koefisien regresi yang diperoleh adalah: intercept \(\hat{\beta}_0\) = 23,0544, koefisien untuk variabel \(X1(\hat{\beta_1})\) sebesar 0,7372, dan koefisien untuk variabel\(X2(\hat{\beta_2})\) sebesar -0,0343. Dengan demikian, persamaan regresi linier berganda yang terbentuk dapat ditulis sebagai: \[ \hat{Y} = 23.0544 + 0.7372 X_1 - 0.0343 X_2 \]

Penggunaan lm() sangat praktis karena selain menghitung koefisien regresi, fungsi ini juga menyediakan informasi tambahan seperti nilai residual, R-squared, uji t parsial, dan uji F simultan. Dengan lm(), analisis regresi menjadi lebih cepat dan akurat dibanding perhitungan manual, terutama saat jumlah variabel independen dan data yang digunakan cukup besar.

Sebagai contoh, sintaks untuk memodelkan pengaruh tingkat kehadiran (X1) dan IQ (X2) terhadap nilai UAS (Y) adalah:

#Membuat Model
model <- lm(UAS ~ Kehadiran + IQ, data = data)

#Menampilkan Model
print(summary(model))
## 
## Call:
## lm(formula = UAS ~ Kehadiran + IQ, data = data)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -5.2861 -2.8939  0.0296  1.6791  6.1993 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept) 23.05445   25.57161   0.902 0.397247    
## Kehadiran    0.73723    0.10918   6.752 0.000264 ***
## IQ          -0.03433    0.22051  -0.156 0.880686    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 4.346 on 7 degrees of freedom
## Multiple R-squared:  0.8719, Adjusted R-squared:  0.8353 
## F-statistic: 23.82 on 2 and 7 DF,  p-value: 0.0007523

Dari hasil model tersebut menunjukkan bahwa koefisien regresi yang diperoleh adalah: intercept \(\hat{\beta}_0\) = 23,0544, koefisien untuk variabel \(X1(\hat{\beta_1})\) sebesar 0,7372, dan koefisien untuk variabel\(X2(\hat{\beta_2})\) sebesar -0,0343. Dengan demikian, persamaan regresi linier berganda yang terbentuk dapat ditulis sebagai berikut. \[ \hat{Y} = 23.0544 + 0.7372 X_1 - 0.0343 X_2 \] Dari kedua cara perhitungan tersebut, diperoleh nilai koefisien regresi yang identik, Nilai \(\hat{\beta_1}\) sebesar 0,7372 menunjukkan bahwa setiap kenaikan 1% pada tingkat kehadiran (X1) akan meningkatkan nilai UAS sebesar 0,737 pon, dengan asumsi IQ (x2) tetap konstan. Hal ini menegaskan bahwa tingkat kehadiran memiliki pengaruh positif yang signifikan terhadap prestasi akademik siswa.

Sementara itu, nilai \(\hat{\beta_2}\) sebesar -0,0343 menunjukkan bahwa setiap 1 poin IQ (X2) justru menurunkan nilai UAS sebesar 0,034 poin jika tingkat kehadiran tetap. Pengaruh ini sangat kecil dan secara statistik tidak signifikan, sehingga dapat diimpulkan bahwa IQ tidak berperan dominan dalam model ini pada sampel yang dianlasis.

intercept \(\hat{\beta}_0\) = 23,0544 merupakan nilai perkiraan UAS ketika kedua variabel bebas sama dengan nol. Meskipun tidak realistis secara praktis, nilai ini penting sebagai titik awal persamaan regresi

Uji F (simultan)

Dalam analisis regresi linier berganda, uji F digunakan untuk mengevaluasi apakah variabel independen yang dimasukkan ke dalam model, yaitu tingkat kehadiran (\(X_1\)) dan IQ (\(X_2\)), secara keseluruhan memiliki pengaruh terhadap variabel dependen yaitu nilai UAS (\(Y\)). Pengujian ini bertujuan untuk menilai kelayakan model dalam menjelaskan hubungan antara variabel-variabel tersebut.

Hipotesis yang digunakan dalam uji F adalah sebagai berikut:

  • \(H_0\): \(\beta_1 = \beta_2 = 0\) (variabel bebas tidak berpengaruh terhadap variabel respon)

  • \(H_1\): minimal salah satu \(\beta \neq 0\) (variabel bebas berpengaruh terhadap variabel respon)

Kriteria pengambilan keputusan adalah sebagai berikut.

  • Jika nilai p-value < \(\alpha\) (0,05), maka \(H_0\) ditolak

  • Jika nilai p-value > \(\alpha\) (0,05), maka \(H_0\) tidak ditolak

Pengujian dilakukan menggunakan output model regresi sebagai berikut:

summary(model)
## 
## Call:
## lm(formula = UAS ~ Kehadiran + IQ, data = data)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -5.2861 -2.8939  0.0296  1.6791  6.1993 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept) 23.05445   25.57161   0.902 0.397247    
## Kehadiran    0.73723    0.10918   6.752 0.000264 ***
## IQ          -0.03433    0.22051  -0.156 0.880686    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 4.346 on 7 degrees of freedom
## Multiple R-squared:  0.8719, Adjusted R-squared:  0.8353 
## F-statistic: 23.82 on 2 and 7 DF,  p-value: 0.0007523

Berdasarkan hasil output summary(model), diperoleh nilai F-hitung sebesar 23,82 dengan derajat bebas \((df_1 = 2)\) dan \((df_2 = 7)\) serta p-value sebesar 0,0007523. Jika dibandingkan dengan tingkat signifikansi \(\alpha = 0{,}05\), maka diperoleh bahwa p-value < \(\alpha\) (0,0007523 < 0,05), sehingga keputusan yang diambil adalah menolak \(H_0\).

Dengan demikian, dapat disimpulkan bahwa variabel tingkat kehadiran (\(X_1\)) dan IQ (\(X_2\)) secara simultan berpengaruh signifikan terhadap nilai UAS (\(Y\)). Hal ini menunjukkan bahwa model regresi yang digunakan layak untuk menjelaskan hubungan antara variabel independen dan variabel dependen.

Uji t (parsial)

Dalam analisis regresi linier berganda, uji parsial (uji t) digunakan untuk mengetahui apakah masing-masing variabel independen memiliki pengaruh secara individu terhadap variabel dependen. Pada penelitian ini, uji t dilakukan untuk mengevaluasi pengaruh tingkat kehadiran (\(X_1\)) dan IQ (\(X_2\)) terhadap nilai UAS (\(Y\)) secara terpisah.

Hipotesis yang digunakan dalam uji t adalah sebagai berikut.

  • \(H_0\): \(\beta_k = 0\) (variabel bebas ke-\(k\) tidak berpengaruh terhadap variabel respon)

  • \(H_1\): \(\beta_k \neq 0\) (variabel bebas ke-\(k\) berpengaruh terhadap variabel respon)

Pengujian dilakukan menggunakan output model regresi sebagai berikut:

print(summary(model)$coefficients)
##               Estimate Std. Error    t value     Pr(>|t|)
## (Intercept) 23.0544545 25.5716101  0.9015644 0.3972467061
## Kehadiran    0.7372330  0.1091797  6.7524718 0.0002644133
## IQ          -0.0343275  0.2205125 -0.1556715 0.8806860631

Berdasarkan hasil output summary(model)$coefficients, diperoleh nilai statistik uji sebagai berikut:

Untuk variabel tingkat kehadiran (\(X_1\)) diperoleh nilai t-hitung = 6,752 dengan p-value = 0,000264. Karena p-value < \(\alpha\) (0,000264 < 0,05), maka \(H_0\) ditolak. Artinya, tingkat kehadiran memiliki pengaruh signifikan terhadap nilai UAS.

Untuk variabel IQ (\(X_2\)) diperoleh nilai t-hitung = -0,156 dengan p-value = 0,880686. Karena p-value > \(\alpha\) (0,880686 > 0,05), maka \(H_0\) tidak ditolak. Artinya, IQ tidak berpengaruh signifikan terhadap nilai UAS dalam model ini.

Koefisien Determinasi (R²)

Koefisien determinasi atau \(R^2\) merupakan angka statistik yang mencerminkan kemampuan model regresi dalam menjelaskan keragaman variabel dependen melalui variabel independen yang digunakan. Dengan rentang nilai antara 0 hingga 1

Secara matematis, koefisien determinasi (\(R^2\)) dapat dirumuskan sebagai berikut:\[ R^2 = \frac{SSR}{SST} \]

atau jika dilihat dari sisi sisa kesalahan (error) dalam model:\[ R^2 = 1 - \frac{SSE}{SST} \]

Salah satu sifat unik \(R^2\) adalah nilainya tidak akan pernah turun jika kita menambah variabel baru ke dalam model, meskipun variabel tersebut sebenarnya tidak relevan. Hal ini bisa menipu karena membuat model seolah-olah terlihat “lebih baik” padahal hanya menjadi lebih rumit.

Untuk mengatasi ini, digunakan Adjusted \(R^2\). Indikator ini akan memberikan “penalti” jika kita menambah variabel yang tidak memberikan kontribusi nyata. Rumusnya melibatkan jumlah observasi (\(n\)) dan jumlah variabel (\(k\)): \[R^2_{adj} = 1 - (1 - R^2) \frac{n - 1}{n - k - 1}\]

summary(model)$r.squared
## [1] 0.8719029
summary(model)$adj.r.squared
## [1] 0.8353038

Uji Asumsi Uji asumsi

kUji asumsi klasik merupakan tahap krusial untuk memastikan bahwa model regresi yang disusun telah memenuhi kriteria dasar dalam analisis, sehingga estimasi yang dihasilkan bersifat valid, objektif, dan dapat dipertanggungjawabkan.

Pengujian ini bertujuan untuk memastikan bahwa residual (sisaan) berdistribusi normal serta memiliki varians yang konstan (homoskedastisitas). Selain itu, uji asumsi juga digunakan untuk memastikan tidak adanya korelasi antar residual (autokorelasi) serta tidak adanya hubungan yang kuat antar variabel independen (multikolinearitas), yang apabila dilanggar dapat menyebabkan bias pada hasil analisis.

Normalitas Residual

Uji normalitas residual bertujuan untuk mengetahui apakah nilai residual dari model regresi berdistribusi normal. Model regresi yang baik adalah model yang memiliki residual berdistribusi normal. Pada penelitian ini, uji normalitas dilakukan menggunakan uji Shapiro-Wilk.

Kriteria pengambilan keputusan:

  • Jika p-value > 0,05 → residual berdistribusi normal

  • Jika p-value ≤ 0,05 → residual tidak berdistribusi normal

shapiro.test(residuals(model))
## 
##  Shapiro-Wilk normality test
## 
## data:  residuals(model)
## W = 0.95125, p-value = 0.6833

Berdasarkan hasil uji Shapiro-Wilk diperoleh nilai p-value sebesar 0,6833. Karena nilai p-value > 0,05, maka dapat disimpulkan bahwa residual berdistribusi normal. Dengan demikian, asumsi normalitas pada model regresi telah terpenuhi.

Multikolinearitas

Uji multikolinearitas bertujuan untuk mengetahui apakah terdapat hubungan yang kuat antar variabel independen dalam model regresi. Model yang baik seharusnya tidak memiliki multikolinearitas. Pengujian dilakukan dengan melihat nilai Variance Inflation Factor (VIF).

Kriteria pengambilan keputusan:

  • Jika VIF < 10 → tidak terjadi multikolinearitas

  • Jika VIF ≥ 10 → terjadi multikolinearitas

vif(model)
## Kehadiran        IQ 
##  1.055571  1.055571

Hasil perhitungan Variance Inflation Factor (VIF) menunjukkan bahwa nilai VIF untuk variabel kehadiran dan IQ masing-masing sebesar 1,055571. Karena seluruh nilai VIF < 10, maka dapat disimpulkan bahwa tidak terjadi multikolinearitas antar variabel independen. Artinya, variabel kehadiran dan IQ tidak memiliki hubungan yang kuat satu sama lain dalam model.

Heteroskedastisitas

Uji heteroskedastisitas bertujuan untuk mengetahui apakah varians residual bersifat konstan atau tidak. Model regresi yang baik adalah yang memiliki varians residual konstan (homoskedastisitas). Uji yang digunakan adalah uji Breusch-Pagan.

Kriteria pengambilan keputusan:

  • Jika p-value > 0,05 → tidak terjadi heteroskedastisitas

  • Jika p-value ≤ 0,05 → terjadi heteroskedastisitas

bptest(model)
## 
##  studentized Breusch-Pagan test
## 
## data:  model
## BP = 5.905, df = 2, p-value = 0.05221

Berdasarkan hasil uji Breusch-Pagan diperoleh nilai p-value sebesar 0,05221. Karena nilai p-value > 0,05, maka dapat disimpulkan bahwa tidak terjadi heteroskedastisitas. Dengan demikian, varians residual bersifat konstan (homoskedastisitas) dan asumsi ini terpenuhi.

Autokorelasi

Uji autokorelasi bertujuan untuk mengetahui apakah terdapat korelasi antara residual pada satu pengamatan dengan pengamatan lainnya. Model regresi yang baik seharusnya tidak mengandung autokorelasi. Pengujian dilakukan menggunakan uji Durbin-Watson.

Kriteria pengambilan keputusan:

  • Jika p-value > 0,05 → tidak terjadi autokorelasi

  • Jika p-value ≤ 0,05 → terjadi autokorelasi

dwtest(model)
## 
##  Durbin-Watson test
## 
## data:  model
## DW = 2.594, p-value = 0.8013
## alternative hypothesis: true autocorrelation is greater than 0

Hasil uji Durbin-Watson menunjukkan nilai p-value sebesar 0,8013. Karena p-value > 0,05, maka dapat disimpulkan bahwa tidak terdapat autokorelasi pada residual. Hal ini menunjukkan bahwa tidak ada korelasi antar residual pada model regresi.

Kesimpulan Uji Asumsi

Berdasarkan seluruh pengujian yang telah dilakukan, dapat disimpulkan bahwa model regresi telah memenuhi asumsi klasik, yaitu residual berdistribusi normal, tidak terjadi multikolinearitas, tidak terjadi heteroskedastisitas, serta tidak terdapat autokorelasi. Oleh karena itu, model regresi yang digunakan dapat dikatakan layak dan dapat digunakan untuk analisis lebih lanjut.