Najah Muchsin Sanin

11 Maret 2022

Dosen Pengampu : Prof. Dr. Suhartono, M.Kom

Lembaga : Universitas Islam Negeri Maulana Malik Ibrahim Malang

Jurusan : Teknik Informatika

1 Pengertian Regresi Linear

Regresi linier adalah model paling sederhana yang paling sering dijelaskan dalam statistik. Modelnya sangat sederhana dimana kita dapat mencoba membangun model dengan pendekatan linier menggunakan prinsip meminimalkan jumlah sisa kuadrat dalam data. Model yang terbentuk menghasilkan dua nilai: nilai konstan (y-intercept) dan slope kurva. Berikut contoh regresi linear berganda yaitu pengaruh motivasi dan minat terhadap prestasi.

2 Dataset Pengaruh Motivasi dan Minat terhadap Prestasi

library(readxl)
## Warning: package 'readxl' was built under R version 4.1.2
Data <- read_excel(path = "DataPengaruhPrestasi.xlsx")
Data

3 Regresi Linear Berganda

model <- lm(Data$`Prestasi (Y)`~ Data$`Motivasi (X1)`+Data$`Minat (X2)`)
model
## 
## Call:
## lm(formula = Data$`Prestasi (Y)` ~ Data$`Motivasi (X1)` + Data$`Minat (X2)`)
## 
## Coefficients:
##          (Intercept)  Data$`Motivasi (X1)`     Data$`Minat (X2)`  
##               2.6117                0.1922                0.8876

4 Uji Asumsi Klasik

4.1 Uji Normalitas

Uji normalitas dalam contoh regresi dipakai untuk menguji apakah nilai residual yang didapatkan menurut regresi terdistribusi secara normal atau tidak. Model regresi yang baik mempunyai nilai residual yang terdistribusi secara normal. Pada contoh berikut akan dilakukakan uji normalitas menggunakan metode One-sample Kolmogorov-Smirnov

ks.test(model$residuals, ecdf(model$residuals))
## 
##  One-sample Kolmogorov-Smirnov test
## 
## data:  model$residuals
## D = 0.083333, p-value = 0.9999
## alternative hypothesis: two-sided
  • Berdasarkan dasar teori atau syarat dari uji normalitas adalah jika nilai p-value > 0.05 maka data berdistribusi normal. Namun apabila sebaliknya maka data tidak berdstribusi normal. Sehingga dapat disimpulkan bahwa model regresi diatas berdistribusi normal dikarenakan nilai p-value sama dengan 0.9999 dimana > 0.05.

4.2 Uji Multikolinearitas

Uji multikolinearitas merupakan pengujian untuk memastikan apakah pada sebuah model regresi terdapat interkorelasi atau kolinearitas antar variabel bebas. Interkorelasi merupakan hubungan yang linear antara satu variabel bebas atau variabel prediktor dengan variabel prediktor lainnya di dalam sebuah model regresi. Interkorelasi itu dapat dilihat dengan nilai koefisien korelasi antara variabel bebas, nilai VIF dan Tolerance, nilai Eigenvalue dan Condition Index, serta nilai standar error koefisien beta atau koefisien regresi parsial.

library(lmtest)
## Warning: package 'lmtest' was built under R version 4.1.2
## Loading required package: zoo
## Warning: package 'zoo' was built under R version 4.1.2
## 
## Attaching package: 'zoo'
## The following objects are masked from 'package:base':
## 
##     as.Date, as.Date.numeric
library(car)
## Warning: package 'car' was built under R version 4.1.2
## Loading required package: carData
## Warning: package 'carData' was built under R version 4.1.2
vif(model)
## Data$`Motivasi (X1)`    Data$`Minat (X2)` 
##             2.537098             2.537098
  • Berdasarkan dasar teori uji multikolinearitas jika nilai VIF < 10 maka tidak terjadi gejala multikolinearitas. Sehingga dapat disimpulkan pada regresi diatas tidak terjadi gejala multikolinearitas dikarenakan dari semua variabel independent memiliki nilai VIF < 10.

4.3 Uji Autokorelasi

Uji Autokorelasi merupakan pengujian yang dilakukan untuk mengetahui adakah korelasi variabel yang ada di dalam model prediksi dengan perubahan waktu. Oleh karena itu, apabila asumsi autokorelasi terjadi pada sebuah model prediksi, maka nilai disturbance tidak lagi berpasangan secara bebas, melainkan berpasangan secara autokorelasi. Pada contoh berikut akan dilakukakan uji normalitas menggunakan metode Durbin-Watson.

dwtest(model)
## 
##  Durbin-Watson test
## 
## data:  model
## DW = 2.0937, p-value = 0.5555
## alternative hypothesis: true autocorrelation is greater than 0
  • Berdasarkan dasar teori atau syarat dari uji autokorelasi adalah jika nilai p-value > 0.05 maka tidak terjadi autokorelasi. Namun apabila sebaliknya maka terjadi autokorelasi. Sehingga dapat disimpulkan pada model diatas tidak terdapat gejala autokorelasi.

4.4 Uji Homogenitas

Uji homogenitas dimaksudkan untuk memperlihatkan bahwa dua atau lebih kelompok data sampel berasal dari populasi yang memiliki variansi yang sama. Pada contoh berikut akan dilakukakan uji homogenitas menggunakan metode studentized Breusch-Pagan.

bptest(model)
## 
##  studentized Breusch-Pagan test
## 
## data:  model
## BP = 7.957, df = 2, p-value = 0.01871
  • Berdasarkan dasar teori atau syarat dari uji homogenitas jika nilai p-value > 0.05 maka variansi setiap sampel sama (homogen). Namun apabila sebaliknya nilai p-value< 0.05, maka variansi setiap sampel tidak sama (tidak homogen). Sehingga dapat disimpulkan bahwa data tersebut tidak homogen.

5 Interpretasi Hasil Regresi Berganda

Dalam menampilkan hasil regresi kita dapat menggunakan fungsi summary.

summary(model)
## 
## Call:
## lm(formula = Data$`Prestasi (Y)` ~ Data$`Motivasi (X1)` + Data$`Minat (X2)`)
## 
## Residuals:
##    Min     1Q Median     3Q    Max 
## -3.989 -2.327 -1.180  2.692  5.449 
## 
## Coefficients:
##                      Estimate Std. Error t value Pr(>|t|)   
## (Intercept)            2.6117    11.8740   0.220  0.83082   
## Data$`Motivasi (X1)`   0.1922     0.2149   0.894  0.39462   
## Data$`Minat (X2)`      0.8876     0.2488   3.567  0.00605 **
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 3.453 on 9 degrees of freedom
## Multiple R-squared:  0.839,  Adjusted R-squared:  0.8032 
## F-statistic: 23.45 on 2 and 9 DF,  p-value: 0.0002696
  • Nilai Minimum adalah -3.989

  • Nilai Quartal ke-1 adalah -2.327

  • Nilai Tengah adalah -1.180

  • Nilai Quartal ke-3 adalah 2.692

  • Nilai Maksimum adalah 5.449

  • Dasar teori yang digunakan dalam interpretasi hasilregre adalah apabila nilai signifikansi (Pr(>|t|)) < 0.05 maka variabel independent (variabel x) secara parsial berpengaruh terhadap variable dependent (variable y). Sehingga dapat disimpulkan :

    1. Variable motivasi tidak signifikan berpengaruh terhadap variable prestasi.
    2. Variable minat signifikan berpengaruh terhadap variable prestas.
  • Selain itu kita dapat disimpulkan apakah seluruh variable independent berpengaruh secara simultan terhadap variable dependent dimana dasar dari penentuan tersebut yaitu apabila nilai p-value dari F-statistic < 0.05 maka keseluruahan variable independent signifikan berpengaruh secara simultan (bersama-sama) terhadap variable dependent (variable prestasi). Besar pengaruh tersebut dapat dilihat dari nilai R-squared dimana pada model diatas bernilai 0.839. Sehingga dapat disimpulkan variable independent signifikan berpengaruh terhadap variable dependent sebesar 83.9 %.

6 Plot Hasil Regresi Berganda

6.1 Plot Pengaruh Motivasi terhadap Variable Prestasi

plot(Data$`Motivasi (X1)`, Data$`Prestasi (Y)`, col = "dodgerblue")

6.2 Plot Pengaruh Variable Minat terhadap Variable Prestasi

plot(Data$`Minat (X2)`, Data$`Prestasi (Y)`, col = "red")

6.3 Plot Hasil Regresi Linear Berganda

plot(model)