Di masa majunya teknologi seperti saat ini, orang-orang cenderung mempercayai suatu hal apabila hal tersebut terbukti benar secara faktual dan based on data. Hal ini relevan dunia perguruan tinggi. Dimana para mahasiswa dituntut untuk menyatakan pendapatnya dan menganalisis sesuatu hal based on data yang dimiliki.
Begitu pula dengan Bu Acha, seorang dosen di suatu Universitas Neocity yang ingin mengetahui faktor-faktor yang mempengaruhi Nilai Mahasiswa di Universitas Neocity. Dengan mengetahui pengaruh faktor-faktor tersebut Bu Acha dapat memahami Mahasiswa nya dengan baik dan memberikan saran bagi Mahasiswa Neocity dan meningkatkan kualitas Pendidikan di Universitas Neocity itu sendiri.
Uji Penelitian ini bertujuan untuk menganalisis dan mengidentifikasi faktor yang mempengaruhi Nilai Mahasiswa Neocity. Dengan menggunakan metode analisis regresi linier sederhana, penelitian ini untuk mengevaluasi faktor paling mempengaruhi Nilai Mahasiswa. Adapun variabel yang digunakan dalam penelitian ini yaitu Nilai Mahasiswa dengan Uang Saku Mahasiswa.
Regresi merupakan pengukur hubungan dua variabel atau lebih yang dinyatakan dengan bentuk hubungan atau suatu fungsi. Untuk menentukan bentuk hubungan ketergantungan regresi tersebut maka diperlukan pemisah yang jelas antara variabel yang ditentukan dengan variabel yang menentukan. Kedua variabel tersebut biasanya bersifat kausal atau mempunyai hubungan sebab akibat yang saling berpengaruh. Dengan demikian, regresi merupakan bentuk fungsi antara variabel tak bebas Y dengan variabel bebas X atau dapat dinyatakan sebagai suatu fungsi Y = f(X). Bentuk regresi tergantung pada fungsi yang menunjangnya atau tergantung pada persamaannya.
Analisis regresi linier Sederhana adalah teknik dalam kehidupan statistika yang bisa digunakan untuk membentuk suatu model hubungan antara variabel dependen(Variabel respon) dengan satu atau lebih variabel independen(Variabel prediktor).
Regresi linier sederhana digunakan untuk mengetahui hubungan linier antara variabel independen dan variabel dependen. Metode yang biasa digunakan dalam menduga parameter regresi ini adalah Metode Kuadrat Terkecil (MKT) atau Ordinary Least Squares (OLS).
Regresi linier sederhana dapat digunakan dalam berbagai situasi, terutama ketika mendapatkan situasi :
Ada hanya satu variabel bebas: Regresi linier sederhana cocok digunakan ketika hanya ada satu variabel bebas yang mempengaruhi variabel terikat. Contohnya, analisis hubungan antara usia dan tekanan darah sistolik.
Mengidentifikasi hubungan linier: Regresi linier sederhana dapat digunakan untuk mengetahui apakah ada hubungan linier antara dua variabel. Dengan demikian, dapat diperoleh gambaran yang lebih jelas tentang bagaimana variabel-variabel tersebut saling berhubungan.
Prediksi nilai: Regresi linier sederhana dapat digunakan untuk memprediksi nilai variabel terikat berdasarkan nilai variabel bebas. Contohnya, jika ingin memprediksi tekanan darah sistolik berdasarkan usia, regresi linier sederhana dapat membantu dalam hal ini.
Analisis pengaruh: Regresi linier sederhana dapat digunakan untuk mengetahui berapa besar perubahan dari variabel bebas dapat mempengaruhi suatu variabel. Dengan demikian, dapat diperoleh informasi yang lebih rinci tentang bagaimana variabel-variabel tersebut saling berhubungan.
Tujuan dari analisis regresi linier adalah untuk mengetahui hubungan antar variabel, memprediksi nilai variabel dependen berdasarkan nilai variabel independen, dan menduga parameter regresi. Analisis Regresi Linier Sederhana ini sangat penting dan sering digunakan untuk berbagai bidang, seperti bisnis, biologi, perilaku, lingkungan dan sosial, serta machine learning untuk memecahkan suatu permasalahan yang cukup kompleks.
Dalam analisis regresi, suatu persamaan regresi hendak ditentukan dan digunakan untuk menggambarkan pola atau bentuk fungsi hubungan yang terdapat antar variabel. Persamaan umum garis regresi untuk regresi linear sederhana adalah :
\[ Y = \beta_0 + \beta_1X_1 + \beta_2X_2 + ... + \beta_nX_n \]
Keterangan :
\(Y\) = Variabel respon
\(Xi\) = Variabel prediktor
\(\beta_0\) = Intercept
\(\beta_i\) = Koefisien regresi variabel prediktor
Sebelum menganalisis regresi linier lebih lanjut, perlu dilakukan Uji normalitas terlebih dahulu untuk memastikan apakah data berdistribusi normal atau tidak. Jika data normal, maka digunakan statistik parametrik dan jika data tidak normal digunakan statistik nonparametrik. Pengujian ini diperlukan karena untuk melakukan uji t dan uji F mengasumsikan bahwa nilai residual mengikuti distribusi normal(Drapper dan Smith, 1992). Untuk pengujian normalitas Shapiro Wilk, pada pengujian ini dilakukan dengan uji normalitas Uji Shapiro Wilk Pedoman pengambilan keputusan untuk uji Shapiro Wilk adalah sebagai berikut:
Nilai signifikansi (p) < 0,005 maka disebut distribusi tidak normal.
Nilai signifikansi (p) > 0,05 maka disebut distribusi normal.
Berikut merupakan rumus dari uji normalitas Saphiro Wilk :
\[ T =\dfrac{1} {\Sigma_{i=1}^{n}(X_i-\bar{x})^2}[\Sigma_{i=1}^{k}a_i(X_{n-i_+1}-X_i) \]
Asumsi homoskedastisitas adalah salah satu asumsi yang harus dipenuhi dalam analisis regresi linear. Asumsi ini berarti bahwa varian dari residual pada suatu pengamatan ke pengamatan lainnya adalah sama. Jika varian residual sama, maka disebut homoskedastisitas, sedangkan jika varian residual berbeda, maka disebut heteroskedastisitas.
Homoskedastisitas dapat diuji menggunakan rumus berikut :
\[ \sigma^2 = \frac {\Sigma(y_i- ŷ_i)^2} {n-k-1} \]
Keterangan : \(\sigma^2\) = Varian residual yi = nilai variabel terikat ŷi = nilai prediksi n = jumlah pengamatan k = jumlah variabel bebas i = indeks pengamatan
Tujuan dari analisis ini adalah untuk memenuhi tugas laporan akhir praktikum mata kuliah Komputasi Statistika dan juga untuk mengetahui hubungan dari variabel Nilai Mahasiswa dan variabel Uang Saku.
Berikut merupakan contoh kasus Seorang dosen yang bernama Ibu Acha secara tidak sengaja mencari tahu hubungan antara Uang Saku dan Nilai mahasiswa. Dari pernyataan tersebut didapat variabel dependen (Y) sebagai Nilai Mahasiswa dan Variabel independen (X) adalah Uang Saku.
library(dplyr)
library(tidyr)
>
> Nilai <- c(100, 100, 100, 85, 100, 60, 70, 60, 100, 90, 100, 85, 100, 100, 90, 100, 85, 100, 100, 60, 60, 90, 85, 100, 60, 100, 700, 100, 100, 100, 60, 100, 100, 90)
> Uang_Saku <- c(2000, 3000, 3500, 2000, 1000, 4000, 5000, 10000, 4000, 4000, 4000, 10000, 8000, 2000, 3000, 9000, 8000, 2500, 5000, 5000, 5000, 5000, 5000, 5000, 5000, 2000, 1000, 1000, 4000, 5000, 5000, 3000, 3000, 2000)
> X = UapKom$X
Error in eval(expr, envir, enclos): object 'UapKom' not found
> Y = UapKom$Y
Error in eval(expr, envir, enclos): object 'UapKom' not found
> UapKom <- data.frame(X=Uang_Saku, Y=Nilai)
> UapKom
X Y
1 2000 100
2 3000 100
3 3500 100
4 2000 85
5 1000 100
6 4000 60
7 5000 70
8 10000 60
9 4000 100
10 4000 90
11 4000 100
12 10000 85
13 8000 100
14 2000 100
15 3000 90
16 9000 100
17 8000 85
18 2500 100
19 5000 100
20 5000 60
21 5000 60
22 5000 90
23 5000 85
24 5000 100
25 5000 60
26 2000 100
27 1000 700
28 1000 100
29 4000 100
30 5000 100
31 5000 60
32 3000 100
33 3000 100
34 2000 90
> head(Data,34)
Error in eval(expr, envir, enclos): object 'Data' not found
> library(knitr)
> kable(head(Data, 34),
+ caption = "Data Uap Komstat")
Error in eval(expr, envir, enclos): object 'Data' not found
>
> #Analisis Regresi
> mod_1 <- lm(Y~X, data=UapKom)
> summary(mod_1)
Call:
lm(formula = Y ~ X, data = UapKom)
Residuals:
Min 1Q Median 3Q Max
-50.96 -37.33 -23.24 -0.28 551.31
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 161.418929 36.663590 4.403 0.000112 ***
X -0.012728 0.007482 -1.701 0.098606 .
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 103 on 32 degrees of freedom
Multiple R-squared: 0.08294, Adjusted R-squared: 0.05428
F-statistic: 2.894 on 1 and 32 DF, p-value: 0.09861
> reg <- lm(Y~X, data= UapKom)
> summary(reg)
Call:
lm(formula = Y ~ X, data = UapKom)
Residuals:
Min 1Q Median 3Q Max
-50.96 -37.33 -23.24 -0.28 551.31
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 161.418929 36.663590 4.403 0.000112 ***
X -0.012728 0.007482 -1.701 0.098606 .
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 103 on 32 degrees of freedom
Multiple R-squared: 0.08294, Adjusted R-squared: 0.05428
F-statistic: 2.894 on 1 and 32 DF, p-value: 0.09861
>
> #Uji Koefisien Korelasi
> Data <- UapKom
> head(UapKom)
X Y
1 2000 100
2 3000 100
3 3500 100
4 2000 85
5 1000 100
6 4000 60
> shapiro.test(Data$X)
Shapiro-Wilk normality test
data: Data$X
W = 0.8931, p-value = 0.003029
> shapiro.test(Data$Y)
Shapiro-Wilk normality test
data: Data$Y
W = 0.26551, p-value = 6.877e-12
> kor <- cor.test(Data$X, Data$Y, method = "pearson")
> kor
Pearson's product-moment correlation
data: Data$X and Data$Y
t = -1.7012, df = 32, p-value = 0.09861
alternative hypothesis: true correlation is not equal to 0
95 percent confidence interval:
-0.57058731 0.05558925
sample estimates:
cor
-0.2879902
>
> #Uji Asumsi Normalitas
> library(tseries)
> sisaregresi <- residuals(reg)
> jarque.bera.test(sisaregresi)
Jarque Bera Test
data: sisaregresi
X-squared = 971.08, df = 2, p-value < 2.2e-16
> shapiro.test(sisaregresi)
Shapiro-Wilk normality test
data: sisaregresi
W = 0.39118, p-value = 9.485e-11
>
> #Uji Asumsi Homoskedastisitas
> library(lmtest)
> bptest(reg)
studentized Breusch-Pagan test
data: reg
BP = 2.0052, df = 1, p-value = 0.1568
>
> #Uji Asumsi NonAutokorelasi
> library(lmtest)
> dwtest(reg)
Durbin-Watson test
data: reg
DW = 2.1837, p-value = 0.6823
alternative hypothesis: true autocorrelation is greater than 0
> reg_rand <- lm(Y~X, data=UapKom)
> dwtest(reg_rand)
Durbin-Watson test
data: reg_rand
DW = 2.1837, p-value = 0.6823
alternative hypothesis: true autocorrelation is greater than 0
> summary(lm(Y~X, data=UapKom))
Call:
lm(formula = Y ~ X, data = UapKom)
Residuals:
Min 1Q Median 3Q Max
-50.96 -37.33 -23.24 -0.28 551.31
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 161.418929 36.663590 4.403 0.000112 ***
X -0.012728 0.007482 -1.701 0.098606 .
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 103 on 32 degrees of freedom
Multiple R-squared: 0.08294, Adjusted R-squared: 0.05428
F-statistic: 2.894 on 1 and 32 DF, p-value: 0.09861
> library(knitr)
> library(rmarkdown)
> library(prettydoc)
> library(equatiomatic)
> library(ggpubr)
> ggscatter(Data, x="X", y="Y", add = "reg.line", conf.int = TRUE, cor.coef = TRUE, cor.method = "pearson",xlab = "Uang Saku (Rp)", ylab = "Nilai")
> ggqqplot(Data$Y, ylab = "Nilai")
> ggqqplot(Data$X, xlab = "Uang_Saku")
Dari hasil analisis regresi tersebut, diperoleh nilai \(\beta_0\) = 95.877424 dan nilai \(\beta_1\)= -0.001700, sehingga persamaan regresinya adalah :
Y = 95.877424 – (0.001700)X
Y = Nilai
X = Uang Saku
Interpretasi :
Nilai intersep yang dihasilkan pada persamaan regresi adalah sebesar 95.877424 menunjukkan bahwa ketika Uang Saku bernilai 0(nol), maka diperkirakan variabel Nilai akan bernilai 95.877424.
Nilai Variabel X yang dihasilkan pada persamaan regresi adalah sebesar -0.001700 menunjukkan bahwa setiap peningkatan Uang Saku sebesar 1 akan mengurangi Nilai sebesar 0.001700.
H0 : \(\beta_0\) = \(\beta_1\) = 0 (Tidak terdapat pengaruh terhadap Y)
H1 : \(\beta_0\) ≠\(\beta_1\) ≠ 0 (Terdapat pengaruh terhadap Y)
P-Value untuk variabel Uang Saku sebesar 0.117, Terima H0 karena nilai P-value > dari \(\alpha\)(0.05), sehingga dapat disimpulkan bahwa Uang Saku tidak terdapat pengaruh terhadap variabel Y atau Nilai.
Hasil untuk uji F sebesar 0.1168, nilai dari P-value < \(\alpha\)(0.05)sehingga dapat disimpulkan bahwa variabel prediktor memengaruhi variabel respon secara signifikan.
Nilai Koefisien Determinasi sebesar 0.0462, artinya keragaman dari variabel respon yang dapat diterangkan oleh model regresi sebesar 4,62%.
H0 : Sisaan berdistribusi normal
H1 : Sisaan tidak berdistribusi normal
Keputusan : P-Value > \(\alpha\)(0.01), Terima H0 Kesimpulan : Untuk Uji Jarque bera dan shapiro wilk pada taraf nyata 1%, maka dapat dibuktikan bahwa tidak terdapat pelanggaran asumsi normalitas galat pada model tersebut.
H0 : Tidak terjadi heteroskedastisitas
H1 : Terjadi heteroskedastisitas
Keputusan : P-Value > \(\alpha\)(0.01), Terima H0 Kesimpulan:Dengan taraf nyata 1% sudah cukup bukti bahwa tidak terdapat pelanggaran asumsi homogenitas ragam galat pada model regresi tersebut.
H0 : \(\rho\) = 0
H1 : \(\rho\) ≠ 0
Keputusan : P-Value > α (0.01), Terima H0
Kesimpulan: Dengan taraf nyata 1% sudah cukup bukti bahwa tidak terdapat Autokorelasi pada model tersebut.
Kesimpulan yang didapatkan dari analisis regresi linear yang sudah dilakukan adalah bahwa tidak terdapat pengaruh yang signifikan antara Uang Saku dengan Nilai Mahasiswa di Universitas Neocity.