Penerapan Analisis Regresi Linier Berganda Dengan Asumsi Beserta Penanganan Pada Suatu Kasus Penelitian

Eka Dani Maulana

2023-06-01


1 PENDAHULUAN

1.1 Latar Belakang

Dalam melakukan penelitian, peneliti menggunakan data untuk menjawab hasil akhir dari penelitiaannya. Oleh karena itu, peranan ilmu statistika sangat penting dalam mengolah data untuk mendapatkan hasil penelitian yang sesuai dengan tujuan peneliti. Salah satu cabang ilmu statistika yang cukup sering digunakan oleh peneliti adalah analisis regresi karena pada umumnya peneliti ingin mengetahui faktor-faktor tertentu yang bepengaruh terhadap suatu hal atau kejadian. Analisis regresi adalah analisis statistika yang bertujuan untuk mengetahui pengaruh variabel independen terhadap variabel respon (Effendi, 2020). Akan tetapi, dalam melakukan analisis regresi linier memerlukan asumsi supaya hasil analisis regresi linier berganda mampu menjawab apakah variabel yang dianggap sebagai faktor mampu mempengaruhi variabel yang dianggap sebagai respon dari suatu faktor tersebut dapat diakui kebenarannya secara statistika.

Ketika melakukan analisis data dengan metode regresi, seringkali peneliti menggunakan alat bantu berupa software. Saat ini, software statistika yang digunakan untuk melakukan analisis regresi sudah sangat banyak dan juga bisa melakukan jenis analisis apapun selain regresi dengan mudah dan cepat, namun software statistika yang mudah, lengkap dan cepat sebagian besar masih berbayar. Meskipun demikian, masih ada software yang lengkap tapi gratis, salah satunya adalah R-Studio. R-Studio merupakan software statistika yang dapat diakses oleh siapapun dan juga dapat dikembangkan oleh siapapun. Akan tetapi, software ini memang tidak banyak digunakan oleh peneliti karena menggunakan bahasa pemrograman dalam melakukan analisis data yang dimana cukup sulit. Oleh karena itu, diperlukan tata cara untuk melakukan analisis data salah satunya analisis regresi linier berganda dengan asumsi dan juga penanganannya menggunakan software R-Studio.

2 TINJAUAN PUSTAKA

2.1 Analisis Regresi Linier Berganda

Analisis Regresi linier berganda merupakan analisis statistka dengan model persamaan yang menjelaskan hubungan satu variabel tak bebas atau response (Y) dengan dua atau lebih variabel bebas/ predictor (X1, X2,…Xn). Tujuan dari uji regresi linier berganda adalah untuk memprediksi nilai variabel tak bebas atau response (Y) apabila nilai-nilai variabel bebasnya/ predictor (X1, X2,…, Xn) diketahui. Disamping itu juga untuk dapat mengetahui bagaimanakah arah hubungan variabel tak bebas dengan variabel - variabel bebasnya. Bentuk umum model regresi linier ganda dengan k variabel independen. \[ Y ={β_0+β_1 X_2+β_2 X_2+⋯+ β_i X_i+ε} \] Di mana Y adalah variabel dependen, \(X_1, X_2, ..., X_k\) adalah variabel-variabel independen,  adalah galat acak (random error), dan \(β_0, β_1, ..., β_k\) adalah parameter-parameter populasi yang nilainya tidak diketahui. Variabel independen \(X_1, X_2, ..., X_k\) dianggap bukan variabel acak dan dapat diobservasi dengan kekeliruan yang dapat diabaikan. Sebagaimana pada model regresi linier sederhana, jika telah dimiliki sampel berukuran n, maka galat-galat acak \(ε_1, ε_2, ..., ε_n\) akan diasumsikan semuanya mempunyai mean 0, variansi konstan \(σ^2\) , saling independen atau tidak berkorelasi dan berdistribusi normal. Hal ini berakibat bahwa mean dari variabel dependen: \[ E(Y)=β_0+β_1 X_2+β_2 X_2+⋯+ β_i X_i \] Dalam model regresi linier ganda, jika \(X_1,X_2,...,X_K\) merupakan variabel-variabel kuantitatif yang saling independen, maka model tersebut dinamakan model regresi linier ganda order satu (first-order model). Untuk selanjutnya istilah ‟regresi linier ganda order satu‟ cukup akan kita sebut sebagai ‟regresi linier ganda‟, kecuali jika perlu penegasan. Secara umum di antara variabel-variabel \(X_1, X_2, ..., X_k\) boleh merupakan fungsi dari variabel-variabel yang lain, tetapi tidak boleh memuat parameter.

2.2 Pendugaan Parameter Metode Kuadrat Terkecil pada Model Regresi Linier Berganda

Menurut efendi, dkk (2020), Metode Kuadrat Terkecil atau biasa disingkat MKT pada Model Regresi Linier Berganda adalah metode yang memanfaatkan Turunan Parsial pada \(SS_E\) atau \(∑ε_i^2\) yang diturunkan terhadap parameter-parameter yang ada pada model regresinya \((β_0, β_1,…, β_k)\). Kemudian, perbedaan antara Metode Kuadrat Terkecil untuk Regresi Linier Berganda dan Regresi Linier Sederhana selain pada jumlah Parameternya ialah pada kesukaran persamaan-persamaan yang didapatkan dari Turunan Parsial \(SS_E\), sehingga Model Regresi Linier Berganda lebih banyak penerapan Penaksiran Parameter regresi dengan Matriks. \[β ̂= (X'X)^{-1}*y\]

Sehingga didapatkan Persamaan regresi berikut:

\[y_i= β_0+ β_1 x_1+ β_2 x_2 + … + β_k x_k + ε_i\]

sumber: Draper & Smith (1998)

2.3 Asumsi Yang Melandasi Analisis Regresi Linier Berganda

2.3.1 Asumsi Normalitas Galat (Uji Lilliefors)

Menurut Nasrum, 2008, pada dasarnya, Uji Lilliefors yang umum dikenal untuk uji normalitas sebenarnya adalah variasi dari uji Kolmogorov Smirnov karena menggunakan statistik Kolmogorov Smirnov yang sama yaitu statistik \(D\). Uji Lilliefors ditemukan oleh Hubert Whitman Lilliefors tahun 1967, seorang Profesor Statistik di Universitas George Washington yang menekankan bahwa validitas tabel Kolmogorov Smirnov yang digunakan untuk uji normalitas bergantung pada asumsi bahwa data yang diamati benar-benar mengikuti distribusi kontinu. Namun, ketika satu atau lebih parameter harus diestimasi dari sampel, tabel tersebut menjadi tidak valid. dalam tulisannya yang berjudul “On The Kolmogorov Smirnov Test for Normality With Mean and Variance Unknown

Perbedaan utama antara uji kolmogorov smirnov dengan uji Lilliefors terletak pada pemilihan tabel pembanding untuk menarik kesimpulan.Kolmogorov menggunakan Lampiran 3 sebagai tabel pembanding, sedangkan Lilliefors menggunakan Lampiran 2. Untuk ukuran sampel tertentu (N), nilai kritis DL (ditemukan dalam Lampiran) ditentukan untuk setiap tingkat signifikansi yang dipilih. Nilai-nilai ini diperoleh melalui simulasi Monte Carlo. Uji Lilliefors lebih sensitif dalam mendeteksi penyimpangan terhadap distribusi normal daripada uji Kolmogorof Smirnov.Oleh karena itu, ketika melakukan uji normalitas Kolmogorov-Smirnov perlu dibandingkan dengan uji normalitas Lilliefors sebagai koreksi. (Nasrum, 2018).

2.3.2 Asumsi Multikolinieritas

Multikolinearitas dalam suatu model regresi dapat diketahui dengan menghitung nilai Variance Inflation Factor (VIF). VIF adalah suatu faktor yang mengukur seberapa besar kenaikan ragam dari koefisien penduga regresi dibandingkan terhadap variabel bebas yang orthogonal jika dihubungkan secara linear. Nilai VIF akan semakin besar jika terdapat korelasi yang semakin besar diantara variabel bebas. Nilai VIF > 10 dapat digunakan sebagai petunjuk adanya multikolinearitas. Gejala multikolinearitas menimbulkan masalah dalam model regresi. Korelasi antar variabel bebas yang sangat tinggi menghasilkan penduga model regresi yang bias, tidak stabil, dan mungkin jauh dari nilai prediksinya (Hojjat, 2010). \[ VIF_j=\frac 1{1-R_J^2},j=1,2,3,…,k \]

2.3.3 Asumsi Heteroskedastisitas (Uji Breusch Pagan)

Uji Breusch Pagan Godfrey, dalam hal ini adalah uji yang akan saya gunakan pada penelitian ini. Keterbatasan Uji Goldfeld Quandt dapat dihindari dengan Uji Breusch Pagan Godfrey (BPG). Keberhasilan uji Goldfeld Quandt tidak hanya tergantung dari nilai c tetapi juga mengidentifikasi variabel X yang mana yang akan di ranking secara benar. Misalkan terdapat model regresi linear dengan n-variabel independen: \[Y_i= ∝+β_1 X_1i+β_2 X_2i+⋯+β_n X_ni+ε_i\] Diasumsikan galat variansi σ_i^2 adalah sebagai berikut: \[σ_i^2=f(∝_i+∝_2 Z_2i+⋯+∝_m Z_mi)\] \[σ_i^2= ∝_i+∝_2 Z_2i+⋯+∝_m Z_mi\] \(σ_i^2\) merupakan fungsi linear dari Z jika \(a_2=a_3=⋯=a_m=0\), maka \(σ_i^2=a_i\) yang merupakan konstanta. Jadi, untuk menguji apakah σ_i^2 homoskedastisitas, maka kita menguji hipotesis bahwa \(a_2=a_3=⋯=a_m=0\). (Siska, 2017).

2.3.4 Asumsi Linieritas (Uji Ramsey)

Salah satu uji untuk mengetahui linear atau nonlinear suatu data deret waktu dapat menggunakan uji Ramsey RESET yang pertama kali diperkenalkan oleh Ramsey. Jika terdapat variabel bebas Xt dan variabel prediktor Yt, prosedur uji Ramsey RESET dapat dijelaskan. Uji Ramsey Test ini dikembangkan oleh Ramsey (1969), (Purnama, 2020). Tujuan dari uji liniertitas Ramsey adalah untuk mengevaluasi apakah hubungan antara variabel dependen dan variabel independen dalam model regresi linier memiliki bentuk yang benar atau apakah ada hubungan non-linier yang mungkin perlu ditangkap dalam model. Ini dapat dilakukan dengan memeriksa apakah menambahkan kuadrat dan interaksi dari variabel independen dapat memperbaiki model secara signifikan.

Salah satu bentuk umum dari uji liniertitas Ramsey adalah uji RESET (Regression Specification Error Test), yang memeriksa apakah penambahan kuadrat atau interaksi dari variabel independen yang sudah ada dalam model dapat meningkatkan signifikansi secara statistik. Uji ini dapat membantu dalam mengevaluasi asumsi linieritas dan memperbaiki spesifikasi model regresi linier jika diperlukan.

2.4 Pengujian Parameter Regresi Secara Simultan

Simultan merupakan sesuatu yang terjadi atau dilakukan pada waktu yang bersamaan yang tidak saling menunggu ( Sentana , 2006 ). Simultan adalah pengaruh yang ditimbulkan oleh variabel-variabel bebas jika digabungkan terhadap variabel terikat. Dalam istilah statistik pengaruh simultan sendiri digambarkan dengan uji F.

Uji F bertujuan untuk mencari apakah variabel independen secara bersama – sama (stimultan) mempengaruhi variabel dependen. Uji F dilakukan untuk melihat pengaruh dari seluruh variabel bebas secara bersama-sama terhadap variabel terikat. Tingakatan yang digunakan adalah sebesar 0.5 atau 5%, jika nilai signifikan F < 0.05 maka dapat diartikan bahwa variabel independent secara simultan mempengaruhi variabel dependen ataupun sebaliknya (Ghozali, 2016). Uji simultan F (Uji Simultan) digunakan untuk mengetahui ada atau tidaknya pengaruh secara bersama – sama atau simultan antara variabel independen terhadap variabel dependen. Pengujian statistik Anova merupakan bentuk pengujian hipotesis dimana dapat menarik kesimpulan berdasarkan data atau kelompok statistik yang disimpulkan. Pengambilan keputusan dilihat dari pengujian ini dilakukan dengan melihat nilai F yang terdapat di dalam tabel ANOVA, tingkat signifikansi yang digunakan yaitu sebesar 0,05. Adapun ketentuan dari uji F yaitu sebagai berikut (Ghozali, 2016) : 1. Jika nilai signifikan F < 0,05 maka H0 ditolak dan H1 diterima. Artinya semua variabel independent atau bebas memiliki pengaruh secara signifikan terhadap variabel dependen atau terikat. 2. Jika nilai signifikan F > 0,05 maka H0 diterima. Artinya, semua variabel independent atau bebas tidak memiliki pengaruh secara signifikan terhadap variabel dependen atau terikat.

2.5 Pengujian Parameter Regresi Secara Parsial

Uji parsial sering disebut juga Uji t, yaitu menguji apakah hipotesis yang digunakan untuk diambil keputusannya antara diterima atau ditolak dengan tingkat signifikan yang telah ditentukan. Uji parsial digunakan untuk menguji setiap variable bebas mempunyai pengaruh yang signifikan terhadap variabel terikat secara parsial (Pane, 2018). Untuk mengetahui hipotesis diterima atau ditolak, Uji parsial (Uji t) yang kita hitung akan dibandingkan dengan titik kritis t atau t tabel. a. Jika t hitung < t tabel, maka H0 diterima b. Jika t hitung > t tabel, maka H0 ditolak Kriteria pengujian pada hipotesis uji parsial sebagai berikut : H_0 : β_i = 0, artinya variabel bebas yang tidak mempengaruhi variabel terikatnya. H_1 : β_i ≠ 0. Artinya variabel bebas mempengaruhi variabel terikatnya.

2.6 Koefisien Determinasi

Koefisien Determinasi (R-Squared) adalah uji untuk menjelaskan besaran proporsi variasi dari variabel dependen yang dijelaskan oleh variabel independen. Uji koefisien determinasi juga bisa digunakan untuk mengukur seberapa baik garis regresi yang kita miliki. Apabila nilai koefisien determinasi (R-squared) pada suatu estimasi mendekati angka satu, maka dapat dikatakan bahwa variabel dependen dijelaskan dengan baik oleh variabel independennya. (raharjo, 2019)

Rumus Koefisien Determinasi (R^2) \[R^2 = 1 – (SS_E)/(SS_T)\] \[R^2 = 1 – \frac{(∑Yi-Ŷi)}{∑(Yi-Y̅)}\]

Keterangan : Yi = Observasi respon ke-i Ŷ = Ramalan respon ke-i Y̅= Rata-rata

3 Source Code

3.1 Impor Data Ke R-Studio

Data yang digunakan pada penerapan analisis regresi linier berganda adalah data pada penelitian yang bertujuan untuk mengetahui pengaruh Ekspektasi Pendapatan, Karakter Individu, dan Pendidikan Wirausaha terhadap minat berwirausaha.

> #Impor Data dan Pendefinisian Variabel
> library(readxl)
> Data_Komstat <- read_excel("~/KOMSTAT/Data Komstat.xlsx")
> View(Data_Komstat)
> x1 <- Data_Komstat$`Ekspektasi Pendapatan`
> x2 <- Data_Komstat$`Karakter Individu`
> x3 <- Data_Komstat$`Pendidikan Wirausaha`
> y <- Data_Komstat$`Minat Wirausaha`
> data.frame(x1,x2,x3,y)
   x1 x2 x3  y
1  24 16 34 23
2  24 16 30 22
3  24 16 27 24
4  25 17 37 32
5  24 16 31 27
6  22 14 31 24
7  21 15 29 23
8  22 16 32 23
9  24 18 33 24
10 13 18 33 30
11 27 17 30 21
12 16 17 37 24
13 26 17 31 23
14 22 18 30 24
15 22 15 32 22
16 21 16 33 24
17 23 21 40 31
18 22 15 34 24
19 20 18 29 24
20 22 19 40 31
21 24 16 30 25
22 24 16 33 27
23 23 19 28 25
24 15 15 28 30
25 28 15 30 26
26 17 20 31 24
27 21 18 31 25
28 19 14 31 22
29 23 19 29 29
30 22 18 29 24
31 17 17 32 23
32 18 16 31 23
33 15 14 33 22
34 17 15 35 23
35 16 16 35 22
36 16 16 32 24
37 21 20 35 30
38 15 16 30 23
39 18 14 32 24
40 17 16 32 23
41 17 15 30 22
42 21 16 31 30
43 16 16 31 21
44 18 16 34 23
45 21 20 33 27
46 19 17 33 25
47 17 13 32 16
48 15 12 26 16
49 15 17 32 19
50 15 15 27 21
51 21 15 38 29
52 18 15 30 23
53 16 17 27 24
54 15 14 36 23
55 17 13 31 22
56 18 14 28 20
57 17 15 32 23
58 19 16 27 22
59 18 19 38 26
60 19 19 34 23
61 18 17 37 23
62 19 18 29 24
63 18 16 26 23
64 16 17 34 22
65 15 16 25 23
66 16 17 30 24
67 18 18 30 25
68 18 18 32 25
69 22 16 31 30
70 15 17 34 22
71 19 16 31 24
72 17 16 33 24
73 17 13 33 26
74 15 19 34 25
75 16 16 30 23
76 16 18 34 26
77 17 18 35 28
78 18 15 34 24

Sumber data: (Nugraha, 2018)

3.2 Pembuatan Model Regresi

> #Pembuatan Model Regresi, Uji Simultan, dan Uji Parsial
> reg <- lm(y~x1+x2+x3)
> reg

Call:
lm(formula = y ~ x1 + x2 + x3)

Coefficients:
(Intercept)           x1           x2           x3  
     1.3034       0.2099       0.6186       0.2753  

3.3 Pengujian Asumsi Regresi

3.3.1 Uji Asumsi Multikolinieritas (VIF)

> library(car)
> vif(reg)
      x1       x2       x3 
1.036108 1.119627 1.082088 

3.3.2 Uji Asumsi Normalitas Galat (Lilliefors)

> ##Uji Normalitas Galat Lilliefors
> galat <- residuals(reg)
> library(nortest)
> lillie.test(galat)

    Lilliefors (Kolmogorov-Smirnov) normality test

data:  galat
D = 0.13977, p-value = 0.0006805

3.4 Penanganan Pelanggaran Asumsi Normalitas Galat

3.4.1 Uji Normalitas Masing-masing Variabel

> #Uji Normalitas Varibel dan Histogram
> library(ggpubr)
> library(nortest)
> lillie.test(y)

    Lilliefors (Kolmogorov-Smirnov) normality test

data:  y
D = 0.20982, p-value = 4.235e-09
> lillie.test(x1)

    Lilliefors (Kolmogorov-Smirnov) normality test

data:  x1
D = 0.16883, p-value = 9.246e-06
> lillie.test(x2)

    Lilliefors (Kolmogorov-Smirnov) normality test

data:  x2
D = 0.16718, p-value = 1.212e-05
> lillie.test(x3)

    Lilliefors (Kolmogorov-Smirnov) normality test

data:  x3
D = 0.092292, p-value = 0.09727

3.4.2 Histogram Masing-Masing Variabel

> library(ggpubr)
> hist(y)

> hist(x1)

> hist(x2)

> hist(x3)

3.4.3 Transformasi Data

> #Transformasi Data
> y_trans <- 1/(y)
> x1_trans <- log10(x1)
> x2_trans <- sqrt(x2)
> x3_trans <- sqrt(x3)
> data.frame(x1_trans,x2_trans,x3_trans,y_trans)
   x1_trans x2_trans x3_trans    y_trans
1  1.380211 4.000000 5.830952 0.04347826
2  1.380211 4.000000 5.477226 0.04545455
3  1.380211 4.000000 5.196152 0.04166667
4  1.397940 4.123106 6.082763 0.03125000
5  1.380211 4.000000 5.567764 0.03703704
6  1.342423 3.741657 5.567764 0.04166667
7  1.322219 3.872983 5.385165 0.04347826
8  1.342423 4.000000 5.656854 0.04347826
9  1.380211 4.242641 5.744563 0.04166667
10 1.113943 4.242641 5.744563 0.03333333
11 1.431364 4.123106 5.477226 0.04761905
12 1.204120 4.123106 6.082763 0.04166667
13 1.414973 4.123106 5.567764 0.04347826
14 1.342423 4.242641 5.477226 0.04166667
15 1.342423 3.872983 5.656854 0.04545455
16 1.322219 4.000000 5.744563 0.04166667
17 1.361728 4.582576 6.324555 0.03225806
18 1.342423 3.872983 5.830952 0.04166667
19 1.301030 4.242641 5.385165 0.04166667
20 1.342423 4.358899 6.324555 0.03225806
21 1.380211 4.000000 5.477226 0.04000000
22 1.380211 4.000000 5.744563 0.03703704
23 1.361728 4.358899 5.291503 0.04000000
24 1.176091 3.872983 5.291503 0.03333333
25 1.447158 3.872983 5.477226 0.03846154
26 1.230449 4.472136 5.567764 0.04166667
27 1.322219 4.242641 5.567764 0.04000000
28 1.278754 3.741657 5.567764 0.04545455
29 1.361728 4.358899 5.385165 0.03448276
30 1.342423 4.242641 5.385165 0.04166667
31 1.230449 4.123106 5.656854 0.04347826
32 1.255273 4.000000 5.567764 0.04347826
33 1.176091 3.741657 5.744563 0.04545455
34 1.230449 3.872983 5.916080 0.04347826
35 1.204120 4.000000 5.916080 0.04545455
36 1.204120 4.000000 5.656854 0.04166667
37 1.322219 4.472136 5.916080 0.03333333
38 1.176091 4.000000 5.477226 0.04347826
39 1.255273 3.741657 5.656854 0.04166667
40 1.230449 4.000000 5.656854 0.04347826
41 1.230449 3.872983 5.477226 0.04545455
42 1.322219 4.000000 5.567764 0.03333333
43 1.204120 4.000000 5.567764 0.04761905
44 1.255273 4.000000 5.830952 0.04347826
45 1.322219 4.472136 5.744563 0.03703704
46 1.278754 4.123106 5.744563 0.04000000
47 1.230449 3.605551 5.656854 0.06250000
48 1.176091 3.464102 5.099020 0.06250000
49 1.176091 4.123106 5.656854 0.05263158
50 1.176091 3.872983 5.196152 0.04761905
51 1.322219 3.872983 6.164414 0.03448276
52 1.255273 3.872983 5.477226 0.04347826
53 1.204120 4.123106 5.196152 0.04166667
54 1.176091 3.741657 6.000000 0.04347826
55 1.230449 3.605551 5.567764 0.04545455
56 1.255273 3.741657 5.291503 0.05000000
57 1.230449 3.872983 5.656854 0.04347826
58 1.278754 4.000000 5.196152 0.04545455
59 1.255273 4.358899 6.164414 0.03846154
60 1.278754 4.358899 5.830952 0.04347826
61 1.255273 4.123106 6.082763 0.04347826
62 1.278754 4.242641 5.385165 0.04166667
63 1.255273 4.000000 5.099020 0.04347826
64 1.204120 4.123106 5.830952 0.04545455
65 1.176091 4.000000 5.000000 0.04347826
66 1.204120 4.123106 5.477226 0.04166667
67 1.255273 4.242641 5.477226 0.04000000
68 1.255273 4.242641 5.656854 0.04000000
69 1.342423 4.000000 5.567764 0.03333333
70 1.176091 4.123106 5.830952 0.04545455
71 1.278754 4.000000 5.567764 0.04166667
72 1.230449 4.000000 5.744563 0.04166667
73 1.230449 3.605551 5.744563 0.03846154
74 1.176091 4.358899 5.830952 0.04000000
75 1.204120 4.000000 5.477226 0.04347826
76 1.204120 4.242641 5.830952 0.03846154
77 1.230449 4.242641 5.916080 0.03571429
78 1.255273 3.872983 5.830952 0.04166667

3.5 Pembentukan Model Regresi Baru

> reg_tr <- lm(y_trans~x1_trans+x2_trans+x3_trans)
> reg_tr

Call:
lm(formula = y_trans ~ x1_trans + x2_trans + x3_trans)

Coefficients:
(Intercept)     x1_trans     x2_trans     x3_trans  
   0.129874    -0.016271    -0.009963    -0.004775  

3.6 Pengujian Asumsi Regresi Pada Data Baru

3.6.1 Uji Asumsi Multikolinieritas (VIF)

> library(car)
> vif(reg_tr)
x1_trans x2_trans x3_trans 
1.038936 1.116153 1.076061 

3.6.2 Uji Asumsi Normalitas Galat (Lilliefors)

> galat_tr <- residuals(reg_tr)
> library(nortest)
> lillie.test(galat_tr)

    Lilliefors (Kolmogorov-Smirnov) normality test

data:  galat_tr
D = 0.099624, p-value = 0.0534

3.6.3 Uji Asumsi Homoskedastisitas (Breusch Pagan)

> library(lmtest)
> bptest(reg_tr)

    studentized Breusch-Pagan test

data:  reg_tr
BP = 7.1647, df = 3, p-value = 0.06683

3.6.4 Uji Asumsi Linieritas (Ramsey)

> library(lmtest)
> reset(reg_tr)

    RESET test

data:  reg_tr
RESET = 3.4827, df1 = 2, df2 = 72, p-value = 0.03599

3.7 Pengujian Signifikansi Parameter Regresi (Uji Simultan, Uji Parsial dan Koefisien Determinasi)

> summary(reg_tr)

Call:
lm(formula = y_trans ~ x1_trans + x2_trans + x3_trans)

Residuals:
       Min         1Q     Median         3Q        Max 
-0.0135485 -0.0017639  0.0001606  0.0018399  0.0155828 

Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept)  0.129874   0.014088   9.219 6.43e-14 ***
x1_trans    -0.016271   0.006770  -2.403   0.0187 *  
x2_trans    -0.009963   0.002378  -4.189 7.65e-05 ***
x3_trans    -0.004775   0.001897  -2.518   0.0140 *  
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 0.004389 on 74 degrees of freedom
Multiple R-squared:  0.3687,    Adjusted R-squared:  0.3431 
F-statistic: 14.41 on 3 and 74 DF,  p-value: 1.749e-07

4 HASIL DAN PEMBAHASAN

4.1 Pembentukan Model Regresi

Berdasarkan Output pada pembentukan model regresi duga diperoleh: \[y = 1.3034+0.2099X_1+0.6186X_2+0.2753X_3+e\]

4.2 Pengujian Asumsi Regresi

4.2.1 Uji Multikolinieritas (VIF)

> library(knitr)
> kable(vif(reg),col.names="VIF")
VIF
x1 1.036108
x2 1.119627
x3 1.082088

Interpretasi Hasil Pada pemeriksaan multikolinieritas nilai VIF pada seluruh variabel bernilai kurang dari 10 sehingga dapat disimpulkan bahwa tidak terdapat gejala multikolinieritas.

4.2.2 Uji Normalitas Galat (Lilliefors)

  • Hipotesis:

  • \(H_0\) : Residual berdistribusi normal

  • \(H_1\) : Residual tidak berdistribusi normal

  • Taraf Nyata: 0.05

  • Hasil Pengujian R-Studio: \[nilai-p = 0.0006805\]

  • Interpretasi: Berdasarkan hasil pengujian pada source code diperoleh nilai-p sebesar 0.0006805 sehingga diputuskan \(H_0\) ditolak, sehingga dapat disimpulkan bahwa residual tidak berdistribusi normal. Dengan demikian, asumsi normalitas galat tidak terpenuhi

4.3 Penanganan Pelanggaran Asumsi Normalitas

4.3.1 Uji Normalitas Variabel Y

  • Hipotesis:

  • \(H_0\) : Variabel Y berdistribusi normal

  • \(H_1\) : Variabel Y tidak berdistribusi normal

  • Taraf Nyata: 0.05

  • Hasil Pengujian R-Studio: \[nilai-p = 4.35e-09\]

  • Interpretasi: Berdasarkan hasil pengujian pada source code diperoleh nilai-p sebesar 4.235e-09 sehingga diputuskan \(H_0\) ditolak. Dengan demikian, dapat disimpulkan bahwa variabel Y tidak berdistribusi normal.

4.3.2 Uji Normalitas Variabel X1

  • Hipotesis:

  • \(H_0\) : Variabel X1 berdistribusi normal

  • \(H_1\) : Variabel X1 tidak berdistribusi normal

  • Taraf Nyata: 0.05

  • Hasil Pengujian R-Studio: \[nilai-p = 9.246e-06\]

  • Interpretasi: Berdasarkan hasil pengujian pada source code diperoleh nilai-p sebesar 9.246e-06 sehingga diputuskan \(H_0\) ditolak. Dengan demikian, dapat disimpulkan bahwa variabel X1 tidak berdistribusi normal.

4.3.3 Uji Normalitas Variabel X2

  • Hipotesis:

  • \(H_0\) : Variabel X2 berdistribusi normal

  • \(H_1\) : Variabel X2 tidak berdistribusi normal

  • Taraf Nyata: 0.05

  • Hasil Pengujian R-Studio: \[nilai-p = 1.212e-05\]

  • Interpretasi: Berdasarkan hasil pengujian pada source code diperoleh nilai-p sebesar 1.212e-05 sehingga diputuskan \(H_0\) ditolak. Dengan demikian, dapat disimpulkan bahwa variabel X2 tidak berdistribusi normal.

4.3.4 Uji Normalitas Variabel X3

  • Hipotesis:

  • \(H_0\) : Variabel X3 berdistribusi normal

  • \(H_1\) : Variabel X3 tidak berdistribusi normal

  • Taraf Nyata: 0.05

  • Hasil Pengujian R-Studio: \[nilai-p = 0.09727\]

  • Interpretasi: Berdasarkan hasil pengujian pada source code diperoleh nilai-p sebesar 0.09727 sehingga diputuskan \(H_0\) ditolak. Dengan demikian, dapat disimpulkan bahwa variabel X3 berdistribusi normal.

4.3.5 Transformasi Data

4.3.5.1 Variabel Y:

Histogram

> library(ggpubr)
> hist(y)

* Penjelasan: Berdasarkan histogram, terlihat bahwa variabel y merupakan jenis kemiringan kurva normal yang bernama Moderate Positive Skewness dengan metode transformasi \(\sqrt{x}\). Akan tetapi, ketika dicoba dibentuk model regresi yang baru dan diuji normalitas galatnya masih tidak normal, sehingga ditransformasi dengan cara lain yaitu Several Positive Skewness karena bentuk grafiknya juga ada kemiripan dengan jenis tersebut. Metode transformasi data yang digunaka adalah \(\frac{1}{x}\) dengan x adalah data dan hasil tersebut mampu menghasilkan galat pada model regresi baru yang beridistribusi normal. Untuk hasilnya terdapat di pembahasan selanjutnya yaitu uji normalitas galat pada model regresi hasil transformasi.

4.3.5.2 Variabel X1:

Histogram Variabel X1

> library(ggpubr)
> hist(x1)

* Penjelasan: Berdasarkan histogram, terlihat bahwa variabel x2 merupakan jenis kemiringan kurva normal yang bernama Substansial Positive Skewness sehingga ditransformasi dengan cara \(log10(x)\) pada datanya.

4.3.5.3 Variabel X2:

Histogram Variabel X2

> library(ggpubr)
> hist(x2)

* Penjelasan: Berdasarkan histogram, terlihat bahwa variabel x2 merupakan jenis kemiringan kurva normal yang bernama Moderate Positive Skewness sehingga ditransformasi dengan cara \(\sqrt{x}\) pada datanya.

4.3.5.4 Variabel X3

Histogram Variabel X3

> library(ggpubr)
> hist(x3)

* Penjelasan: Berdasarkan histogram, terlihat bahwa variabel y hampir mendekati sebaran normal dan juga berdasarkan hasil uji normalitas sudah cukup bukti bahwa variabel y berdistribusi normal. Akan tetapi, pada saat dicoba uji normalitas galat dengan persamaan regresi menggunakan data baru, sehingga x3 perlu dilakukan transformasi. Pada sebelumnya memang benar bahwa grafik histogram untuk variabel x3 hampir mendekati sebaran normal tapi masih ada kemiringan kurva sedikit dengan jenis kemiringan kurva normal yang bernama Moderate Positive Skewness sehingga ditransformasi dengan cara \(\sqrt{x}\) pada datanya.

4.4 Pembentukan Model Regresi Baru Dengan Data Yang Telah Ditransformasi

Berdasarkan Output pada pembentukan model regresi duga dengan data yang telah ditransformasi diperoleh: \[y = 0.129874-0.016271X_1 -0.009963X_2 -0.004775 X_3+e\]

4.5 Pengujian Asumsi Regresi Pada Data Baru

4.5.1 Uji Multikolinieritas (VIF)

> library(knitr)
> library(car)
> kable(vif(reg_tr),col.names="VIF")
VIF
x1_trans 1.038936
x2_trans 1.116153
x3_trans 1.076061

Interpretasi Hasil Pada pemeriksaan multikolinieritas nilai VIF pada seluruh variabel bernilai kurang dari 10 sehingga dapat disimpulkan bahwa tidak terdapat gejala multikolinieritas.

4.5.2 Uji Normalitas Galat (Lilliefors)

  • Hipotesis:

  • \(H_0\) : Residual berdistribusi normal

  • \(H_1\) : Residual tidak berdistribusi normal

  • Taraf Nyata: 0.05

  • Hasil Pengujian R-Studio: \[nilai-p = 0.0534\]

  • Interpretasi: Berdasarkan hasil pengujian pada source code diperoleh nilai-p sebesar 0.0534 sehingga diputuskan \(H_0\) diterima, sehingga dengan taraf nyata 0.05 sudah cukup bukti bahwa residual berdistribusi normal.

4.5.3 Uji Homoskedastisitas (Breusch Pagan)

  • Hipotesis:
  • \(H_0\) : Tidak terjadi Heteroskedastisitas
  • \(H_1\) : Terjadi Heteroskedastisitas
  • Taraf Nyata: 0.05
  • Hasil Pengujian R-Studio: \[nilai-p = 0.06683\]
  • Interpretasi: Berdasarkan hasil pengujian pada source code diperoleh nilai-p sebesar 0.06683 sehingga diputuskan \(H_0\) diterima, sehingga dengan taraf nyata 0.05 sudah cukup bukti bahwa tidak terjadi heteroskedastisitas.

4.5.4 Uji Linieritas (Ramsey)

  • Hipotesis:
  • \(H_0\) : Variabel X1, X2 dan X3 memiliki hubungan yang tidak linier terhadap variabel Y
  • \(H_1\) : Variabel X1, X2 dan X3 memiliki hubungan yang linier terhadap variabel Y
  • Taraf Nyata: 0.05
  • Hasil Pengujian R-Studio: \[nilai-p = 0.03599\]
  • Interpretasi: Berdasarkan hasil pengujian pada source code diperoleh nilai-p sebesar 0.03599 sehingga diputuskan \(H_0\) ditolak, sehingga dengan taraf nyata 0.05 sudah cukup bukti bahwa variabel X1, X2, dan X3 memiliki hubungan yang linier terhadap variabel y.

4.6 Interpretasi Model Regresi

Setelah dilakukan pengujian asumsi dan semuanya terpenuhi, maka persamaan regresi yang terbentuk dan layak digunakan adalah: \[y = 0.129874-0.016271X_1-0.009963X_2-0.004775 X_3\] Interpretasi Model Regresi: * \(b_0 = 0.129874\): nilai tersebut memiliki arti bahwa jika variabel X1 (Ekspektasi Pendapatan), variabel X2 (Karakter Individu) dan variabel X3 (Pendidikan Wirausaha) bernilai nol atau tidak mengalami kenaikan maka variabel Y (Minat Wirausaha) bernilai 0.129874. * \(b_1 = -0.01627\): nilai tersebut memiliki arti bahwa setiap kenaikan variabel X1 (Ekspektasi Pendapatan) dan variabel X2 dan X3 bernilai nol atau konstan, maka nilai variabel Y (Minat Wirausaha) akan menurun sebesar 0.01627. * \(b_2 = -0.009963\): nilai tersebut memiliki arti bahwa setiap kenaikan variabel X2 (Karakter Individu) dan variabel X1 dan X3 bernilai nol atau konstan, maka nilai variabel Y (Minat Wirausaha) akan menurun sebesar 0.009963. * \(b_3 = -0.004775\) : nilai tersebut memiliki arti bahwa setiap kenaikan variabel X3 (Pendidikan Wirausaha) dan variabel X1 dan X2 bernilai nol atau konstan, maka nilai variabel Y (Minat Wirausaha) akan menurun sebesar 0.004775.

4.7 Uji Siginifikansi Parameter Secara Simultan

  • Hipotesis:
  • \(H_0\) : Variabel X1, X2 ,dan X3 tidak bepengaruh secara simultan terhadap variabel Y
  • \(H_1\) : Minimal terdapat satu variabel independen yang bepengaruh secara simultan terhadap variabel Y
  • Taraf Nyata: 0.05
  • Hasil Pengujian R-Sstudio: \[nilai-p = 1.749e-07 \]
  • Interpretasi: Berdasarkan hasil pengujian R-Studio diperolah nilai-p sebesar 0.000000175 yang artinya lebih keci dari taraf nyata 0.05, sehingga diputuskan \(H_0\) ditolak. Dengan demikian, dengan taraf nyata 0.05 sudah cukup bukti bahwa ada minimal satu variabel antara variabel X1, X2, dan X3 atau variabel Ekspektasi Pendapatan, Karakter Individu, dan Pendidikan Wirausaha yang berpengaruh terhadap variabel Minat Wirausaha.

4.8 Uji Siginifikansi Parameter Secara Parsial

  • Hipotesis Uji Signifikansi Parameter \(b_1\) (Variabel X1)

  • \(H_0\) : Variabel X1 tidak berpengaruh terhadap variabel Y

  • \(H_1\) : Variabel X1 berpengaruh terhadap variabel Y

  • Taraf Nyata: 0.05

  • Hipotesis Uji Signifikansi Parameter \(b_2\) (Variabel X2)

  • \(H_0\) : Variabel X2 tidak berpengaruh terhadap variabel Y

  • \(H_1\) : Variabel X2 berpengaruh terhadap variabel Y

  • Taraf Nyata: 0.05

  • Hipotesis Uji Signifikansi Parameter \(b_3\) (Variabel X2)

  • \(H_0\) : Variabel X3 tidak berpengaruh terhadap variabel Y

  • \(H_1\) : Variabel X3 berpengaruh terhadap variabel Y

  • Taraf Nyata: 0.05

  • Hasil Pengujian R-Sstudio:

> library(knitr)
> uji_reg <- summary(reg_tr)
> uji_t <- uji_reg$coefficients
> kable(head(uji_t))
Estimate Std. Error t value Pr(>|t|)
(Intercept) 0.1298737 0.0140879 9.218842 0.0000000
x1_trans -0.0162708 0.0067697 -2.403473 0.0187458
x2_trans -0.0099632 0.0023783 -4.189149 0.0000765
x3_trans -0.0047753 0.0018965 -2.517964 0.0139660
  • Interpretasi Hasil
  • Variabel X1: Berdasarkan hasil pengujian dengan R-Studio diperoleh nilai-p sebesar 0.01875 yang artinya kurang dari 0.05, sehngga diputuskan \(H_0\) ditolak. Dengan demikian, dapat disimpulkan bahwa dengan taraf nyata 0.05 sudah cukup bukti bahwa variabel X1 atau variabel Ekpektasi Pendapatan berpengaruh terhadap Minat Wirausaha.
  • Variabel X2: Berdasarkan hasil pengujian dengan R-Studio diperoleh nilai-p sebesar 0.0000765 yang artinya kurang dari 0.05, sehngga diputuskan \(H_0\) ditolak. Dengan demikian, dapat disimpulkan bahwa dengan taraf nyata 0.05 sudah cukup bukti bahwa variabel X2 atau variabel Karakter Individu berpengaruh terhadap Minat Wirausaha.
  • Variabel X3: Berdasarkan hasil pengujian dengan R-Studio diperoleh nilai-p sebesar 0.0139660 yang artinya kurang dari 0.05, sehngga diputuskan \(H_0\) ditolak. Dengan demikian, dapat disimpulkan bahwa dengan taraf nyata 0.05 sudah cukup bukti bahwa variabel X3 atau variabel Pendidikan Wirausaha berpengaruh terhadap Minat Wirausaha.

4.9 Koefisien Determinasi (Adjusted R-Square)

> library(knitr)
> adj_r2 <- uji_reg$adj.r.squared
> kable(head(adj_r2),col.names="Adj R-Square")
Adj R-Square
0.3430883
  • Interpretasi Hasil:Dari tabel di atas yang merupakan hasil pengujian menggunakan R-Studio diperoleh nilai koefisien determinasi sebesar 0.3431. Dengan demikian, dapat disimpulkan bahwa kemampuan variabel X1, X2 dan X3 yaitu variabel Ekspektasi Pendapatan, Karakter Individu dan Pendidikan Wirausaha mampu menjelaskan variabel Y yaitu Minat Wirusaha sebesar 34.31%, sedangkan 65.69% lainnya dijelaskan oleh variabel lain di luar model pada kasus penelitian ini. Penggunaan Adjusted R-Square sebagai koefisien determinasi pada kasus ini karena jenis koefisien determinasi ini memang digunakan pada kasus yang digunakan pada analisis regresi linier berganda

5 KESIMPULAN

Dari berbagai hasil pengujian Regresi Berganda dan Asumsi dapat kasus ini dapat disimpulkan bahwa analisis regresi memang mampu menjelaskan ada tidaknya pengaruh variabel independen terhadap variabel dependen. Akan tetapi, terdapat hal yang paling penting dalam pengujian regresi linier berganda adalah asumsi karena asumsi pada analisis regresi linier dapat dapat membuktikan bahwa model regresi tersebut tidak bias, sehingga kesimpulan yang dihasilkan dari analisis regresi dapat diketahui kebenarannya. Apabila terdapat asumsi yang terlanggar harus ditangani salah satunya adalah dengan mentransformasi data dan pada saat harus transformasi data harus melihat jenis kemiringan kurva normal apabila yang terlanggar adalah asumsi normalitas galat.

Jenis kurva kemiringan sebaran normal berbeda-beda dan setiap jenis berbeda cara transformasinya. Akan tetapi, metode transformasi yang sesuai dengan jenis kemiringan kurva normal pada kasus terkadang belum tentu dapat mengatasinya contohnya pada kasus ini, sehingga pada kasus ini penulis mencoba metode transformasi dengan jenis kemiringan kurva normal yang berbeda. Setelah dilakukan transformasi dan melakukan analisis kembali, ternyata transformasi tersebut mampu memenuhi seluruh asumsi yang digunakan pada analisis regresi linier berganda sehingga dapat dilakukan uji regresi kembali. Dari hasil tersebut, dapat disimpulkan kembali bahwa hasil uji regresi dengan menggunakan data hasil transformasi mampu menghasilkan model regresi yang tidak bias, sehingga hasil uji regresi mampu menjelaskan pengaruh atau tidaknya tiga variabel independen terhadap variabel dependen pada kasus ini dengan hasil yang absah walaupun data yang digunakan berbeda dari data aslinya.

6 DAFTAR PUSTAKA

  • Effendi, dkk. 2020. Analisis Regresi Teori dan Aplikasi dengan R. Malang: UB Press.
  • Ghozali, I. (2016) Aplikasi Analisis Multivariete Dengan Program IBM SPSS 23. - Edisi 8. Semarang: Badan Penerbit Universitas Diponegoro.
  • Hojjat A. Farahani, A. R. (2010). A Comparison of Partial Least Squares (PLS) and Ordinary Least Squares (OLS) regressions in predicting of couples mental health based on their communicational patterns. Procedia Social and Behavioral Sciences.
  • Nasrum, A. (2018). Uji Normalitas Untuk Data Penelitian. Bali: Jayapangus Press.
  • Pane, D. N. (2018). Analisis Pengaruh Bauran Pemasaran Jasa Terhadap Keputusan. Jurnal Manajemen Tools, 13-25. Purnama, Prasetia. (2020). Hendarsin. Peramalan Jumlah Penumpang Berangkat Melalui Transportasi Udara di Sulawesi Tengah Menggunakan Support Vector Regression (SVR). 51.
  • Raharjo, S. (2019). Makna Koefisien Determinasi dalam Analisis regresi linier berganda. Retrieved from spssindonesia: https://www.spssindonesia.com/2017/04/makna-koefisien-determinasi-r-square.html
  • Sentana, Aso. (2006). Service Excellent and Custimer Satisfaction. Jakarta: Elex media komputindo
  • Siska, Andriani (2017). Uji Park Dan Uji Breusch Pagan Godfrey Dalam Pendeteksian Heteroskedastisitas Pada Analisis Regresi. Al-Jabar: Jurnal Pendidikan Matematika, 8 (1), 63-72.
  • Suyono. (2015). Analisis Regresi Untuk Penelitian. Sleman: Penerbit Deepublish.