Dalam melakukan penelitian, peneliti menggunakan data untuk menjawab hasil akhir dari penelitiaannya. Oleh karena itu, peranan ilmu statistika sangat penting dalam mengolah data untuk mendapatkan hasil penelitian yang sesuai dengan tujuan peneliti. Salah satu cabang ilmu statistika yang cukup sering digunakan oleh peneliti adalah analisis regresi karena pada umumnya peneliti ingin mengetahui faktor-faktor tertentu yang bepengaruh terhadap suatu hal atau kejadian. Analisis regresi adalah analisis statistika yang bertujuan untuk mengetahui pengaruh variabel independen terhadap variabel respon (Effendi, 2020). Akan tetapi, dalam melakukan analisis regresi linier memerlukan asumsi supaya hasil analisis regresi linier berganda mampu menjawab apakah variabel yang dianggap sebagai faktor mampu mempengaruhi variabel yang dianggap sebagai respon dari suatu faktor tersebut dapat diakui kebenarannya secara statistika.
Ketika melakukan analisis data dengan metode regresi, seringkali peneliti menggunakan alat bantu berupa software. Saat ini, software statistika yang digunakan untuk melakukan analisis regresi sudah sangat banyak dan juga bisa melakukan jenis analisis apapun selain regresi dengan mudah dan cepat, namun software statistika yang mudah, lengkap dan cepat sebagian besar masih berbayar. Meskipun demikian, masih ada software yang lengkap tapi gratis, salah satunya adalah R-Studio. R-Studio merupakan software statistika yang dapat diakses oleh siapapun dan juga dapat dikembangkan oleh siapapun. Akan tetapi, software ini memang tidak banyak digunakan oleh peneliti karena menggunakan bahasa pemrograman dalam melakukan analisis data yang dimana cukup sulit. Oleh karena itu, diperlukan tata cara untuk melakukan analisis data salah satunya analisis regresi linier berganda dengan asumsi dan juga penanganannya menggunakan software R-Studio.
Analisis Regresi linier berganda merupakan analisis statistka dengan model persamaan yang menjelaskan hubungan satu variabel tak bebas atau response (Y) dengan dua atau lebih variabel bebas/ predictor (X1, X2,…Xn). Tujuan dari uji regresi linier berganda adalah untuk memprediksi nilai variabel tak bebas atau response (Y) apabila nilai-nilai variabel bebasnya/ predictor (X1, X2,…, Xn) diketahui. Disamping itu juga untuk dapat mengetahui bagaimanakah arah hubungan variabel tak bebas dengan variabel - variabel bebasnya. Bentuk umum model regresi linier ganda dengan k variabel independen. \[ Y ={β_0+β_1 X_2+β_2 X_2+⋯+ β_i X_i+ε} \] Di mana Y adalah variabel dependen, \(X_1, X_2, ..., X_k\) adalah variabel-variabel independen, adalah galat acak (random error), dan \(β_0, β_1, ..., β_k\) adalah parameter-parameter populasi yang nilainya tidak diketahui. Variabel independen \(X_1, X_2, ..., X_k\) dianggap bukan variabel acak dan dapat diobservasi dengan kekeliruan yang dapat diabaikan. Sebagaimana pada model regresi linier sederhana, jika telah dimiliki sampel berukuran n, maka galat-galat acak \(ε_1, ε_2, ..., ε_n\) akan diasumsikan semuanya mempunyai mean 0, variansi konstan \(σ^2\) , saling independen atau tidak berkorelasi dan berdistribusi normal. Hal ini berakibat bahwa mean dari variabel dependen: \[ E(Y)=β_0+β_1 X_2+β_2 X_2+⋯+ β_i X_i \] Dalam model regresi linier ganda, jika \(X_1,X_2,...,X_K\) merupakan variabel-variabel kuantitatif yang saling independen, maka model tersebut dinamakan model regresi linier ganda order satu (first-order model). Untuk selanjutnya istilah ‟regresi linier ganda order satu‟ cukup akan kita sebut sebagai ‟regresi linier ganda‟, kecuali jika perlu penegasan. Secara umum di antara variabel-variabel \(X_1, X_2, ..., X_k\) boleh merupakan fungsi dari variabel-variabel yang lain, tetapi tidak boleh memuat parameter.
Menurut efendi, dkk (2020), Metode Kuadrat Terkecil atau biasa disingkat MKT pada Model Regresi Linier Berganda adalah metode yang memanfaatkan Turunan Parsial pada \(SS_E\) atau \(∑ε_i^2\) yang diturunkan terhadap parameter-parameter yang ada pada model regresinya \((β_0, β_1,…, β_k)\). Kemudian, perbedaan antara Metode Kuadrat Terkecil untuk Regresi Linier Berganda dan Regresi Linier Sederhana selain pada jumlah Parameternya ialah pada kesukaran persamaan-persamaan yang didapatkan dari Turunan Parsial \(SS_E\), sehingga Model Regresi Linier Berganda lebih banyak penerapan Penaksiran Parameter regresi dengan Matriks. \[β ̂= (X'X)^{-1}*y\]
Sehingga didapatkan Persamaan regresi berikut:
\[y_i= β_0+ β_1 x_1+ β_2 x_2 + … + β_k x_k + ε_i\]
sumber: Draper & Smith (1998)
Menurut Nasrum, 2008, pada dasarnya, Uji Lilliefors yang umum dikenal untuk uji normalitas sebenarnya adalah variasi dari uji Kolmogorov Smirnov karena menggunakan statistik Kolmogorov Smirnov yang sama yaitu statistik \(D\). Uji Lilliefors ditemukan oleh Hubert Whitman Lilliefors tahun 1967, seorang Profesor Statistik di Universitas George Washington yang menekankan bahwa validitas tabel Kolmogorov Smirnov yang digunakan untuk uji normalitas bergantung pada asumsi bahwa data yang diamati benar-benar mengikuti distribusi kontinu. Namun, ketika satu atau lebih parameter harus diestimasi dari sampel, tabel tersebut menjadi tidak valid. dalam tulisannya yang berjudul “On The Kolmogorov Smirnov Test for Normality With Mean and Variance Unknown”
Perbedaan utama antara uji kolmogorov smirnov dengan uji Lilliefors terletak pada pemilihan tabel pembanding untuk menarik kesimpulan.Kolmogorov menggunakan Lampiran 3 sebagai tabel pembanding, sedangkan Lilliefors menggunakan Lampiran 2. Untuk ukuran sampel tertentu (N), nilai kritis DL (ditemukan dalam Lampiran) ditentukan untuk setiap tingkat signifikansi yang dipilih. Nilai-nilai ini diperoleh melalui simulasi Monte Carlo. Uji Lilliefors lebih sensitif dalam mendeteksi penyimpangan terhadap distribusi normal daripada uji Kolmogorof Smirnov.Oleh karena itu, ketika melakukan uji normalitas Kolmogorov-Smirnov perlu dibandingkan dengan uji normalitas Lilliefors sebagai koreksi. (Nasrum, 2018).
Multikolinearitas dalam suatu model regresi dapat diketahui dengan menghitung nilai Variance Inflation Factor (VIF). VIF adalah suatu faktor yang mengukur seberapa besar kenaikan ragam dari koefisien penduga regresi dibandingkan terhadap variabel bebas yang orthogonal jika dihubungkan secara linear. Nilai VIF akan semakin besar jika terdapat korelasi yang semakin besar diantara variabel bebas. Nilai VIF > 10 dapat digunakan sebagai petunjuk adanya multikolinearitas. Gejala multikolinearitas menimbulkan masalah dalam model regresi. Korelasi antar variabel bebas yang sangat tinggi menghasilkan penduga model regresi yang bias, tidak stabil, dan mungkin jauh dari nilai prediksinya (Hojjat, 2010). \[ VIF_j=\frac 1{1-R_J^2},j=1,2,3,…,k \]
Uji Breusch Pagan Godfrey, dalam hal ini adalah uji yang akan saya gunakan pada penelitian ini. Keterbatasan Uji Goldfeld Quandt dapat dihindari dengan Uji Breusch Pagan Godfrey (BPG). Keberhasilan uji Goldfeld Quandt tidak hanya tergantung dari nilai c tetapi juga mengidentifikasi variabel X yang mana yang akan di ranking secara benar. Misalkan terdapat model regresi linear dengan n-variabel independen: \[Y_i= ∝+β_1 X_1i+β_2 X_2i+⋯+β_n X_ni+ε_i\] Diasumsikan galat variansi σ_i^2 adalah sebagai berikut: \[σ_i^2=f(∝_i+∝_2 Z_2i+⋯+∝_m Z_mi)\] \[σ_i^2= ∝_i+∝_2 Z_2i+⋯+∝_m Z_mi\] \(σ_i^2\) merupakan fungsi linear dari Z jika \(a_2=a_3=⋯=a_m=0\), maka \(σ_i^2=a_i\) yang merupakan konstanta. Jadi, untuk menguji apakah σ_i^2 homoskedastisitas, maka kita menguji hipotesis bahwa \(a_2=a_3=⋯=a_m=0\). (Siska, 2017).
Salah satu uji untuk mengetahui linear atau nonlinear suatu data deret waktu dapat menggunakan uji Ramsey RESET yang pertama kali diperkenalkan oleh Ramsey. Jika terdapat variabel bebas Xt dan variabel prediktor Yt, prosedur uji Ramsey RESET dapat dijelaskan. Uji Ramsey Test ini dikembangkan oleh Ramsey (1969), (Purnama, 2020). Tujuan dari uji liniertitas Ramsey adalah untuk mengevaluasi apakah hubungan antara variabel dependen dan variabel independen dalam model regresi linier memiliki bentuk yang benar atau apakah ada hubungan non-linier yang mungkin perlu ditangkap dalam model. Ini dapat dilakukan dengan memeriksa apakah menambahkan kuadrat dan interaksi dari variabel independen dapat memperbaiki model secara signifikan.
Salah satu bentuk umum dari uji liniertitas Ramsey adalah uji RESET (Regression Specification Error Test), yang memeriksa apakah penambahan kuadrat atau interaksi dari variabel independen yang sudah ada dalam model dapat meningkatkan signifikansi secara statistik. Uji ini dapat membantu dalam mengevaluasi asumsi linieritas dan memperbaiki spesifikasi model regresi linier jika diperlukan.
Simultan merupakan sesuatu yang terjadi atau dilakukan pada waktu yang bersamaan yang tidak saling menunggu ( Sentana , 2006 ). Simultan adalah pengaruh yang ditimbulkan oleh variabel-variabel bebas jika digabungkan terhadap variabel terikat. Dalam istilah statistik pengaruh simultan sendiri digambarkan dengan uji F.
Uji F bertujuan untuk mencari apakah variabel independen secara bersama – sama (stimultan) mempengaruhi variabel dependen. Uji F dilakukan untuk melihat pengaruh dari seluruh variabel bebas secara bersama-sama terhadap variabel terikat. Tingakatan yang digunakan adalah sebesar 0.5 atau 5%, jika nilai signifikan F < 0.05 maka dapat diartikan bahwa variabel independent secara simultan mempengaruhi variabel dependen ataupun sebaliknya (Ghozali, 2016). Uji simultan F (Uji Simultan) digunakan untuk mengetahui ada atau tidaknya pengaruh secara bersama – sama atau simultan antara variabel independen terhadap variabel dependen. Pengujian statistik Anova merupakan bentuk pengujian hipotesis dimana dapat menarik kesimpulan berdasarkan data atau kelompok statistik yang disimpulkan. Pengambilan keputusan dilihat dari pengujian ini dilakukan dengan melihat nilai F yang terdapat di dalam tabel ANOVA, tingkat signifikansi yang digunakan yaitu sebesar 0,05. Adapun ketentuan dari uji F yaitu sebagai berikut (Ghozali, 2016) : 1. Jika nilai signifikan F < 0,05 maka H0 ditolak dan H1 diterima. Artinya semua variabel independent atau bebas memiliki pengaruh secara signifikan terhadap variabel dependen atau terikat. 2. Jika nilai signifikan F > 0,05 maka H0 diterima. Artinya, semua variabel independent atau bebas tidak memiliki pengaruh secara signifikan terhadap variabel dependen atau terikat.
Uji parsial sering disebut juga Uji t, yaitu menguji apakah hipotesis yang digunakan untuk diambil keputusannya antara diterima atau ditolak dengan tingkat signifikan yang telah ditentukan. Uji parsial digunakan untuk menguji setiap variable bebas mempunyai pengaruh yang signifikan terhadap variabel terikat secara parsial (Pane, 2018). Untuk mengetahui hipotesis diterima atau ditolak, Uji parsial (Uji t) yang kita hitung akan dibandingkan dengan titik kritis t atau t tabel. a. Jika t hitung < t tabel, maka H0 diterima b. Jika t hitung > t tabel, maka H0 ditolak Kriteria pengujian pada hipotesis uji parsial sebagai berikut : H_0 : β_i = 0, artinya variabel bebas yang tidak mempengaruhi variabel terikatnya. H_1 : β_i ≠ 0. Artinya variabel bebas mempengaruhi variabel terikatnya.
Koefisien Determinasi (R-Squared) adalah uji untuk menjelaskan besaran proporsi variasi dari variabel dependen yang dijelaskan oleh variabel independen. Uji koefisien determinasi juga bisa digunakan untuk mengukur seberapa baik garis regresi yang kita miliki. Apabila nilai koefisien determinasi (R-squared) pada suatu estimasi mendekati angka satu, maka dapat dikatakan bahwa variabel dependen dijelaskan dengan baik oleh variabel independennya. (raharjo, 2019)
Rumus Koefisien Determinasi (R^2) \[R^2 = 1 – (SS_E)/(SS_T)\] \[R^2 = 1 – \frac{(∑Yi-Ŷi)}{∑(Yi-Y̅)}\]
Keterangan : Yi = Observasi respon ke-i Ŷ = Ramalan respon ke-i Y̅= Rata-rata
Data yang digunakan pada penerapan analisis regresi linier berganda adalah data pada penelitian yang bertujuan untuk mengetahui pengaruh Ekspektasi Pendapatan, Karakter Individu, dan Pendidikan Wirausaha terhadap minat berwirausaha.
> #Impor Data dan Pendefinisian Variabel
> library(readxl)
> Data_Komstat <- read_excel("~/KOMSTAT/Data Komstat.xlsx")
> View(Data_Komstat)
> x1 <- Data_Komstat$`Ekspektasi Pendapatan`
> x2 <- Data_Komstat$`Karakter Individu`
> x3 <- Data_Komstat$`Pendidikan Wirausaha`
> y <- Data_Komstat$`Minat Wirausaha`
> data.frame(x1,x2,x3,y)
x1 x2 x3 y
1 24 16 34 23
2 24 16 30 22
3 24 16 27 24
4 25 17 37 32
5 24 16 31 27
6 22 14 31 24
7 21 15 29 23
8 22 16 32 23
9 24 18 33 24
10 13 18 33 30
11 27 17 30 21
12 16 17 37 24
13 26 17 31 23
14 22 18 30 24
15 22 15 32 22
16 21 16 33 24
17 23 21 40 31
18 22 15 34 24
19 20 18 29 24
20 22 19 40 31
21 24 16 30 25
22 24 16 33 27
23 23 19 28 25
24 15 15 28 30
25 28 15 30 26
26 17 20 31 24
27 21 18 31 25
28 19 14 31 22
29 23 19 29 29
30 22 18 29 24
31 17 17 32 23
32 18 16 31 23
33 15 14 33 22
34 17 15 35 23
35 16 16 35 22
36 16 16 32 24
37 21 20 35 30
38 15 16 30 23
39 18 14 32 24
40 17 16 32 23
41 17 15 30 22
42 21 16 31 30
43 16 16 31 21
44 18 16 34 23
45 21 20 33 27
46 19 17 33 25
47 17 13 32 16
48 15 12 26 16
49 15 17 32 19
50 15 15 27 21
51 21 15 38 29
52 18 15 30 23
53 16 17 27 24
54 15 14 36 23
55 17 13 31 22
56 18 14 28 20
57 17 15 32 23
58 19 16 27 22
59 18 19 38 26
60 19 19 34 23
61 18 17 37 23
62 19 18 29 24
63 18 16 26 23
64 16 17 34 22
65 15 16 25 23
66 16 17 30 24
67 18 18 30 25
68 18 18 32 25
69 22 16 31 30
70 15 17 34 22
71 19 16 31 24
72 17 16 33 24
73 17 13 33 26
74 15 19 34 25
75 16 16 30 23
76 16 18 34 26
77 17 18 35 28
78 18 15 34 24Sumber data: (Nugraha, 2018)
> #Pembuatan Model Regresi, Uji Simultan, dan Uji Parsial
> reg <- lm(y~x1+x2+x3)
> reg
Call:
lm(formula = y ~ x1 + x2 + x3)
Coefficients:
(Intercept) x1 x2 x3
1.3034 0.2099 0.6186 0.2753 > library(car)
> vif(reg)
x1 x2 x3
1.036108 1.119627 1.082088 > ##Uji Normalitas Galat Lilliefors
> galat <- residuals(reg)
> library(nortest)
> lillie.test(galat)
Lilliefors (Kolmogorov-Smirnov) normality test
data: galat
D = 0.13977, p-value = 0.0006805> #Uji Normalitas Varibel dan Histogram
> library(ggpubr)
> library(nortest)
> lillie.test(y)
Lilliefors (Kolmogorov-Smirnov) normality test
data: y
D = 0.20982, p-value = 4.235e-09
> lillie.test(x1)
Lilliefors (Kolmogorov-Smirnov) normality test
data: x1
D = 0.16883, p-value = 9.246e-06
> lillie.test(x2)
Lilliefors (Kolmogorov-Smirnov) normality test
data: x2
D = 0.16718, p-value = 1.212e-05
> lillie.test(x3)
Lilliefors (Kolmogorov-Smirnov) normality test
data: x3
D = 0.092292, p-value = 0.09727> library(ggpubr)
> hist(y)> hist(x1)> hist(x2)> hist(x3)> #Transformasi Data
> y_trans <- 1/(y)
> x1_trans <- log10(x1)
> x2_trans <- sqrt(x2)
> x3_trans <- sqrt(x3)
> data.frame(x1_trans,x2_trans,x3_trans,y_trans)
x1_trans x2_trans x3_trans y_trans
1 1.380211 4.000000 5.830952 0.04347826
2 1.380211 4.000000 5.477226 0.04545455
3 1.380211 4.000000 5.196152 0.04166667
4 1.397940 4.123106 6.082763 0.03125000
5 1.380211 4.000000 5.567764 0.03703704
6 1.342423 3.741657 5.567764 0.04166667
7 1.322219 3.872983 5.385165 0.04347826
8 1.342423 4.000000 5.656854 0.04347826
9 1.380211 4.242641 5.744563 0.04166667
10 1.113943 4.242641 5.744563 0.03333333
11 1.431364 4.123106 5.477226 0.04761905
12 1.204120 4.123106 6.082763 0.04166667
13 1.414973 4.123106 5.567764 0.04347826
14 1.342423 4.242641 5.477226 0.04166667
15 1.342423 3.872983 5.656854 0.04545455
16 1.322219 4.000000 5.744563 0.04166667
17 1.361728 4.582576 6.324555 0.03225806
18 1.342423 3.872983 5.830952 0.04166667
19 1.301030 4.242641 5.385165 0.04166667
20 1.342423 4.358899 6.324555 0.03225806
21 1.380211 4.000000 5.477226 0.04000000
22 1.380211 4.000000 5.744563 0.03703704
23 1.361728 4.358899 5.291503 0.04000000
24 1.176091 3.872983 5.291503 0.03333333
25 1.447158 3.872983 5.477226 0.03846154
26 1.230449 4.472136 5.567764 0.04166667
27 1.322219 4.242641 5.567764 0.04000000
28 1.278754 3.741657 5.567764 0.04545455
29 1.361728 4.358899 5.385165 0.03448276
30 1.342423 4.242641 5.385165 0.04166667
31 1.230449 4.123106 5.656854 0.04347826
32 1.255273 4.000000 5.567764 0.04347826
33 1.176091 3.741657 5.744563 0.04545455
34 1.230449 3.872983 5.916080 0.04347826
35 1.204120 4.000000 5.916080 0.04545455
36 1.204120 4.000000 5.656854 0.04166667
37 1.322219 4.472136 5.916080 0.03333333
38 1.176091 4.000000 5.477226 0.04347826
39 1.255273 3.741657 5.656854 0.04166667
40 1.230449 4.000000 5.656854 0.04347826
41 1.230449 3.872983 5.477226 0.04545455
42 1.322219 4.000000 5.567764 0.03333333
43 1.204120 4.000000 5.567764 0.04761905
44 1.255273 4.000000 5.830952 0.04347826
45 1.322219 4.472136 5.744563 0.03703704
46 1.278754 4.123106 5.744563 0.04000000
47 1.230449 3.605551 5.656854 0.06250000
48 1.176091 3.464102 5.099020 0.06250000
49 1.176091 4.123106 5.656854 0.05263158
50 1.176091 3.872983 5.196152 0.04761905
51 1.322219 3.872983 6.164414 0.03448276
52 1.255273 3.872983 5.477226 0.04347826
53 1.204120 4.123106 5.196152 0.04166667
54 1.176091 3.741657 6.000000 0.04347826
55 1.230449 3.605551 5.567764 0.04545455
56 1.255273 3.741657 5.291503 0.05000000
57 1.230449 3.872983 5.656854 0.04347826
58 1.278754 4.000000 5.196152 0.04545455
59 1.255273 4.358899 6.164414 0.03846154
60 1.278754 4.358899 5.830952 0.04347826
61 1.255273 4.123106 6.082763 0.04347826
62 1.278754 4.242641 5.385165 0.04166667
63 1.255273 4.000000 5.099020 0.04347826
64 1.204120 4.123106 5.830952 0.04545455
65 1.176091 4.000000 5.000000 0.04347826
66 1.204120 4.123106 5.477226 0.04166667
67 1.255273 4.242641 5.477226 0.04000000
68 1.255273 4.242641 5.656854 0.04000000
69 1.342423 4.000000 5.567764 0.03333333
70 1.176091 4.123106 5.830952 0.04545455
71 1.278754 4.000000 5.567764 0.04166667
72 1.230449 4.000000 5.744563 0.04166667
73 1.230449 3.605551 5.744563 0.03846154
74 1.176091 4.358899 5.830952 0.04000000
75 1.204120 4.000000 5.477226 0.04347826
76 1.204120 4.242641 5.830952 0.03846154
77 1.230449 4.242641 5.916080 0.03571429
78 1.255273 3.872983 5.830952 0.04166667> reg_tr <- lm(y_trans~x1_trans+x2_trans+x3_trans)
> reg_tr
Call:
lm(formula = y_trans ~ x1_trans + x2_trans + x3_trans)
Coefficients:
(Intercept) x1_trans x2_trans x3_trans
0.129874 -0.016271 -0.009963 -0.004775 > library(car)
> vif(reg_tr)
x1_trans x2_trans x3_trans
1.038936 1.116153 1.076061 > galat_tr <- residuals(reg_tr)
> library(nortest)
> lillie.test(galat_tr)
Lilliefors (Kolmogorov-Smirnov) normality test
data: galat_tr
D = 0.099624, p-value = 0.0534> library(lmtest)
> bptest(reg_tr)
studentized Breusch-Pagan test
data: reg_tr
BP = 7.1647, df = 3, p-value = 0.06683> library(lmtest)
> reset(reg_tr)
RESET test
data: reg_tr
RESET = 3.4827, df1 = 2, df2 = 72, p-value = 0.03599> summary(reg_tr)
Call:
lm(formula = y_trans ~ x1_trans + x2_trans + x3_trans)
Residuals:
Min 1Q Median 3Q Max
-0.0135485 -0.0017639 0.0001606 0.0018399 0.0155828
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 0.129874 0.014088 9.219 6.43e-14 ***
x1_trans -0.016271 0.006770 -2.403 0.0187 *
x2_trans -0.009963 0.002378 -4.189 7.65e-05 ***
x3_trans -0.004775 0.001897 -2.518 0.0140 *
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 0.004389 on 74 degrees of freedom
Multiple R-squared: 0.3687, Adjusted R-squared: 0.3431
F-statistic: 14.41 on 3 and 74 DF, p-value: 1.749e-07Berdasarkan Output pada pembentukan model regresi duga diperoleh: \[y = 1.3034+0.2099X_1+0.6186X_2+0.2753X_3+e\]
> library(knitr)
> kable(vif(reg),col.names="VIF")| VIF | |
|---|---|
| x1 | 1.036108 |
| x2 | 1.119627 |
| x3 | 1.082088 |
Interpretasi Hasil Pada pemeriksaan multikolinieritas nilai VIF pada seluruh variabel bernilai kurang dari 10 sehingga dapat disimpulkan bahwa tidak terdapat gejala multikolinieritas.
Hipotesis:
\(H_0\) : Residual berdistribusi normal
\(H_1\) : Residual tidak berdistribusi normal
Taraf Nyata: 0.05
Hasil Pengujian R-Studio: \[nilai-p = 0.0006805\]
Interpretasi: Berdasarkan hasil pengujian pada source code diperoleh nilai-p sebesar 0.0006805 sehingga diputuskan \(H_0\) ditolak, sehingga dapat disimpulkan bahwa residual tidak berdistribusi normal. Dengan demikian, asumsi normalitas galat tidak terpenuhi
Hipotesis:
\(H_0\) : Variabel Y berdistribusi normal
\(H_1\) : Variabel Y tidak berdistribusi normal
Taraf Nyata: 0.05
Hasil Pengujian R-Studio: \[nilai-p = 4.35e-09\]
Interpretasi: Berdasarkan hasil pengujian pada source code diperoleh nilai-p sebesar 4.235e-09 sehingga diputuskan \(H_0\) ditolak. Dengan demikian, dapat disimpulkan bahwa variabel Y tidak berdistribusi normal.
Hipotesis:
\(H_0\) : Variabel X1 berdistribusi normal
\(H_1\) : Variabel X1 tidak berdistribusi normal
Taraf Nyata: 0.05
Hasil Pengujian R-Studio: \[nilai-p = 9.246e-06\]
Interpretasi: Berdasarkan hasil pengujian pada source code diperoleh nilai-p sebesar 9.246e-06 sehingga diputuskan \(H_0\) ditolak. Dengan demikian, dapat disimpulkan bahwa variabel X1 tidak berdistribusi normal.
Hipotesis:
\(H_0\) : Variabel X2 berdistribusi normal
\(H_1\) : Variabel X2 tidak berdistribusi normal
Taraf Nyata: 0.05
Hasil Pengujian R-Studio: \[nilai-p = 1.212e-05\]
Interpretasi: Berdasarkan hasil pengujian pada source code diperoleh nilai-p sebesar 1.212e-05 sehingga diputuskan \(H_0\) ditolak. Dengan demikian, dapat disimpulkan bahwa variabel X2 tidak berdistribusi normal.
Hipotesis:
\(H_0\) : Variabel X3 berdistribusi normal
\(H_1\) : Variabel X3 tidak berdistribusi normal
Taraf Nyata: 0.05
Hasil Pengujian R-Studio: \[nilai-p = 0.09727\]
Interpretasi: Berdasarkan hasil pengujian pada source code diperoleh nilai-p sebesar 0.09727 sehingga diputuskan \(H_0\) ditolak. Dengan demikian, dapat disimpulkan bahwa variabel X3 berdistribusi normal.
Histogram
> library(ggpubr)
> hist(y)
* Penjelasan: Berdasarkan histogram, terlihat bahwa
variabel y merupakan jenis kemiringan kurva normal yang bernama
Moderate Positive Skewness dengan metode transformasi \(\sqrt{x}\). Akan tetapi, ketika dicoba
dibentuk model regresi yang baru dan diuji normalitas galatnya masih
tidak normal, sehingga ditransformasi dengan cara lain yaitu Several
Positive Skewness karena bentuk grafiknya juga ada kemiripan dengan
jenis tersebut. Metode transformasi data yang digunaka adalah \(\frac{1}{x}\) dengan x adalah data dan
hasil tersebut mampu menghasilkan galat pada model regresi baru yang
beridistribusi normal. Untuk hasilnya terdapat di pembahasan selanjutnya
yaitu uji normalitas galat pada model regresi hasil transformasi.
Histogram Variabel X1
> library(ggpubr)
> hist(x1)
* Penjelasan: Berdasarkan histogram, terlihat bahwa
variabel x2 merupakan jenis kemiringan kurva normal yang bernama
Substansial Positive Skewness sehingga ditransformasi dengan
cara \(log10(x)\) pada datanya.
Histogram Variabel X2
> library(ggpubr)
> hist(x2)
* Penjelasan: Berdasarkan histogram, terlihat bahwa
variabel x2 merupakan jenis kemiringan kurva normal yang bernama
Moderate Positive Skewness sehingga ditransformasi dengan cara
\(\sqrt{x}\) pada datanya.
Histogram Variabel X3
> library(ggpubr)
> hist(x3)
* Penjelasan: Berdasarkan histogram, terlihat bahwa
variabel y hampir mendekati sebaran normal dan juga berdasarkan hasil
uji normalitas sudah cukup bukti bahwa variabel y berdistribusi normal.
Akan tetapi, pada saat dicoba uji normalitas galat dengan persamaan
regresi menggunakan data baru, sehingga x3 perlu dilakukan transformasi.
Pada sebelumnya memang benar bahwa grafik histogram untuk variabel x3
hampir mendekati sebaran normal tapi masih ada kemiringan kurva sedikit
dengan jenis kemiringan kurva normal yang bernama Moderate Positive
Skewness sehingga ditransformasi dengan cara \(\sqrt{x}\) pada datanya.
Berdasarkan Output pada pembentukan model regresi duga dengan data yang telah ditransformasi diperoleh: \[y = 0.129874-0.016271X_1 -0.009963X_2 -0.004775 X_3+e\]
> library(knitr)
> library(car)
> kable(vif(reg_tr),col.names="VIF")| VIF | |
|---|---|
| x1_trans | 1.038936 |
| x2_trans | 1.116153 |
| x3_trans | 1.076061 |
Interpretasi Hasil Pada pemeriksaan multikolinieritas nilai VIF pada seluruh variabel bernilai kurang dari 10 sehingga dapat disimpulkan bahwa tidak terdapat gejala multikolinieritas.
Hipotesis:
\(H_0\) : Residual berdistribusi normal
\(H_1\) : Residual tidak berdistribusi normal
Taraf Nyata: 0.05
Hasil Pengujian R-Studio: \[nilai-p = 0.0534\]
Interpretasi: Berdasarkan hasil pengujian pada source code diperoleh nilai-p sebesar 0.0534 sehingga diputuskan \(H_0\) diterima, sehingga dengan taraf nyata 0.05 sudah cukup bukti bahwa residual berdistribusi normal.
Setelah dilakukan pengujian asumsi dan semuanya terpenuhi, maka persamaan regresi yang terbentuk dan layak digunakan adalah: \[y = 0.129874-0.016271X_1-0.009963X_2-0.004775 X_3\] Interpretasi Model Regresi: * \(b_0 = 0.129874\): nilai tersebut memiliki arti bahwa jika variabel X1 (Ekspektasi Pendapatan), variabel X2 (Karakter Individu) dan variabel X3 (Pendidikan Wirausaha) bernilai nol atau tidak mengalami kenaikan maka variabel Y (Minat Wirausaha) bernilai 0.129874. * \(b_1 = -0.01627\): nilai tersebut memiliki arti bahwa setiap kenaikan variabel X1 (Ekspektasi Pendapatan) dan variabel X2 dan X3 bernilai nol atau konstan, maka nilai variabel Y (Minat Wirausaha) akan menurun sebesar 0.01627. * \(b_2 = -0.009963\): nilai tersebut memiliki arti bahwa setiap kenaikan variabel X2 (Karakter Individu) dan variabel X1 dan X3 bernilai nol atau konstan, maka nilai variabel Y (Minat Wirausaha) akan menurun sebesar 0.009963. * \(b_3 = -0.004775\) : nilai tersebut memiliki arti bahwa setiap kenaikan variabel X3 (Pendidikan Wirausaha) dan variabel X1 dan X2 bernilai nol atau konstan, maka nilai variabel Y (Minat Wirausaha) akan menurun sebesar 0.004775.
Hipotesis Uji Signifikansi Parameter \(b_1\) (Variabel X1)
\(H_0\) : Variabel X1 tidak berpengaruh terhadap variabel Y
\(H_1\) : Variabel X1 berpengaruh terhadap variabel Y
Taraf Nyata: 0.05
Hipotesis Uji Signifikansi Parameter \(b_2\) (Variabel X2)
\(H_0\) : Variabel X2 tidak berpengaruh terhadap variabel Y
\(H_1\) : Variabel X2 berpengaruh terhadap variabel Y
Taraf Nyata: 0.05
Hipotesis Uji Signifikansi Parameter \(b_3\) (Variabel X2)
\(H_0\) : Variabel X3 tidak berpengaruh terhadap variabel Y
\(H_1\) : Variabel X3 berpengaruh terhadap variabel Y
Taraf Nyata: 0.05
Hasil Pengujian R-Sstudio:
> library(knitr)
> uji_reg <- summary(reg_tr)
> uji_t <- uji_reg$coefficients
> kable(head(uji_t))| Estimate | Std. Error | t value | Pr(>|t|) | |
|---|---|---|---|---|
| (Intercept) | 0.1298737 | 0.0140879 | 9.218842 | 0.0000000 |
| x1_trans | -0.0162708 | 0.0067697 | -2.403473 | 0.0187458 |
| x2_trans | -0.0099632 | 0.0023783 | -4.189149 | 0.0000765 |
| x3_trans | -0.0047753 | 0.0018965 | -2.517964 | 0.0139660 |
> library(knitr)
> adj_r2 <- uji_reg$adj.r.squared
> kable(head(adj_r2),col.names="Adj R-Square")| Adj R-Square |
|---|
| 0.3430883 |
Dari berbagai hasil pengujian Regresi Berganda dan Asumsi dapat kasus ini dapat disimpulkan bahwa analisis regresi memang mampu menjelaskan ada tidaknya pengaruh variabel independen terhadap variabel dependen. Akan tetapi, terdapat hal yang paling penting dalam pengujian regresi linier berganda adalah asumsi karena asumsi pada analisis regresi linier dapat dapat membuktikan bahwa model regresi tersebut tidak bias, sehingga kesimpulan yang dihasilkan dari analisis regresi dapat diketahui kebenarannya. Apabila terdapat asumsi yang terlanggar harus ditangani salah satunya adalah dengan mentransformasi data dan pada saat harus transformasi data harus melihat jenis kemiringan kurva normal apabila yang terlanggar adalah asumsi normalitas galat.
Jenis kurva kemiringan sebaran normal berbeda-beda dan setiap jenis berbeda cara transformasinya. Akan tetapi, metode transformasi yang sesuai dengan jenis kemiringan kurva normal pada kasus terkadang belum tentu dapat mengatasinya contohnya pada kasus ini, sehingga pada kasus ini penulis mencoba metode transformasi dengan jenis kemiringan kurva normal yang berbeda. Setelah dilakukan transformasi dan melakukan analisis kembali, ternyata transformasi tersebut mampu memenuhi seluruh asumsi yang digunakan pada analisis regresi linier berganda sehingga dapat dilakukan uji regresi kembali. Dari hasil tersebut, dapat disimpulkan kembali bahwa hasil uji regresi dengan menggunakan data hasil transformasi mampu menghasilkan model regresi yang tidak bias, sehingga hasil uji regresi mampu menjelaskan pengaruh atau tidaknya tiga variabel independen terhadap variabel dependen pada kasus ini dengan hasil yang absah walaupun data yang digunakan berbeda dari data aslinya.