> # install.packages("knitr")
> # install.packages("rmarkdown")
> # install.packages("prettydoc")
> # install.packages("equatiomatic")Setiap organisasi menginginkan pegawai dengan kinerja yang terbaik. Apabila kinerja pegawai baik maka akan meningkatkan kinerja organisasi pula. Tujuan organisasi akan dengan mudah dicapai jika kinerja dari para pegawai baik. Suatu keberhasilan organisasi dengan mewujudkan visi dan misi sangat dipengaruhi oleh kinerja pegawai. Hal ini dikarenakan kinerja merupakan gambaran pencapaian pelaksanaan suatu kegiatan dalam mewujudkan tujuan visi dan misi organisasi yang dituangkan melalui perencanaan strategis suatu organisasi. Selanjutnya kinerja pegawai yang maksimal dan optimal akan terwujud apabila pimpinan dapat menjalankan gaya kepemimpinannya secara efektif.
Kompetensi dikatakan sebagai salah satu faktor yang memengaruhi kinerja. Kompetensi merupakan karakteristik yang mendasari efektivitas kinerja seseorang dalam melakukan pekerjaannya. Sehingga kompetensi menjadi penting sebagai factor penentu seseorang mencapai kinerja.
Remunerasi adalah sesuatu yang diterima oleh pegawai sebagai bentuk imbalan dari kontribusi yang telah dia berikan kepada organisasi dimana tempat dia bekerja. Pemberian remunerasi merupakan suatu upaya menciptakan Sumber Daya Manusia (SDM) yang berkualitas. Adanya pemberian remunerasi akan mendorong tenaga kerja untuk meningkatkan kualitas kerjanya. Selain itu, remunerasi dapat memelihara tenaga kerja yang memiliki kualitas kerja yang baik agar tidak berpindah ke perusahaan lain.
Oleh karena itu, ingin diketahui model terbaik untuk mendapatkan faktor yang memiliki pengaruh paling besar menggunakan Analisis Regresi Linear Berganda.
Menurut Priyatno (2010:61) Analisis regresi linier berganda adalah hubungan secara linier antara dua atau lebih variabel independen dengan variabel dependen. Analisis ini untuk memprediksi nilai dari variabel dependen apabila nilai variabel independen mengalami kenaikan atau penurunan dan untuk mengetahui arah hubungan antara variabel independen dengan variabel dependen apakah masing masing variabel independen berhubungan positif atau negatif. Bentuk persamaan umum dari regresi linear berganda dituliskan sebagai berikut: \[ Y=\beta_{0}+\beta_{1}X_{1}+\beta_{2}X_{2}+...+\beta_{k}X_{k}+\epsilon \]
All possible regression atau semua kemungkinan regresi adalah metode pemilihan model terbaik dengan cara menghitung semua kombinasi variabel independen yang mungkin. Misal ada p variabel independen, maka akan ada sebanyak \(2^p-1\) persamaan regresi yang perlu diperhatikan dengan kriteria tertentu. Metode ini memungkinkan beberapa metode alternatif, namun jumlah variabel independen relatif banyak sehingga banyaknya model yang harus dihitung bertambah dan membutuhkan proses yang lama.
Metode ini merupakan metode yang cukup populer. Salah satu keuntungan metode ini adalah disajikannya melalui proses pembentukan model setahap demi setahap. Pada metode ini, variabel independen dimasukan satu persatu menurut urutan besar pengaruh terhadap variabel dependen. Metode ini dimulai dengan menghitung koefisien korelasi variabel independen dengan variabel dependen. Variabel independen yang memiliki koefisien korelasi terbesar (tanpa memperhatikan tanda korelasi + atau -) dimasukkan pertama kali ke dalam model.
Metode ini adalah kebalikan dari metode seleksi maju. Langkah pertama adalah masukkan semua variabel independen ke dalam model. Selanjutnya lakukan uji hipotesis untuk keseluruhan model. Jika terima \(H_{0}\) maka proses analisis selesai dan dapat disimpulkan bahwa tidak ada variabel independen yang dapat menjelaskan Y secara signifikan. Namun, jika tolak \(H_{0}\) maka perhatikan koefisien regresi atau besarnya pengaruh setiap variabel independen. Misalkan variabel independen yang memiliki pengaruh paling kecil adalah \(X_{3}\), ujilah apakah pengaruh variabel tersebut signifikan atau tidak. Jika pengaruhnya signifikan maka proses analisis selesai dan model awal diatas merupakan model terpilih. Namun jika pengaruhnya tidak signifikan maka \(X_{3}\) harus dikeluarkan dari model.
Uji Normalitas bertujuan untuk menguji apakah dalam model regresi suatu variabel pengganggu atau residual memiliki distribusi yang normal atau tidak. Suatu model regresi yang baik adalah dimana datanya berdistribusi normal atau mendekati normal. Untuk mengetahui normalitas data dapat digunakan analisis grafik dan uji statistik. Analisis grafik yaitu dengan melihat grafik histogram dan melihat normal probability plot. Sedangkan untuk uji statistik dalam normalitas dibagi dua yaitu uji statistik sederhana dengan melihat nilai kurtosis dan skewness dari residual dan uji statistik non parametrik Kolmogorov-Smirnov (Ghozali, 2009). Hipotesis dari Uji Normalitas:
\(H_{0}\) : Galat tersebar
Normal
\(H_{1}\) : Galat tersebar tidak
Normal
Homoskedastisitas atau non heteroskedastisitas yaitu asumsi yang menyatakan bahwa varian setiap sisaan masih tetap sama baik untuk nilai-nilai pada variabel independen yang kecil maupun besar. Asumsi ini dapat ditulis sebagai berikut:
\[ var(\varepsilon i)=\sigma^2, i=1,2,3,...,n \]
Uji linearitas adalah salah satu uji asumsi klasik yang dilakukan untuk mengetahui sifat linear pada sebaran data antara variabel X dan Y. Perlunya mengetahui adakah sifat linear pada hubungan X dan Y mempengaruhi tingkat valid atau tidaknya model regresi yang dihasilkan. Uji yang digunakan adalah uji harvey-collier dan uji reset.
Uji Autokorelasi dilakukan untuk mengetahui adakah korelasi variabel yang ada di dalam model prediksi dengan perubahan waktu. Uji yang digunakan adalah uji durbin watson untuk menilai adanya autokorelasi pada residual. Uji durbin watson akan menghasilkan nilai Durbin Watson (DW) yang nantinya akan dibandingkan dengan dua nilai durbin Watson tabel, yaitu durbin Upper (DU) dan durbin Lower (DL).
Menurut Ghozali (2013: 171) uji simultan digunakan untuk mengetahui apakah variabel independen secara bersama-sama atau simultan mempengaruhi variabel dependen. Nilai uji F juga dapat dilihat dari output regresi yang dihasilkan oleh SPSS. Jika tingkat signifikansi < 0,05 (tingkat kepercayaan yang dipilih) maka \(H_{0}\) ditolak dan \(H_{1}\) diterima.
Uji parsial atau uji t digunakan untuk mengetahui apakah variabel independen secara parsial berpengaruh terhadap variabel dependen. Hipotesis yang digunakan dalam uji parsial adalah sebagai berikut:
\(H_{0}\) : variabel independen bukan merupakan penjelas yang signifikan terhadap variabel dependen.
\(H_{1}\) : variabel independen merupakan penjelas yang signifikan terhadap variabel dependen.
Jenis data yang digunakan adalah data sekunder.
> library(olsrr)
> library(car)
> library(nortest)> data1 <-read.csv("C:/Users/fadhi/OneDrive/Dokumen/Kuliah/Data.csv")
> knitr::kable(data1, caption="Data yang digunakan")| X1 | X2 | X3 | Y |
|---|---|---|---|
| 5 | 18 | 12 | 5 |
| 7 | 22 | 12 | 6 |
| 6 | 24 | 15 | 7 |
| 6 | 25 | 14 | 7 |
| 8 | 25 | 16 | 8 |
| 6 | 26 | 15 | 8 |
| 8 | 30 | 17 | 9 |
| 6 | 26 | 14 | 7 |
| 10 | 28 | 18 | 10 |
| 9 | 20 | 12 | 6 |
X1 = Kompetensi X2 = Remunerasi X3 = Gaya Kepemimpinan Y = Kinerja Karyawan
Akan dibentuk persamaan regresi menggunakan function lm dan perintah summary untuk menampilkan hasil analisis regresi.
> reg1 <- lm(Y~X1+X2+X3, data=data1)
> summary(reg1)
Call:
lm(formula = Y ~ X1 + X2 + X3, data = data1)
Residuals:
Min 1Q Median 3Q Max
-0.26057 -0.14977 -0.02025 0.05646 0.48663
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -3.31453 0.67177 -4.934 0.00262 **
X1 0.19148 0.06668 2.872 0.02837 *
X2 0.13822 0.05350 2.584 0.04156 *
X3 0.40569 0.09696 4.184 0.00579 **
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 0.2762 on 6 degrees of freedom
Multiple R-squared: 0.9772, Adjusted R-squared: 0.9658
F-statistic: 85.81 on 3 and 6 DF, p-value: 2.562e-05Akan ditentukan variabel mana yang dapat dimasukkan ke dalam persamaan regresi untuk mendapatkan model terbaik. Pengujian dilakukan menggunakan 3 metode pemilihan model terbaik yaitu All Possible Regression, Forward Selection, dan Backward Selection.
> #Metode All Possible Regression
> olsrr::ols_step_all_possible(reg1)
Index N Predictors R-Square Adj. R-Square Mallow's Cp
3 1 1 X3 0.9289970 0.9201216 12.70524
2 2 1 X2 0.8199723 0.7974688 41.42702
1 3 1 X1 0.3504095 0.2692107 165.13001
5 4 2 X1 X3 0.9518859 0.9381390 8.67533
6 5 2 X2 X3 0.9459220 0.9304711 10.24647
4 6 2 X1 X2 0.9107633 0.8852671 19.50878
7 7 3 X1 X2 X3 0.9772247 0.9658370 4.00000> #Metode Forward Selection
> olsrr::ols_step_forward_p(reg1)
Selection Summary
------------------------------------------------------------------------
Variable Adj.
Step Entered R-Square R-Square C(p) AIC RMSE
------------------------------------------------------------------------
1 X3 0.9290 0.9201 12.7052 14.9098 0.4224
2 X1 0.9519 0.9381 8.6753 13.0183 0.3717
3 X2 0.9772 0.9658 4.0000 7.5393 0.2762
------------------------------------------------------------------------> #Metode Backward Selection
> olsrr::ols_step_backward_p(reg1)
[1] "No variables have been removed from the model."> library(car)
> library(nortest)
>
> #Uji Normalitas
> shapiro.test(data1$Y)
Shapiro-Wilk normality test
data: data1$Y
W = 0.96624, p-value = 0.854> nortest::ad.test(data1$Y)
Anderson-Darling normality test
data: data1$Y
A = 0.2409, p-value = 0.6967> nortest::lillie.test(data1$Y)
Lilliefors (Kolmogorov-Smirnov) normality test
data: data1$Y
D = 0.17955, p-value = 0.4786> #Uji Homoskedastisitas
> lmtest::bptest(reg1)
studentized Breusch-Pagan test
data: reg1
BP = 2.4941, df = 3, p-value = 0.4764> #Uji Linearitas
> lmtest::resettest(reg1, power=2)
RESET test
data: reg1
RESET = 0.040397, df1 = 1, df2 = 5, p-value = 0.8486> lmtest::harvtest(reg1)
Harvey-Collier test
data: reg1
HC = 0.46453, df = 5, p-value = 0.6618> #Uji Non Autokorelasi
> lmtest::dwtest(reg1)
Durbin-Watson test
data: reg1
DW = 3.0445, p-value = 0.9864
alternative hypothesis: true autocorrelation is greater than 0Didapatkan persamaan regresi awal sebagai berikut:
\[ Y= -3.31453+0.19148X_{1}+0.13822X_{2}+0.40569X_{3} \]
Model ini hanya mengandung variable X1, X2 dan X3 karena pada R-Square dan Adj. R-Square dipilih nilai yang terbesar sedangkan Cp mallow yang kecil. Tetapi lebih diutamakan dilihat pada nilai Adj.R-Square karena model tersebut memenuhi asumsi non multikolinieritas.
Dengan metode forward selection didapat bahwa model terbaik mengandung variabel prediktor X1, X2, dan X3.
Output dari uji model terbaik dengan metode backward selection menghasilkan bahwa untuk mendapatkan model terbaik, tidak ada variabel prediktor yang dihapuskan dari model.
Hipotesis
\(H_{0}\) : Data berdistribusi normal
\(H_{1}\) : Data berdistribusi tidak normal
Ketiga uji normalitas menghasilkan p-value yang lebih besar dari α (0.05), maka terima \(H_{0}\). Dengan demikian, data kinerja karyawan dan ketiga faktornya menyebar secara normal.
Hipotesis
\(H_{0}\) : Variansi galat bersifat homoskedastisitas
\(H_{1}\) : Variansi galat bersifat heteroskedastisitas
Dikarenakan p-value lebih besar dari α (0.05), maka \(H_{0}\) diterima. Dengan demikian, data memenuhi asumsi homoskedastisitas.
Hipotesis
\(H_{0}\) : Model linier
\(H_{1}\) : Model non-linier
Dikarenakan p-value lebih besar dari α (0.05), maka \(H_{0}\) diterima. Sehingga, model data bersifat linier.
DW = 3.0445, nilai DW berada diantara 0≤DW≤4. Dari tabel didapatkan nilai DU=2.0163 dan DL=0.5253. Dikarenakan nilai DW terletak didaerah inconclusive maka tidak ada kesimpulan.
Nilai p (2.562e-05) < α (0.05), maka H0 ditolak. Maka dapat disimpulkan bahwa faktor kompetensi, remunerasi, dan gaya kepemimpinan berpengaruh terhadap kinerja karyawan.
Pengujian \(X_{1}\) terhadap Y Statistik Uji: Nilai p-value = 0.02837
P-value (0.02837) < α(0.05), H0 ditolak. Maka dapat disimpulkan secara parsial bahwa terdapat hubungan antara kompetensi (\(X_{1}\)) dengan kinerja karyawan (Y)
Pengujian \(X_{2}\) terhadap Y Statistik Uji : Nilai p-value = 0.04156
P-value (0.04156) < α(0.05), H0 ditolak. Maka dapat disimpulkan secara parsial bahwa terdapat hubungan antara remunerasi (\(X_{2}\)) dengan kinerja karyawan (Y)
Pengujian \(X_{3}\) terhadap Y Statistik Uji : Nilai p-value = 0.00579
P-value (0.00579) < α(0.05), H0 ditolak. Maka dapat disimpulkan secara parsial bahwa terdapat hubungan antara gaya kepemimpinan (\(X_{3}\)) dengan kinerja karyawan (Y)
Setelah didapatkan dari pengujian model terbaik bahwa seluruh variabel berpengaruh untuk mendapatkan model terbaik, maka dibentuk persamaan regresi yang memasukkan ketiga variabel. Model akhir dan terbaik yang terbentuk adalah:
\[ Y= −2.90559+0.30028X_{1}+0.33089X_{2} \] Memerlukan pembuangan pada peubah 𝑋3 untuk membentuk model terbaik. Selain itu, model tersebut merupakan suatu pengamatan yang menyebar normal, yang memenuhi asumsi non multikolinieritas, yang variansi galatnya bersifat homoskedastisitas. Ketika diuji asumsi linieritas pada RESET test dan Harvey-Collier test keputusan didapat yaitu terima H0 maka dapat disimpulkan bahwa model tersebut merupakan model linier.
Fahmeyzan, D., Soraya, S., Etmy, D. (2018). UJI NORMALITAS DATA OMZET BULANAN PELAKU EKONOMI MIKRO DESA SENGGIGI DENGAN MENGGUNAKAN SKEWNESS DAN KURTOSIS. Mataram. STMIK Bumigora.
Laksono, A. A., Sartika, I., Desmitasari, R., AtmaYadin, M., & dewi Atmaja, A. P. Analisis Regresi Terapan Metode-Metode Pemilihan Persamaan Terbaik Regresi Berganda.
Yuliara, I Made. (2016). Modul Regresi Linier Berganda. Bali. Fakultas MIPA Universitas Udayana.
Mardiatmoko, G. (2020). Pentingnya uji asumsi klasik pada analisis regresi linier berganda (studi kasus penyusunan persamaan allometrik kenari muda [canarium indicum l.]). Barekeng: Jurnal Ilmu Matematika dan Terapan, 14(3), 333-342.