Penerapan Analisis Regresi Berganda Untuk Mengetahui Pengaruh Kompetensi, Remunerasi, dan Gaya Kepemimpinan Terhadap Kinerja Karyawan

Saskiah Nur Fadhillah

20-05-2022


> # install.packages("knitr")
> # install.packages("rmarkdown")
> # install.packages("prettydoc")
> # install.packages("equatiomatic")

1 PENDAHULUAN

1.1 Latar Belakang

Setiap organisasi menginginkan pegawai dengan kinerja yang terbaik. Apabila kinerja pegawai baik maka akan meningkatkan kinerja organisasi pula. Tujuan organisasi akan dengan mudah dicapai jika kinerja dari para pegawai baik. Suatu keberhasilan organisasi dengan mewujudkan visi dan misi sangat dipengaruhi oleh kinerja pegawai. Hal ini dikarenakan kinerja merupakan gambaran pencapaian pelaksanaan suatu kegiatan dalam mewujudkan tujuan visi dan misi organisasi yang dituangkan melalui perencanaan strategis suatu organisasi. Selanjutnya kinerja pegawai yang maksimal dan optimal akan terwujud apabila pimpinan dapat menjalankan gaya kepemimpinannya secara efektif.

Kompetensi dikatakan sebagai salah satu faktor yang memengaruhi kinerja. Kompetensi merupakan karakteristik yang mendasari efektivitas kinerja seseorang dalam melakukan pekerjaannya. Sehingga kompetensi menjadi penting sebagai factor penentu seseorang mencapai kinerja.

Remunerasi adalah sesuatu yang diterima oleh pegawai sebagai bentuk imbalan dari kontribusi yang telah dia berikan kepada organisasi dimana tempat dia bekerja. Pemberian remunerasi merupakan suatu upaya menciptakan Sumber Daya Manusia (SDM) yang berkualitas. Adanya pemberian remunerasi akan mendorong tenaga kerja untuk meningkatkan kualitas kerjanya. Selain itu, remunerasi dapat memelihara tenaga kerja yang memiliki kualitas kerja yang baik agar tidak berpindah ke perusahaan lain.

Oleh karena itu, ingin diketahui model terbaik untuk mendapatkan faktor yang memiliki pengaruh paling besar menggunakan Analisis Regresi Linear Berganda.

1.2 Regresi Linear Berganda

Menurut Priyatno (2010:61) Analisis regresi linier berganda adalah hubungan secara linier antara dua atau lebih variabel independen dengan variabel dependen. Analisis ini untuk memprediksi nilai dari variabel dependen apabila nilai variabel independen mengalami kenaikan atau penurunan dan untuk mengetahui arah hubungan antara variabel independen dengan variabel dependen apakah masing masing variabel independen berhubungan positif atau negatif. Bentuk persamaan umum dari regresi linear berganda dituliskan sebagai berikut: \[ Y=\beta_{0}+\beta_{1}X_{1}+\beta_{2}X_{2}+...+\beta_{k}X_{k}+\epsilon \]

1.3 Pengujian Model Terbaik

1.3.1 Metode All Possible Regression

All possible regression atau semua kemungkinan regresi adalah metode pemilihan model terbaik dengan cara menghitung semua kombinasi variabel independen yang mungkin. Misal ada p variabel independen, maka akan ada sebanyak \(2^p-1\) persamaan regresi yang perlu diperhatikan dengan kriteria tertentu. Metode ini memungkinkan beberapa metode alternatif, namun jumlah variabel independen relatif banyak sehingga banyaknya model yang harus dihitung bertambah dan membutuhkan proses yang lama.

1.3.2 Metode Forward Selection

Metode ini merupakan metode yang cukup populer. Salah satu keuntungan metode ini adalah disajikannya melalui proses pembentukan model setahap demi setahap. Pada metode ini, variabel independen dimasukan satu persatu menurut urutan besar pengaruh terhadap variabel dependen. Metode ini dimulai dengan menghitung koefisien korelasi variabel independen dengan variabel dependen. Variabel independen yang memiliki koefisien korelasi terbesar (tanpa memperhatikan tanda korelasi + atau -) dimasukkan pertama kali ke dalam model.

1.3.3 Metode Backward Selection

Metode ini adalah kebalikan dari metode seleksi maju. Langkah pertama adalah masukkan semua variabel independen ke dalam model. Selanjutnya lakukan uji hipotesis untuk keseluruhan model. Jika terima \(H_{0}\) maka proses analisis selesai dan dapat disimpulkan bahwa tidak ada variabel independen yang dapat menjelaskan Y secara signifikan. Namun, jika tolak \(H_{0}\) maka perhatikan koefisien regresi atau besarnya pengaruh setiap variabel independen. Misalkan variabel independen yang memiliki pengaruh paling kecil adalah \(X_{3}\), ujilah apakah pengaruh variabel tersebut signifikan atau tidak. Jika pengaruhnya signifikan maka proses analisis selesai dan model awal diatas merupakan model terpilih. Namun jika pengaruhnya tidak signifikan maka \(X_{3}\) harus dikeluarkan dari model.

1.4 Uji Asumsi Klasik

1.4.1 Uji Normalitas

Uji Normalitas bertujuan untuk menguji apakah dalam model regresi suatu variabel pengganggu atau residual memiliki distribusi yang normal atau tidak. Suatu model regresi yang baik adalah dimana datanya berdistribusi normal atau mendekati normal. Untuk mengetahui normalitas data dapat digunakan analisis grafik dan uji statistik. Analisis grafik yaitu dengan melihat grafik histogram dan melihat normal probability plot. Sedangkan untuk uji statistik dalam normalitas dibagi dua yaitu uji statistik sederhana dengan melihat nilai kurtosis dan skewness dari residual dan uji statistik non parametrik Kolmogorov-Smirnov (Ghozali, 2009). Hipotesis dari Uji Normalitas:

\(H_{0}\) : Galat tersebar Normal
\(H_{1}\) : Galat tersebar tidak Normal

1.4.2 Uji Homoskedastisitas

Homoskedastisitas atau non heteroskedastisitas yaitu asumsi yang menyatakan bahwa varian setiap sisaan masih tetap sama baik untuk nilai-nilai pada variabel independen yang kecil maupun besar. Asumsi ini dapat ditulis sebagai berikut:

\[ var(\varepsilon i)=\sigma^2, i=1,2,3,...,n \]

1.4.3 Uji Linearitas

Uji linearitas adalah salah satu uji asumsi klasik yang dilakukan untuk mengetahui sifat linear pada sebaran data antara variabel X dan Y. Perlunya mengetahui adakah sifat linear pada hubungan X dan Y mempengaruhi tingkat valid atau tidaknya model regresi yang dihasilkan. Uji yang digunakan adalah uji harvey-collier dan uji reset.

1.4.4 Uji Autokorelasi

Uji Autokorelasi dilakukan untuk mengetahui adakah korelasi variabel yang ada di dalam model prediksi dengan perubahan waktu. Uji yang digunakan adalah uji durbin watson untuk menilai adanya autokorelasi pada residual. Uji durbin watson akan menghasilkan nilai Durbin Watson (DW) yang nantinya akan dibandingkan dengan dua nilai durbin Watson tabel, yaitu durbin Upper (DU) dan durbin Lower (DL).

1.5 Uji Hipotesis

1.5.1 Uji Simultan (Uji F)

Menurut Ghozali (2013: 171) uji simultan digunakan untuk mengetahui apakah variabel independen secara bersama-sama atau simultan mempengaruhi variabel dependen. Nilai uji F juga dapat dilihat dari output regresi yang dihasilkan oleh SPSS. Jika tingkat signifikansi < 0,05 (tingkat kepercayaan yang dipilih) maka \(H_{0}\) ditolak dan \(H_{1}\) diterima.

1.5.2 Uji Parsial (Uji t)

Uji parsial atau uji t digunakan untuk mengetahui apakah variabel independen secara parsial berpengaruh terhadap variabel dependen. Hipotesis yang digunakan dalam uji parsial adalah sebagai berikut:

\(H_{0}\) : variabel independen bukan merupakan penjelas yang signifikan terhadap variabel dependen.

\(H_{1}\) : variabel independen merupakan penjelas yang signifikan terhadap variabel dependen.

1.6 Data

Jenis data yang digunakan adalah data sekunder.

2 SOURCE CODE

2.1 Library yang Dibutuhkan

> library(olsrr)
> library(car)
> library(nortest)

2.2 Membangkitkan Data

> data1 <-read.csv("C:/Users/fadhi/OneDrive/Dokumen/Kuliah/Data.csv")
> knitr::kable(data1, caption="Data yang digunakan")
Data yang digunakan
X1 X2 X3 Y
5 18 12 5
7 22 12 6
6 24 15 7
6 25 14 7
8 25 16 8
6 26 15 8
8 30 17 9
6 26 14 7
10 28 18 10
9 20 12 6

X1 = Kompetensi X2 = Remunerasi X3 = Gaya Kepemimpinan Y = Kinerja Karyawan

2.3 Pengujian

2.3.1 Persamaan Regresi

Akan dibentuk persamaan regresi menggunakan function lm dan perintah summary untuk menampilkan hasil analisis regresi.

> reg1 <- lm(Y~X1+X2+X3, data=data1) 
> summary(reg1)

Call:
lm(formula = Y ~ X1 + X2 + X3, data = data1)

Residuals:
     Min       1Q   Median       3Q      Max 
-0.26057 -0.14977 -0.02025  0.05646  0.48663 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)   
(Intercept) -3.31453    0.67177  -4.934  0.00262 **
X1           0.19148    0.06668   2.872  0.02837 * 
X2           0.13822    0.05350   2.584  0.04156 * 
X3           0.40569    0.09696   4.184  0.00579 **
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 0.2762 on 6 degrees of freedom
Multiple R-squared:  0.9772,    Adjusted R-squared:  0.9658 
F-statistic: 85.81 on 3 and 6 DF,  p-value: 2.562e-05

2.3.2 Pengujian Model Terbaik

Akan ditentukan variabel mana yang dapat dimasukkan ke dalam persamaan regresi untuk mendapatkan model terbaik. Pengujian dilakukan menggunakan 3 metode pemilihan model terbaik yaitu All Possible Regression, Forward Selection, dan Backward Selection.

> #Metode All Possible Regression
> olsrr::ols_step_all_possible(reg1)
  Index N Predictors  R-Square Adj. R-Square Mallow's Cp
3     1 1         X3 0.9289970     0.9201216    12.70524
2     2 1         X2 0.8199723     0.7974688    41.42702
1     3 1         X1 0.3504095     0.2692107   165.13001
5     4 2      X1 X3 0.9518859     0.9381390     8.67533
6     5 2      X2 X3 0.9459220     0.9304711    10.24647
4     6 2      X1 X2 0.9107633     0.8852671    19.50878
7     7 3   X1 X2 X3 0.9772247     0.9658370     4.00000
> #Metode Forward Selection
> olsrr::ols_step_forward_p(reg1)

                           Selection Summary                             
------------------------------------------------------------------------
        Variable                  Adj.                                      
Step    Entered     R-Square    R-Square     C(p)        AIC       RMSE     
------------------------------------------------------------------------
   1    X3            0.9290      0.9201    12.7052    14.9098    0.4224    
   2    X1            0.9519      0.9381     8.6753    13.0183    0.3717    
   3    X2            0.9772      0.9658     4.0000     7.5393    0.2762    
------------------------------------------------------------------------
> #Metode Backward Selection
> olsrr::ols_step_backward_p(reg1)
[1] "No variables have been removed from the model."

2.3.3 Uji Asumsi

> library(car)
> library(nortest)
> 
> #Uji Normalitas
> shapiro.test(data1$Y)

    Shapiro-Wilk normality test

data:  data1$Y
W = 0.96624, p-value = 0.854
> nortest::ad.test(data1$Y)

    Anderson-Darling normality test

data:  data1$Y
A = 0.2409, p-value = 0.6967
> nortest::lillie.test(data1$Y)

    Lilliefors (Kolmogorov-Smirnov) normality test

data:  data1$Y
D = 0.17955, p-value = 0.4786
> #Uji Homoskedastisitas
> lmtest::bptest(reg1)

    studentized Breusch-Pagan test

data:  reg1
BP = 2.4941, df = 3, p-value = 0.4764
> #Uji Linearitas
> lmtest::resettest(reg1, power=2)

    RESET test

data:  reg1
RESET = 0.040397, df1 = 1, df2 = 5, p-value = 0.8486
> lmtest::harvtest(reg1)

    Harvey-Collier test

data:  reg1
HC = 0.46453, df = 5, p-value = 0.6618
> #Uji Non Autokorelasi
> lmtest::dwtest(reg1)

    Durbin-Watson test

data:  reg1
DW = 3.0445, p-value = 0.9864
alternative hypothesis: true autocorrelation is greater than 0

3 HASIL DAN PEMBAHASAN

3.1 Persamaan Regresi

Didapatkan persamaan regresi awal sebagai berikut:

\[ Y= -3.31453+0.19148X_{1}+0.13822X_{2}+0.40569X_{3} \]

3.2 Pengujian Model Terbaik

3.2.1 Metode All Possible Regression

Model ini hanya mengandung variable X1, X2 dan X3 karena pada R-Square dan Adj. R-Square dipilih nilai yang terbesar sedangkan Cp mallow yang kecil. Tetapi lebih diutamakan dilihat pada nilai Adj.R-Square karena model tersebut memenuhi asumsi non multikolinieritas.

3.2.2 Metode Forward Selection

Dengan metode forward selection didapat bahwa model terbaik mengandung variabel prediktor X1, X2, dan X3.

3.2.3 Metode Backward Selection

Output dari uji model terbaik dengan metode backward selection menghasilkan bahwa untuk mendapatkan model terbaik, tidak ada variabel prediktor yang dihapuskan dari model.

3.3 Pengujian Asumsi

3.3.1 Uji Normalitas

Hipotesis

\(H_{0}\) : Data berdistribusi normal

\(H_{1}\) : Data berdistribusi tidak normal

Ketiga uji normalitas menghasilkan p-value yang lebih besar dari α (0.05), maka terima \(H_{0}\). Dengan demikian, data kinerja karyawan dan ketiga faktornya menyebar secara normal.

3.3.2 Uji Homoskedastisitas

Hipotesis

\(H_{0}\) : Variansi galat bersifat homoskedastisitas

\(H_{1}\) : Variansi galat bersifat heteroskedastisitas

Dikarenakan p-value lebih besar dari α (0.05), maka \(H_{0}\) diterima. Dengan demikian, data memenuhi asumsi homoskedastisitas.

3.3.3 Uji Linearitas

Hipotesis

\(H_{0}\) : Model linier

\(H_{1}\) : Model non-linier

Dikarenakan p-value lebih besar dari α (0.05), maka \(H_{0}\) diterima. Sehingga, model data bersifat linier.

3.3.4 Uji Non-Autokorelasi

DW = 3.0445, nilai DW berada diantara 0≤DW≤4. Dari tabel didapatkan nilai DU=2.0163 dan DL=0.5253. Dikarenakan nilai DW terletak didaerah inconclusive maka tidak ada kesimpulan.

3.4 Pengujian Hipotesis

3.4.1 Uji Simultan

Nilai p (2.562e-05) < α (0.05), maka H0 ditolak. Maka dapat disimpulkan bahwa faktor kompetensi, remunerasi, dan gaya kepemimpinan berpengaruh terhadap kinerja karyawan.

3.4.2 Uji Parsial

3.4.2.1 X1 terhadap Y

Pengujian \(X_{1}\) terhadap Y Statistik Uji: Nilai p-value = 0.02837

P-value (0.02837) < α(0.05), H0 ditolak. Maka dapat disimpulkan secara parsial bahwa terdapat hubungan antara kompetensi (\(X_{1}\)) dengan kinerja karyawan (Y)

3.4.2.2 X2 terhadap Y

Pengujian \(X_{2}\) terhadap Y Statistik Uji : Nilai p-value = 0.04156

P-value (0.04156) < α(0.05), H0 ditolak. Maka dapat disimpulkan secara parsial bahwa terdapat hubungan antara remunerasi (\(X_{2}\)) dengan kinerja karyawan (Y)

3.4.2.3 X3 Terhadap Y

Pengujian \(X_{3}\) terhadap Y Statistik Uji : Nilai p-value = 0.00579

P-value (0.00579) < α(0.05), H0 ditolak. Maka dapat disimpulkan secara parsial bahwa terdapat hubungan antara gaya kepemimpinan (\(X_{3}\)) dengan kinerja karyawan (Y)

4 INTERPRETASI MODEL

Setelah didapatkan dari pengujian model terbaik bahwa seluruh variabel berpengaruh untuk mendapatkan model terbaik, maka dibentuk persamaan regresi yang memasukkan ketiga variabel. Model akhir dan terbaik yang terbentuk adalah:

\[ Y= −2.90559+0.30028X_{1}+0.33089X_{2} \] Memerlukan pembuangan pada peubah 𝑋3 untuk membentuk model terbaik. Selain itu, model tersebut merupakan suatu pengamatan yang menyebar normal, yang memenuhi asumsi non multikolinieritas, yang variansi galatnya bersifat homoskedastisitas. Ketika diuji asumsi linieritas pada RESET test dan Harvey-Collier test keputusan didapat yaitu terima H0 maka dapat disimpulkan bahwa model tersebut merupakan model linier.

5 DAFTAR PUSTAKA

Fahmeyzan, D., Soraya, S., Etmy, D. (2018). UJI NORMALITAS DATA OMZET BULANAN PELAKU EKONOMI MIKRO DESA SENGGIGI DENGAN MENGGUNAKAN SKEWNESS DAN KURTOSIS. Mataram. STMIK Bumigora.

Laksono, A. A., Sartika, I., Desmitasari, R., AtmaYadin, M., & dewi Atmaja, A. P. Analisis Regresi Terapan Metode-Metode Pemilihan Persamaan Terbaik Regresi Berganda.

Yuliara, I Made. (2016). Modul Regresi Linier Berganda. Bali. Fakultas MIPA Universitas Udayana.

Mardiatmoko, G. (2020). Pentingnya uji asumsi klasik pada analisis regresi linier berganda (studi kasus penyusunan persamaan allometrik kenari muda [canarium indicum l.]). Barekeng: Jurnal Ilmu Matematika dan Terapan, 14(3), 333-342.