1 PENDAHULUAN
1.1 Latar Belakang
Dedikasi seorang anggota dalam suatu organisasi di era sekarang menjadi promotor utama dalam perkembangan dan kemajuan suatu organisasi. Dalam setiap anggota sudah dari awal berkomitmen terhadap organisasi dengan mengerahkan segala usahanya. Setiap individu dituntut untuk melakukan pekerjaan sebaik mungkin agar suatu tujuan organisasi dapat tercapai. Sehingga dalam sebuah organisasi kerja sama dan dedikasi yang baik setiap anggota menjadi hal penting untuk kelangsungan suatu organisasi.
Menurut Indra Kharis (2010) Komitmen organisasi adalah suatu keadaan dimana seorang anggota/karyawan memihak organisasi tertentu serta tujuan-tujuan dan keinginan untuk mempertahankan keanggotaan dalam organisasi tersebut. Dalam perkembangannya komitmen organisasi memiliki faktor yang berpengaruh seperti lingkungan kerja dan job insecurity.
Lingkungan kerja merupakan segala sesuatu yang ada disekitar pekerjaan dan yang dapat mempengaruhi dirinya dalam menjalankan tugas-tugas yang dibebankan.Pada lingkungan kerja menjadi suatu alasan seseorang dapat percaya diri dan lebih semangat dalam melakukan kegiatannya.
Job insecurity didefinisikan sebagai keadaan rasa tidak aman yang diakibatkan oleh adanya ancaman terhadap keberlangsungan pekerjaannya. Hal ini menjelaskan bahwa job insecurity merupakan sebuah pengalaman internal individu yang dicirikan dengan adanya ketidakpastian terhadap keberlangsungan pekerjaannya.
Pada kasus tersebut untuk mengetahui pengaruh dari lingkungan kerja dan job insecurity maka dapat menggunakan suatu analisis statistik dengan menggunakan regresi linier berganda. Dengan adanya sumber data maka analisis yang tepat sesuai dengan tujuan tersebut menggunakan analisis regresi linier berganda.
2 Tinjauan Pustaka
2.1 Regresi Linier Berganda
Menurut Priyatno (2010:61) Analisis regresi linier berganda adalah hubungan secara linier antara dua atau lebih variabel independen dengan variabel dependen. Analisis ini untuk memprediksi nilai dari variabel dependen apabila nilai variabel independen mengalami kenaikan atau penurunan dan untuk mengetahui arah hubungan antara variabel independen dengan variabel dependen apakah masing masing variabel independen berhubungan positif atau negatif.
Persamaan regresi linier berganda secara matematik diekspresikan oleh :
\[
\hat Y = a +b_1x_1+b_2x_2+…+b_nx_n
\] Keterangan :
\(\hat Y\)= variabel tak bebas (nilai variabel yang akan diprediksi)
\(a\) = konstanta
\(b_n\)= nilai koefisien regresi \(x_1\),\(x_2\),…, \(x_n\)
\(x_n\)= variabel bebas
Bila terdapat 2 variabel bebas, yaitu \(x_1\) dan \(x_2\), maka bentuk persamaan regresinya adalah :
\[
\hat Y = a +b_1x_1+b_2x_2
\] Keadaan-keadaan bila koefisien-koefisien regresi, yaitu x1 dan x2, mempunyai nilai :
1. Nilai=0. Dalam hal ini variabel Y tidak dipengaruhi oleh \(x_1\) dan \(x_2\).
2. Nilainya negatif. Disini terjadi hubungan dengan arah terbalik antara variabel tak bebas Y dengan variabel-variabel \(x_1\) dan \(x_2\).
3. Nilainya positif. Disini terjadi hubungan yang searah antara variabel tak bebas Y dengan variabel bebas \(x_1\) dan \(x_2\).
2.2 Asumsi Klasik
Menurut Imam Ghozali (2011), uji asumsi klasik terhadap model regresi linier yang digunakan untuk dilakukan agar dapat diketahui apakah model regresi baik atau tidak. Tujuan pengujian asumsi klasik adalah untuk memberikan kepastian bahwa persamaan regresi yang diperoleh memiliki ketepatan dalam estimasi, tidak bias, dan konsisten. Sebelum melakukan analisis regresi terlebih dahulu dilakukan pengujian asumsi. Asumsi-asumsi yang harus dipenuhi dalam analisis regresi antara lain: Normalitas, Homoskedastisitas, Nonmultikolinieritas, dan Nonautokorelasi.
2.2.1 Asumsi Normalitas
Uji Normalitas bertujuan untuk menguji apakah dalam model regresi suatu variabel pengganggu atau residual memiliki distribusi yang normal atau tidak. Suatu model regresi yang baik adalah dimana datanya berdistribusi normal atau mendekati normal. Untuk mengetahui normalitas data dapat digunakan analisis grafik dan uji statistik. Analisis grafik yaitu dengan melihat grafik histogram dan melihat normal probability plot. Sedangkan untuk uji statistik dalam normalitas dibagi dua yaitu uji statistik sederhana dengan melihat nilai kurtosis dan skewness dari residual dan uji statistik non parametrik Kolmogorov-Smirnov (Ghozali, 2009).
Pengujian asumsi normalitas dapat pula dilakukan dengan menggunakan gambar normal P-P plot. uji normalitasnya dapat dilihat dari penyebaran data (titik) pada sumbu diagonal grafik atau normal dengan \(\varepsilon_1\)~ N(0,\(\sigma^2\)) (Gujarati, 2004:109). Dasar pengambilan keputusan dengan menggunakan grafik P-P plot adalah jika titik sebaran pengamatan berada di sekitar garis diagonal maka dapat dikatakan bahwa asumsi normalitas telah terpenuhi.
2.2.2 Asumsi Homoskedastisitas
Homoskedastisitas atau non heteroskedastisitas yaitu asumsi yang menyatakan bahwa varian setiap sisaan masih tetap sama baik untuk nilai-nilai pada variabel independen yang kecil maupun besar. Asumsi ini dapat ditulis sebagai berikut: \[ var(\varepsilon_i)\ =\sigma^2\ ,\ i=1,2,...,n\ \] untuk \(n\) menunjukkan jumlah observasi. Salah satu cara menguji kesamaan variansi yaitu dengan melihat pola tebaran sisaan (\(\varepsilon_i\)) terhadap nilai estimasi \(Y\). Jika tebaran sisaan bersifat acak (tidak membentuk pola tertentu), maka dikatakan bahwa variansi sisaan homogen.
2.2.3 Asumsi Nonmultikolinieritas
Menurut Montgomery, Peck, & Vining (1992: 111), kolinearitas terjadi karena terdapat korelasi yang cukup tinggi di antara variabel independen \(VIF\) (Variance Inflation Factor) merupakan salah satu cara untuk mengukur besar kolinieritas dan didefinisikan sebagai berikut: \[ VIF=\frac{1}{1-{r_s}^2} \] dengan \(j=1,2,...,k\) dan \(k\) adalah banyaknya variabel independen, sedangkan \(R_j^2\) adalah koefisien determinasi yang dihasilkan dari regresi variabel independen \(X_j\) dengan variabel independen lain. Hipotesis nol (\(H_0\)) pada pengujian multikolinieritas adalah tidak terdapat multikolinieritas, dengan kriteria keputusan jika nilai \(VIF\)<10 maka \(H_0\) diterima artinya tidak terdapat multikolinieritas.
2.2.4 Asumsi Non Autokorelasi
Menurut Gujarati (2004: 467), pengujian secara empiris dapat dilakukan dengan menggunakan p-value dan statistik uji Durbin Watson dengan membandingkan nilai d yang diperoleh dari perhitungan dengan nilai kritis d_L dan d_Uyang diperoleh dari tabel Durbin Watson. Dari variabel tersebut, didapat keputusan sebagai berikut :
- jika \(d < d_L\) atau \(d > 4 - d_L\), maka terjadi autokorelasi
- jika \(d_U < d < 4 - d_U\), maka tidak terjadi autokorelasi
- jika \(d_L \leq d \leq d_U\) atau \(4 - d_U \leq d \leq 4 - d_L\),maka tidak dapat disimpulkan apakah ada autokorelasi atau tidak.
2.3 Data
Data diambil dari hasil kuesioner anggota BEM FISIP Universitas Lampung dengan 58 observasi. Pada suatu organisasi ingin mengetahui hubungan lingkungan kerja dan job insecurity terhadap komitmen organisasi. dimisalkan \(x_1\) merupakan lingkungan kerja, \(x_2\) merupakan job insecurity dan \(Y\) merupakan komitmen organisasi sebagai berikut
> data <- read.table("c:/SEMESTER 4/dataregresi.csv", header = TRUE, sep=";")
> data
X1 X2 Y
1 40.000 40.000 37.778
2 40.000 37.143 37.778
3 46.667 38.571 43.333
4 41.111 31.429 31.111
5 37.778 40.000 37.778
6 40.000 40.000 35.556
7 50.000 44.286 45.556
8 50.000 47.143 45.556
9 40.000 37.143 36.667
10 40.000 40.000 35.556
11 43.333 31.429 38.889
12 40.000 40.000 38.889
13 50.000 32.857 47.778
14 40.000 35.714 38.889
15 50.000 38.571 40.000
16 43.333 40.000 37.778
17 42.222 41.429 46.667
18 44.444 35.714 41.111
19 42.222 40.000 41.111
20 46.667 47.143 47.778
21 44.444 34.286 33.333
22 42.222 40.000 43.333
23 48.889 48.571 47.778
24 47.778 48.571 47.778
25 40.000 40.000 36.667
26 40.000 40.000 36.667
27 40.000 40.000 36.667
28 40.000 40.000 38.889
29 40.000 40.000 38.889
30 38.889 40.000 38.889
31 40.000 40.000 38.889
32 40.000 40.000 36.667
33 40.000 40.000 38.889
34 40.000 40.000 38.889
35 40.000 40.000 38.889
36 40.000 40.000 37.778
37 40.000 40.000 37.778
38 40.000 40.000 38.889
39 40.000 40.000 38.889
40 40.000 40.000 38.889
41 40.000 40.000 38.889
42 42.222 41.429 38.889
43 40.000 40.000 38.889
44 40.000 41.429 42.222
45 40.000 40.000 38.889
46 40.000 40.000 38.889
47 40.000 40.000 46.667
48 45.556 44.286 45.556
49 41.111 50.000 41.111
50 50.000 50.000 38.889
51 40.000 40.000 38.889
52 50.000 45.714 38.889
53 40.000 40.000 38.889
54 42.222 50.000 38.889
55 40.000 40.000 38.889
56 50.000 50.000 38.889
57 50.000 50.000 38.889
58 38.889 40.000 38.889
> str(data)
'data.frame': 58 obs. of 3 variables:
$ X1: num 40 40 46.7 41.1 37.8 ...
$ X2: num 40 37.1 38.6 31.4 40 ...
$ Y : num 37.8 37.8 43.3 31.1 37.8 ...
> Y<-data$Y
> X1<-data$X1
> X2<-data$X23 Source Code
3.1 Uji asumsi
3.1.1 Uji normalitas
> library(lmtest)
> library(tseries)
> reg<-lm(Y~X1+X2,data=data)
> residual<- residuals(reg)
> jarque.bera.test(residual)
Jarque Bera Test
data: residual
X-squared = 1.0363, df = 2, p-value = 0.5956Mengaktifkan library (tseries) digunakan untuk pemakaian function uji normalitas yaitu jarque.bera.test(). sedangkan mengaktifkan library (lmtest) digunakan untuk pemakaian function linear model yaitu lm().
menghitung linear model terlebih dahulu menggunakan function lm() yang disimpan dengan nama reg. kemudian menghitung sisaan dari linear model menggunakan function residuals().
untuk menguji normalitas dapat menggunakan function jarque.bera.test()
3.1.2 Uji Homoskedastisitas
> library(lmtest)
> bptest(reg)
studentized Breusch-Pagan test
data: reg
BP = 11.866, df = 2, p-value = 0.002651mengaktifkan library (car) digunakan untuk function bptest(). Untuk menguji homoskedastisitas model maka dapat menggunakan uji Breusch_Pagan dengan menggunakan function bptest()
3.1.3 Uji Non Multikolinieritas
> library(car)
> vif(reg)
X1 X2
1.254376 1.254376 mengaktifkan library (car) yang digunakan untuk function vif(). Untuk menguji tidak adanya multikolinearitas dapat menghitung nilai \(VIF\) menggunakan function vif()
3.1.4 Uji Non Autokorelasi
> dwtest(reg)
Durbin-Watson test
data: reg
DW = 1.8846, p-value = 0.3107
alternative hypothesis: true autocorrelation is greater than 0Untuk menguji tidak adanya autokorelasi maka dapat menggunakan uji durbin-watson menggunakan function dwtest()
3.2 Analisis regresi
> y<-data[,3]mendefinisikan variabel dependen yaitu komitmen organisasi yang disimpan dengan nama y yang dipanggil dari data. kode [,3] yang berarti mengambil semua baris pada kolom 3.
> x<-data[,-3]mendefinisikan variaabel independen yaitu lingkungan kerja dan job insecurity yang disimpan dengan nama x yang dipanggil dari data. kode [,-3] yang berarti mengambil semua baris kecuali kolom 3 maka otomatis yang diambil kolom 1 dan 2.
> library(magrittr)
> x<-cbind(cons=1,x)%>% as.matrix()selanjutnya, pada varabel independen perlu untuk menambah konstanta 1 sehingga dapat menggunakan function cbind() untuk menambah kolom yang berisikian 1 sebanyak 58. kemudian menggunakan function as.matrix() agar terbentuk sebagai matriks yang disimpang dengan nama x.
> y
[1] 37.778 37.778 43.333 31.111 37.778 35.556 45.556 45.556 36.667 35.556
[11] 38.889 38.889 47.778 38.889 40.000 37.778 46.667 41.111 41.111 47.778
[21] 33.333 43.333 47.778 47.778 36.667 36.667 36.667 38.889 38.889 38.889
[31] 38.889 36.667 38.889 38.889 38.889 37.778 37.778 38.889 38.889 38.889
[41] 38.889 38.889 38.889 42.222 38.889 38.889 46.667 45.556 41.111 38.889
[51] 38.889 38.889 38.889 38.889 38.889 38.889 38.889 38.889untuk melihat hasil dari variabel independen (y) dapat mencetak hasilnya dengan memanggil y sehingga hasil dapat tercetak.
> x
cons X1 X2
[1,] 1 40.000 40.000
[2,] 1 40.000 37.143
[3,] 1 46.667 38.571
[4,] 1 41.111 31.429
[5,] 1 37.778 40.000
[6,] 1 40.000 40.000
[7,] 1 50.000 44.286
[8,] 1 50.000 47.143
[9,] 1 40.000 37.143
[10,] 1 40.000 40.000
[11,] 1 43.333 31.429
[12,] 1 40.000 40.000
[13,] 1 50.000 32.857
[14,] 1 40.000 35.714
[15,] 1 50.000 38.571
[16,] 1 43.333 40.000
[17,] 1 42.222 41.429
[18,] 1 44.444 35.714
[19,] 1 42.222 40.000
[20,] 1 46.667 47.143
[21,] 1 44.444 34.286
[22,] 1 42.222 40.000
[23,] 1 48.889 48.571
[24,] 1 47.778 48.571
[25,] 1 40.000 40.000
[26,] 1 40.000 40.000
[27,] 1 40.000 40.000
[28,] 1 40.000 40.000
[29,] 1 40.000 40.000
[30,] 1 38.889 40.000
[31,] 1 40.000 40.000
[32,] 1 40.000 40.000
[33,] 1 40.000 40.000
[34,] 1 40.000 40.000
[35,] 1 40.000 40.000
[36,] 1 40.000 40.000
[37,] 1 40.000 40.000
[38,] 1 40.000 40.000
[39,] 1 40.000 40.000
[40,] 1 40.000 40.000
[41,] 1 40.000 40.000
[42,] 1 42.222 41.429
[43,] 1 40.000 40.000
[44,] 1 40.000 41.429
[45,] 1 40.000 40.000
[46,] 1 40.000 40.000
[47,] 1 40.000 40.000
[48,] 1 45.556 44.286
[49,] 1 41.111 50.000
[50,] 1 50.000 50.000
[51,] 1 40.000 40.000
[52,] 1 50.000 45.714
[53,] 1 40.000 40.000
[54,] 1 42.222 50.000
[55,] 1 40.000 40.000
[56,] 1 50.000 50.000
[57,] 1 50.000 50.000
[58,] 1 38.889 40.000> beta<-solve(t(x)%*%x)%*%(t(x)%*%y)menentukan nilai beta dengan cara menghitung perkalian dengan function solve transpose matriks x dengan matriks x, dan perkalian transpose matriks x dengan matriks y. kemudian hasil keduanya dikalikan sehingga hasilnya akan disimpan dengan nama beta.
> round(beta,4)
[,1]
cons 16.5528
X1 0.3920
X2 0.1621menggunakan function round() hasil dari beta akan dibulatkan 4 angka dibelakang koma.
> y_duga<-x%*%betamenentukan nilai y duga dengan cara mengalikan matriks x dengan beta
> e<- y-y_dugamenentukan sisaan dengan cara mengurangi vektor y dengan nilai y duga.
> n<-nrow(x)menentukan banyaknya baris pada matriks x yang disimpang nama n.
> MSE <- sum(e^2)/(n-1)menghitung mean square eror dengan membagi dari penjumlaham sisaan kuadrat dengan jumlah baris dikurangi satu. function sum dapat digunakan untuk menjumlahkan nilai.
> VarCov<-MSE*solve(t(x)%*%x)menentukan ragam dengan mengalikan mean square eror (MSE) dengan perkalian dari transpose matriks x dengan matriks x. kemudian hasil akan disimpan dengan nama VarCov.
> se<-VarCov%>%diag()%>%sqrt()menentukan standart eror dengan mengakarkan VarCov. kemudian hasilnya akan disimpan dengan nama se
> p<-ncol(x)menghitung banyaanya kolom dari matriks x dengan menggunakan function ncol() yang akan disimpan dengan nama p.
> SU<-beta/semenentukan statistik uji dengan cara membagi beta atau penduga dengan standart eror. kemudia hasilnya akan disimpan dengan nama SU
> pval<-c(2*pt(abs(SU[1]),n-1,lower.tail=F),
+ 2*pt(abs(SU[-1]),n-p,lower.tail=F))menghitung p-value dengan function 2*pt(abs(), n-1, lower.tail=(), 2*pt(abs(SU, n-p, lower.tail=())))
> data.frame(
+ Koefesien = beta%>%rownames(),
+ Pend.Parameter = beta%>% round(4),
+ Std.Error= se %>% round(3),
+ Stat.uji= SU %>% round(3),
+ pValue= pval %>% round (3),
+ sig = ifelse(pval < 0.001, "***",
+ ifelse(pval < 0.01, "**",
+ ifelse(pval < 0.05, "*",
+ ifelse(pval < 0.1, ".",""))))
+ )
Koefesien Pend.Parameter Std.Error Stat.uji pValue sig
cons cons 16.5528 4.947 3.346 0.001 **
X1 X1 0.3920 0.119 3.292 0.002 **
X2 X2 0.1621 0.104 1.553 0.126 membuat data frame agar terbentuk tabel analisis regresi yang lebih mudah untuk dilihat. menggunakan function data.frame() untuk menggabungkan beberapa vektor sehingga terbentuklah kolom koefesien, pend.parameter, std.error, stat.uji, pValue, dan keterangan signifikansi. sedangkan pada baris terdapat constanta, X1 dan X2.
4 Hasil dan Pembahasan
4.1 Uji normalitas
\(H_0\) : residual menyebar normal
\(H_1\) : residual tidak menyebar normal
karena p-value (0,5956) > alfa (0,05), maka gagal tolak \(H_o\). Maka menurut uji Jarque Bera sisaan berdistribusi normal.
4.2 Uji Homoskedastisitas
\(H_0\) : \(\delta_1\) = \(\delta_2\) = …=\(\delta_k\) = 0
\(H_1\) : paling tidak terdapat satu \(\delta_j\) \(\neq\) 0, \(j=1,2,..,k\)
karena p-value (0,002651) < alfa (0,05), maka tolak \(H_o\). Maka menurut uji Breusch-Pagan terdapat hubungan x dengan ragam.
4.3 Uji Multikoliniearitas
Pendeteksian adanya multikolinieritas adalah dengan melihat nilai Variance Inflation Factor (VIF). Nilai VIF lebih dari 10 mengindikasikan adanya multikolinieritas diantara variabel.
Berdasarkan perhitungan VIF, didapatkan nilai VIF untuk variabel Lingkungan Kerja (X1) dan Job Insecurity (X2) adalah 1.254 lebih kecil dari 10. Sehingga mengacu pada dasar pengambilan keputusan dalam uji multikolinieritas dapat disimpulkan bahwa tidak terjadi gejala multikolinieritas dalam model regresi.
4.4 Uji Non Autokorelasi
\(H_0\) : Tidak terdapat autokorelasi pada model
\(H_1\) : Terdapat autokorelasi pada model
karena p-value (0,3107) > alfa (0,05), maka gagal tolak \(H_0\). Dapat disimpulkan menurut uji Durbin-Watson tidak terdapat autokorelasi pada model.
4.5 Analisis Regresi Linier Berganda
Dapat diketahui hasil model regresi berganda yang terbentuk yaitu \[ \hat Y= 16,5528 +0,392X_1 + 0,1621X_2 \]
Berdasarkan persamaan regresi linier di atas, dapat diketahui jika variabel job insecurity bernilai konstan, maka setiap kenaikan variabel lingkungan kerja sebesar satu satuan akan meningkatkan komitmen organisasi sebesar 0.392. Selain itu, jika variabel lingkungan kerja bernilai konstan, maka setiap kenaikan variabel job insecurity sebesar satu satuan akan meningkatkan komitmen organisasi sebesar 0.162.
5 Daftar Pustaka
Ghozali, Imam. (2013). Aplikasi Analisis Multivariate dengan Program IBM SPSS 23. Semarang. Badan Penerbit Universitas Diponegoro.
Gujarati, Damodar. (2004). Basic Econometrics (Ekonometrika Dasar). Alih bahasaSumarno Zain. Jakarta: Penerbit Erlangga.
Indra, Kharis. 2010. Pengaruh Komitmen Organisasional dan Kepuasan Kerja Terhadap Kinerja Guru SMA Negeri 3 Bandung. Jurnal Administrasi Bisnis. Vol. 3. No.1.
Montgomery, D.C., Peck, E.A., & Vining, G.G. (1992). Introduction to Linear Regression Analysis. Toronto: John Wiley & Sons
Priyatno, Duwi. (2010). Paham Analisa Statistik Data dengan SPSS. Yogyakarta. MediaKom.