1 PENDAHULUAN

Latar Belakang

Analisis regresi merupakan metode statistik yang melibatkan pemahaman dasar tentang statistika, metode pengumpulan data, dan hubungan antara variabel dependen dan independen. Analisis regresi adalah teknik statistik yang digunakan untuk memahami dan memodelkan hubungan antara satu atau lebih variabel independen (juga dikenal sebagai variabel prediktor) dengan satu variabel dependen (juga dikenal sebagai variabel respons).

2 TINJAUAN PUSTAKA

2.1 Asumsi-Asumsi Dalam Analisis Regresi

1. Asumsi Normalitas

Asumsi normalitas menyatakan bahwa kesalahan (error) dalam model regresi mengikuti distribusi normal. Dalam regresi linier, normalitas penting karena memungkinkan kita untuk menggunakan metode inferensial yang didasarkan pada asumsi normalitas, seperti uji hipotesis dan interval kepercayaan. Jika asumsi ini tidak terpenuhi, dapat mempengaruhi validitas statistik inferensial yang digunakan dalam analisis regresi.

2. Asumsi Homoskedastisitas

Asumsi homoskedastisitas menyatakan bahwa varians kesalahan (error) adalah konstan di semua tingkat nilai variabel independen. Dalam kata lain, tidak ada pola sistematis dalam variasi kesalahan seiring perubahan nilai variabel independen. Jika asumsi homoskedastisitas tidak terpenuhi (yang disebut heteroskedastisitas), maka estimasi standar kesalahan, interval kepercayaan, dan uji hipotesis dalam analisis regresi mungkin menjadi tidak valid. Hal ini dapat mempengaruhi kesimpulan statistik dan interpretasi hasil.

3. Asumsi Tidak Adanya Multikolinieritas

Asumsi ini menyatakan bahwa tidak ada korelasi yang tinggi antara variabel independen dalam model regresi. Dalam kata lain, setiap variabel independen memberikan kontribusi unik dalam menjelaskan variabel dependen, dan tidak ada redundansi dalam informasi yang diberikan oleh variabel independen. Jika terdapat multikolinieritas yang signifikan, di mana variabel independen saling berkorelasi kuat, dapat menyebabkan masalah dalam analisis regresi. Multikolinieritas dapat menyebabkan koefisien regresi menjadi tidak stabil dan sulit diinterpretasikan dengan jelas.

4. Asumsi Tidak Adanya Autokorelasi

Asumsi ini mengatakan bahwa tidak ada korelasi antara kesalahan (error) pada pengamatan-pengamatan yang berbeda. Dalam kata lain, kesalahan pada satu pengamatan tidak terkait dengan kesalahan pada pengamatan lainnya. Jika terdapat autokorelasi dalam model regresi, dapat mempengaruhi keefektifan estimasi parameter dan validitas statistik inferensial. Autokorelasi sering terjadi dalam data deret waktu, di mana pengamatan yang berdekatan dalam waktu cenderung saling berkorelasi. Untuk mengatasi autokorelasi, metode analisis regresi yang khusus untuk data deret waktu seperti autoregresi dapat digunakan.

3 SOURCE CODE

3.1 Library

Terlebih dahulu kita memasang packages untuk melakukan analisis regresi sebagai berikut.

library(readxl)
library(tseries)
## Registered S3 method overwritten by 'quantmod':
##   method            from
##   as.zoo.data.frame zoo
library(zoo)
## 
## Attaching package: 'zoo'
## The following objects are masked from 'package:base':
## 
##     as.Date, as.Date.numeric
library(lmtest)
library(carData)
library(car)
library(readxl)

3.2 Input data

Selanjutnya, kita dapat memuat data ke dalam Rstudio dengan perintah berikut.

data <- read_excel("C:/Users/Lenovo/Documents/Komstat1.xlsx")
Y <- as.matrix(data$Kinerja, ncol=1)
n <- dim(Y)[1]
X1 <- data$Kompensasi
X2 <- data$Kepemimpinan
X3 <- data$`Disiplin_Kerja`
X0 <- rep(1,30)
X <- data.frame(X0, X1, X2, X3)
X <- as.matrix(X)

3.3 Melakukan Analisis Regresi

#penduga koefisien
beta_duga <- solve(t(X)%*%X)%*%(t(X)%*%Y)
beta_duga
##          [,1]
## X0 -0.8992365
## X1  0.3453577
## X2  0.3659207
## X3  0.3766932
#uji F
y_duga <- X%*%beta_duga
u_duga <- Y - y_duga
y_bar <- rep(mean(Y),n)

#menghitung analisis ragam
JKT <- t(Y-y_bar)%*%(Y-y_bar)
JKR <- t(y_duga-y_bar)%*%(y_duga-y_bar)
JKG <- JKT-JKR
JK <- c(JKR, JKG, JKT)
JK
## [1] 289.7260 160.1407 449.8667
k = 4 #banyaknya peubah
dbR <- k-1
dbT <- n-1
dbG <- dbT-dbR
db <- c(dbR, dbG, dbT)
KT <- JK/db

#membentuk tabel anova
SK <- c("Regresi", "Galat", "Total")
anova <- data.frame(SK, JK, db, KT)
names(anova) <- c("SK", "JK", "db", "KT")
anova
##        SK       JK db        KT
## 1 Regresi 289.7260  3 96.575333
## 2   Galat 160.1407 26  6.159256
## 3   Total 449.8667 29 15.512644
#menghitung uji F
SU_F <- anova$KT[1]/anova$KT[2]
SU_F
## [1] 15.67971
#menghitung pvalue
pvalue_f <- pf(SU_F, anova$db[1], anova$db[2], lower.tail=FALSE)
pvalue_f
## [1] 5.045078e-06
#uji T
var_cov <- anova$KT[2]*solve(t(X)%*%X)
var_cov
##            X0           X1           X2           X3
## X0 57.4931734 -0.722171073 -0.243883733 -0.453259843
## X1 -0.7221711  0.024721941  0.001535823 -0.009443719
## X2 -0.2438837  0.001535823  0.005861563 -0.004498064
## X3 -0.4532598 -0.009443719 -0.004498064  0.031726210
sd <- rep(0,k)
for (i in 1:k){
  sd[i] <- sqrt(var_cov[i,i])
}
sd
## [1] 7.58242530 0.15723213 0.07656085 0.17811853
thit <- beta_duga/sd
thit
##          [,1]
## X0 -0.1185948
## X1  2.1964829
## X2  4.7794762
## X3  2.1148459
pvalue_t <- 2*pt(abs(thit), anova$db[2], lower.tail=FALSE)
pvalue_t
##            [,1]
## X0 9.065079e-01
## X1 3.717211e-02
## X2 6.015103e-05
## X3 4.418564e-02
#koefisien determinasi
Rsq <- anova$JK[1]/anova$JK[3]
Rsq
## [1] 0.6440264
#FUNGSI LM

library(readxl)

#membentuk matriks
data <- read_excel("C:/Users/Lenovo/Documents/Komstat1.xlsx")
reg1 <- lm(Kinerja~Kompensasi+Kepemimpinan+Disiplin_Kerja,data=data) 
summary(reg1)
## 
## Call:
## lm(formula = Kinerja ~ Kompensasi + Kepemimpinan + Disiplin_Kerja, 
##     data = data)
## 
## Residuals:
##    Min     1Q Median     3Q    Max 
## -4.409 -1.427 -0.029  1.375  4.518 
## 
## Coefficients:
##                Estimate Std. Error t value Pr(>|t|)    
## (Intercept)    -0.89924    7.58243  -0.119   0.9065    
## Kompensasi      0.34536    0.15723   2.196   0.0372 *  
## Kepemimpinan    0.36592    0.07656   4.779 6.02e-05 ***
## Disiplin_Kerja  0.37669    0.17812   2.115   0.0442 *  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 2.482 on 26 degrees of freedom
## Multiple R-squared:  0.644,  Adjusted R-squared:  0.603 
## F-statistic: 15.68 on 3 and 26 DF,  p-value: 5.045e-06

3.4 Memeriksa Asumsi

3.4.1 Asumsi Normalitas

library(tseries)
sisa <- residuals(reg1)
jarque.bera.test(sisa)
## 
##  Jarque Bera Test
## 
## data:  sisa
## X-squared = 0.61593, df = 2, p-value = 0.7349
shapiro.test(sisa)
## 
##  Shapiro-Wilk normality test
## 
## data:  sisa
## W = 0.97946, p-value = 0.8111
library(zoo)

3.4.2 Asumsi Homoskedastisitas

library(lmtest)
bptest(reg1)
## 
##  studentized Breusch-Pagan test
## 
## data:  reg1
## BP = 5.1691, df = 3, p-value = 0.1598

3.4.3 Asumsi Nonautokorelasi

dwtest(reg1)
## 
##  Durbin-Watson test
## 
## data:  reg1
## DW = 1.9433, p-value = 0.4269
## alternative hypothesis: true autocorrelation is greater than 0

3.4.4 Asumsi Nonmultikolinieritas

library(car)
vif(reg1)
##     Kompensasi   Kepemimpinan Disiplin_Kerja 
##       1.128677       1.122460       1.245850

4 HASIL DAN PEMBAHASAN

4.1 Regresi Linier

model regresi linier :

Y = -0.89924 - 0.34536X1 - 0.36592X2 - 0.37669X3
  1. Estimasi Koefisien Regresi:
  1. Signifikansi Statistik:
  1. Asumsi Regresi:

4.2 Uji asumsi Klasik

4.2.1 Uji Normalitas

Hipotesis

H0: Sampel berasal dari populasi berdistribusi normal

H1: Sampel tidak berasal dari populasi berdistribusi normal

α = 0.05

Statistik Uji

W = 0.97946

P-value = 0.8111

Keputusan

Karena P-value (0.8111) > α (0.05), maka Gagal Tolak H0

Interpretasi

Dapat disimpulkan bahwa sampel berasal dari populasi yang berdistribusi normal.

4.2.2 Uji Homoskedastisitas

Hipotesis

H0: Variansi galat bersifat homoskedastisitas

H1: Variansi galat bersifat heteroskedastisitas

α = 0.05

Statistik Uji

BP = 5.1691

P-value = 0.1598

Keputusan

Karena P-value (0.1598) > α (0.05), maka Gagal Tolak H0

Interpretasi

Dapat disimpulkan bahwa variansi galat bersifat homoskedastisitas.

4.2.3 Uji Nonautokorelasi

Hipotesis

H0: Tidak terjadi autokorelasi

H1: Terjadi autokorelasi

Statistik Uji

DW = 1.9433

P-value = 0.4269

Keputusan

Karena nilai DW terletak diantara 4-dU dan 4-dL, maka tidak ada kesimpulan.

4.2.4 Uji Nonmultikolinieritas

Interpretasi

Karena hasil perhitungan VIF < 10 maka memenuhi asumsi non multikolinieritas

  1. KESIMPULAN

Analisis regresi akan memberikan gambaran tentang hubungan antara variabel independen dan dependen, seberapa signifikan variabel independen mempengaruhi variabel dependen, kualitas penjelasan model, dan asumsi-asumsi yang terpenuhi. Analisis regresi dapat dilakukan jika memenuhi asumsi normalitas, asumsi homoskedastisitas, asumsi non autokorelasi, dan asumsi non multikolinearitas.

DAFTAR PUSTAKA

Imam Ghozali. (2011). Aplikasi Analisis Multivariate Dengan Program IBM

SPSS19.Edisi 5. Semarang: Badan Penerbit Universitas Diponegoro.

Kutner, M. H., et al. 2005. Applied Linear Statistical Models: Fifth Edition. New York: The McGraw-Hill Companies, Inc.

Bingham, N. H. & Fry, J. M. 2010. Regression Linear Models in Statistics. New York: Springer London Dordrecht Heidelberg.