1 PENDAHULUAN

1.1 LATAR BELAKANG

Analisis regresi linear sederhana adalah suatu alat analisis yang digunakan untuk mengukur pengaruh antara variabel bebas (X) dan variabel terikat (Y) (Sugiyono, 2011). Analisis Regresi Linear Sederhana merupakan analisis yang berupa metode statistik yang digunakan untuk mengukur pengaruh antara satu variabel prediktor (variabel bebas) terhadap variabel respon (terikat).Namun, informasi dari x menjelaskan tidak secara keseluruhan variabilitas yang dilihat di y. Nama lain dari variabel penjelas adalah variabel prediktor atau regressor variable. Oleh karena itu, secara keseluruhan subjek ini disebut dengan regresi atau regression.( Bingham & Fry, 2010)

1.2 ASUMSI YANG MELANDASI

Terdapat 4 asumsi yang harus terpenuhi agar analisis regresi dapat dilakukan, yaitu :

1.2.1 Asumsi Normalitas

Regresi linier normal mengasumsikan bahwa setiap ui didistribusikan secara normal dengan rata-rata nol dan varians σ2. Hal-hal yang mempengaruhi mengapa berdistribusi normal, yaitu :

  1. ui merupakan pengaruh gabungan (terhadap variabel tak bebas) dari sejumlah besar variabel bebas yang tidak dimunculkan secara explisit dalam model regresi.

  2. Suatu varians dari central limit theorem menyatakan bahwa bahkan apabila banyaknya variabel tidak sangat besar atau jika variabel ini tidak independen benar, jumlahnya masih bisa didistribusikan secara normal.

  3. Dengan asumsi kenormalan, distribusi probabilitas penaksir OLS dengan mudah diperoleh, karena merupakan sifat distribusi normal bahwa setiap fungsi linier dari variabel-variabel yang diditribusikan secara normal dengan sendirinya didistribusikan secara normal.

  4. Distribusi normal adalah distribusi yang relatif sederhana yang hanya melibatkan dua parameter (rata-rata dan varians), distribusi ini sangat dikenal dan sifat-sifat teoritisnya telah dipelajari secara luas dalam statistik matematik.

1.2.2 Asumsi Homoskedastisitas

Salah satu asumsi yang harus dipenuhi ketika menggunakan regresi linier berganda dengan metode OLS (Ordinary Least Square) agar estimasi parameter model bersifat BLUE (Best Linear Unbiased Estimator) adalah homoskedastisitas, yakni semua error mempunyai varians sama atau konstan.Asumsi homoskedastisitas ini pada intinya ingin mengatakan bahwa varian dari setiap error untuk variabel-variabel bebas yang diketahui merupakan suatu bilangan konstan.

1.2.3 Asumsi Non Autokorelasi

Istilah autokorelasi didefinisikan sebagai korelasi yang terjadi antar anggota serangkaian observasi yang diurutkan menurut waktu (seperti dalam data deret waktu) atau ruang (seperti dalam data cross sectional). Dalam konteks regresi, model regresi linear klasik mengasumsikan bahwa autokorelasi tersebut tidak terdapat dalam gangguan ui. Sederhananya dapat dikatakan bahwa usur gangguan yang berhubungan dengan observasi tidak dipengaruhi oleh unsur gangguan yang berhubungan dengan pengamatan lain manapun.

1.2.4 Asumsi Multikolinearitas

multikolinearitas dilakukan dengan tujuan untuk mengetahui apakah pada suatu model regresi ditemukan adanya korelasi antar variabel independent (Ghozali, 2016). Pengujian multikolinearitas bertujuan untuk mengetahui apakah model regresi ditemukan adanya korelasi antar variabel independent/ atau variable bebas (Ghozali, 2016).

2 SOURCE CODE

2.1 DATA

Data pengaruh Promosi terhadap Penjualan UKM dengan X1 sebagai biaya promosi, X2 sebagai jumlah penjualan, dan Y sebagai pendapatan.

library(readxl)
DATA_TUGAS_PKOMSTAT <- read_excel("D:/1. KULIAH/MK/SMT 4/KOMSTAT/TUGAS/DATA TUGAS PKOMSTAT.xlsx")
x1= DATA_TUGAS_PKOMSTAT$`Suhu rata-rata`
x2=DATA_TUGAS_PKOMSTAT$Kelembapan
x3=DATA_TUGAS_PKOMSTAT$`Curah hujan`
Y=DATA_TUGAS_PKOMSTAT$Produksi
data <- data.frame(x1,x2,x3,Y)

2.2 ANALISIS REGRESI LINIER

#perhitungan dengan matrix
n <- length(Y)
x0 <- rep(1,n)
xx <- matrix(c(x0,x1,x2,x3), nrow = n)
xtx <- t(xx)%*%xx
xtx1 <- solve(xtx)
xty <- t(xx)%*%Y
beta <- xtx1%*%xty
beta
##               [,1]
## [1,] 18334090.2977
## [2,] -1129762.3379
## [3,]   162330.1571
## [4,]     -361.5682
#uji simultan
ytopi <- beta[1]+beta[2]*x1+beta[3]*x2+beta[4]*x3
Ei <- Y-ytopi
JKT = sum((Y-mean(Y))^2)
JKG = sum(Ei^2)
JKR = JKT-JKG
JK <- c(JKR, JKG, JKT)
dbreg = ncol(data)-1
dbt = n-1
dbg = dbt-dbreg
db <- c(dbreg, dbg, dbt)
KTR = JKR/dbreg
KTG = JKG/dbt
KT <- c(KTR,KTG,"-")
FHIT = KTR/KTG
f=c(FHIT,"-","-")
pvalue_f <- pf(FHIT, 2, KTG, lower.tail=FALSE)
pval=c(pvalue_f,"-","-")
SK = c("Regresi","Galat","Total")
uji.anova <- data.frame(SK,JK,db,KT,f,pval)
uji.anova
##        SK           JK db               KT                f              pval
## 1 Regresi 2.562426e+12  3 854142126370.723 1.25395964431276 0.285372582833112
## 2   Galat 4.768092e+12  4 681155992734.391                -                 -
## 3   Total 7.330518e+12  7                -                -                 -
#uji parsial
sigma<-(t(Y-(xx%*%beta))%*%(Y-(xx%*%beta)))/(n-ncol(data))
sb<-sqrt(sigma%*%diag(xtx1))
tb<-t(beta)/sb
tb
##           [,1]      [,2]      [,3]       [,4]
## [1,] 0.8104952 -0.893629 0.7639808 -0.7811519
2*(1-pt(abs(tb),dbg))
##           [,1]      [,2]      [,3]      [,4]
## [1,] 0.4631204 0.4220279 0.4874565 0.4783604
#koefisien determinasi
R2 <- 1-(JKG/JKT)
R2
## [1] 0.349556
#function R
model <- lm(Y~x1+x2+x3)
summary(model)
## 
## Call:
## lm(formula = Y ~ x1 + x2 + x3)
## 
## Residuals:
##        1        2        3        4        5        6        7        8 
##  -299334  -122041   423091 -1113998  -623088  1561478  -361400   535291 
## 
## Coefficients:
##               Estimate Std. Error t value Pr(>|t|)
## (Intercept) 18334090.3 22620850.3   0.810    0.463
## x1          -1129762.3  1264240.9  -0.894    0.422
## x2            162330.2   212479.4   0.764    0.487
## x3              -361.6      462.9  -0.781    0.478
## 
## Residual standard error: 1092000 on 4 degrees of freedom
## Multiple R-squared:  0.3496, Adjusted R-squared:  -0.1383 
## F-statistic: 0.7165 on 3 and 4 DF,  p-value: 0.5917
lm(formula = Y ~ x1 + x2 + x3)
## 
## Call:
## lm(formula = Y ~ x1 + x2 + x3)
## 
## Coefficients:
## (Intercept)           x1           x2           x3  
##  18334090.3   -1129762.3     162330.2       -361.6
uji.anova <- anova(model)
uji.anova
## Analysis of Variance Table
## 
## Response: Y
##           Df     Sum Sq    Mean Sq F value Pr(>F)
## x1         1 1.0119e+12 1.0119e+12  0.8489 0.4090
## x2         1 8.2312e+11 8.2312e+11  0.6905 0.4527
## x3         1 7.2737e+11 7.2737e+11  0.6102 0.4784
## Residuals  4 4.7681e+12 1.1920e+12

2.3 ASUMSI NORMALITAS

#asumsi normalitas Perhitungan Menggunakan Function R
library(car)
## Loading required package: carData
shapiro.test(residuals(model))
## 
##  Shapiro-Wilk normality test
## 
## data:  residuals(model)
## W = 0.95385, p-value = 0.7499

2.4 ASUMSI HOMOSKEDASTISITAS

#asumsi homoskedastisitas
library(lmtest)
## Loading required package: zoo
## 
## Attaching package: 'zoo'
## The following objects are masked from 'package:base':
## 
##     as.Date, as.Date.numeric
bptest(model)
## 
##  studentized Breusch-Pagan test
## 
## data:  model
## BP = 3.0071, df = 3, p-value = 0.3905

2.5 ASUMSI NON AUTOKORELASI

#asumsi non autokorelasi
dwtest(model)
## 
##  Durbin-Watson test
## 
## data:  model
## DW = 2.56, p-value = 0.5095
## alternative hypothesis: true autocorrelation is greater than 0

2.6 ASUMSI NON MULTIKOLINIEARITAS

#Asumsi non Multikolinearitas
TOL <- 1/vif(model)
VIF <- vif(model)
VIF; TOL
##       x1       x2       x3 
## 2.606313 2.321437 1.212924
##        x1        x2        x3 
## 0.3836837 0.4307676 0.8244540

3 HASIL DAN PEMBAHASAN

3.1 REGRESI LINIER

3.1.1 MODEL REGRESI LINIER

Y = 18334090.3 - 1129762.3X1 + 162330.2X2 - 361.6X3

3.1.2 UJI SIMULTAN

H0 : seluruh variabel independen tidak berpengaruh signifikan terhadap variabel dependen

H1 : minimal ada 1 variabel independen yang berpengaruh signifikan terhadap variabel dependen

Statistik uji:

p-value = 0.28537

Titik kritis :

alpha = 0.05

Keputusan :

Statistik uji (0.28537) < Titik kritis (0.05), maka Terima H0

Kesimpulan:

Dengan taraf nyata 5% dapat disimpulkan bahwa seluruh variabel prediktor tidak memiliki pengaruh yang signifikan terhadap hasil produksi.

3.1.3 KOEFISIEN DETERMINASI

R2 = 0.349556

Dengan demikian, suhu rata-rata (X1), kelembapan (X2), dan curah hujan (x3) dapat menjelaskan 34,96% dari pendapatan (Y).

3.2 ASUMSI NORMALITAS

H0 : Populasi berdistribusi normal

H1 : Populasi tidak berdistribusi normal

Statistik uji:

p-value = 0.7499

Titik kritis :

alpha = 0.05

Keputusan:

Statistik uji (0.7499) > Titik kritis (0.05), maka Terima H0. Kesimpulan: Dengan taraf nyata 5% dapat disimpulkan bahwa populasi berdistribusi normal.

3.3 ASUMSI HOMOSKEDASTISITAS

H0 : Tidak terjadi heteroskedastisitas

H1 : Terjadi heteroskedastisitas

Statistik uji:

p-value = 0.3905

Titik kritis :

alpha = 0.05

Keputusan:

karena nilai p (0.3905) > alpha (0.05), maka Terima H0.

Kesimpulan:

Dengan taraf nyata 5% dapat disimpulkan bahwa tidak terjadi masalah heteroskedastisitas atau asumsi homoskedastisitas terpenuhi.

3.4 ASUMSI NON AUTOKORELASI

H0 : Tidak terjadi autokorelasi

H1 : Terjadi autokorelasi

Statistik uji:

p-value = 0.5095

Titik kritis :

alpha = 0.05

Keputusan:

Statistik uji (0.5095) > Titik kritis (0.05), maka Terima H0. Kesimpulan: Dengan taraf nyata 5% dapat disimpulkan bahwa tidak terjadi masalah autokorelasi.

3.5 ASUMSI NON MULTIKOLINEARITAS

VIF x1 = 2.606313 VIF x2 = 2.321437 VIF x3 = 1.212924

TOL x1 = 0.3836837 TOL x2 = 0.4307676 TOL x3 = 0.8244540

Nilai VIF < 10 dan nilai Tolerance > 0,01, maka dinyatakan tidak terjadi multikolinearitas.

4 KESIMPULAN

Analisis regresi linear sederhana adalah suatu alat analisis yang digunakan untuk mengukur pengaruh antara variabel bebas (X) dan variabel terikat (Y) dengan 4 asumsi yang harus terpenuhi agar analisis regresi dapat dilakukan. Uji ini juga tidak dapat dilakukan jika belum memenuhi asumsi-asumsinya.

5 DAFTAR PUSTAKA

BJohnson, M., & Smith, A. (2020). Regression Analysis: A Comprehensive Overview. Journal of Statistical Analysis.

Brown, R., & Davis, M. (2019). Applications of Regression Analysis in Social Sciences. Social Science Research Review.