> library(knitr)
> opts_chunk$set(message = FALSE)
> opts_chunk$set(warning = FALSE)
> opts_chunk$set(comment = "")
> opts_chunk$set(collapse = TRUE)
> opts_chunk$set(error = TRUE)
> opts_chunk$set(prompt = TRUE)
> opts_chunk$set(fig.align = 'center')1 PENDAHULUAN
1.1 LATAR BELAKANG
Analisis regresi linear sederhana adalah suatu alat analisis yang digunakan untuk mengukur pengaruh antara variabel bebas (X) dan variabel terikat (Y) (Sugiyono, 2011). Analisis Regresi Linear Sederhana merupakan analisis yang berupa metode statistik yang digunakan untuk mengukur pengaruh antara satu variabel prediktor (variabel bebas) terhadap variabel respon (terikat). Namun, informasi dari x menjelaskan tidak secara keseluruhan variabilitas yang dilihat di y. Nama lain dari variabel penjelas adalah variabel prediktor atau regressor variable. Oleh karena itu, secara keseluruhan subjek ini disebut dengan regresi atau regression.( Bingham & Fry, 2010)
1.2 ASUMSI YANG MELANDASI
Terdapat 4 asumsi yang harus terpenuhi agar analisis regresi dapat dilakukan, yaitu :
1.2.1 Asumsi Normalitas
Regresi linier normal mengasumsikan bahwa setiap ui didistribusikan secara normal dengan rata-rata nol dan varians σ2. Hal-hal yang mempengaruhi mengapa berdistribusi normal, yaitu :
ui merupakan pengaruh gabungan (terhadap variabel tak bebas) dari sejumlah besar variabel bebas yang tidak dimunculkan secara explisit dalam model regresi.
Suatu varians dari central limit theorem menyatakan bahwa bahkan apabila banyaknya variabel tidak sangat besar atau jika variabel ini tidak independen benar, jumlahnya masih bisa didistribusikan secara normal.
Dengan asumsi kenormalan, distribusi probabilitas penaksir OLS dengan mudah diperoleh, karena merupakan sifat distribusi normal bahwa setiap fungsi linier dari variabel-variabel yang diditribusikan secara normal dengan sendirinya didistribusikan secara normal.
Distribusi normal adalah distribusi yang relatif sederhana yang hanya melibatkan dua parameter (rata-rata dan varians), distribusi ini sangat dikenal dan sifat-sifat teoritisnya telah dipelajari secara luas dalam statistik matematik.
1.2.2 Asumsi Homoskedastisitas
Salah satu asumsi yang harus dipenuhi ketika menggunakan regresi linier berganda dengan metode OLS (Ordinary Least Square) agar estimasi parameter model bersifat BLUE (Best Linear Unbiased Estimator) adalah homoskedastisitas, yakni semua error mempunyai varians sama atau konstan. Asumsi homoskedastisitas ini pada intinya ingin mengatakan bahwa varian dari setiap error untuk variabel-variabel bebas yang diketahui merupakan suatu bilangan konstan.
1.2.3 Asumsi Non Autokorelasi
Istilah autokorelasi didefinisikan sebagai korelasi yang terjadi antar anggota serangkaian observasi yang diurutkan menurut waktu (seperti dalam data deret waktu) atau ruang (seperti dalam data cross sectional). Dalam konteks regresi, model regresi linear klasik mengasumsikan bahwa autokorelasi tersebut tidak terdapat dalam gangguan ui. Sederhananya dapat dikatakan bahwa usur gangguan yang berhubungan dengan observasi tidak dipengaruhi oleh unsur gangguan yang berhubungan dengan pengamatan lain manapun.
1.2.4 Asumsi Multikolinearitas
Multikolinearitas dilakukan dengan tujuan untuk mengetahui apakah pada suatu model regresi ditemukan adanya korelasi antar variabel independent (Ghozali, 2016). Pengujian multikolinearitas bertujuan untuk mengetahui apakah model regresi ditemukan adanya korelasi antar variabel independent/ atau variable bebas (Ghozali, 2016).
2 SOURCE CODE
2.1 DATA
Data pengaruh Promosi terhadap Penjualan UKM dengan X1 sebagai biaya promosi, X2 sebagai jumlah penjualan, dan Y sebagai pendapatan.
> x1<- c(500,300,700,800,600,900,1000,1000,1100,1300)
> x2<- c(35,50,25,30,35,25,30,20,20,15)
> Y <- c(1000,900,1300,1500,1700,1700,2000,2100,2000,2400)
> data <- data.frame(x1,x2,Y)2.2 ANALISIS REGRESI LINIER
> #perhitungan dengan matrix
> n <- length(Y)
> x0 <- rep(1,n)
> xx <- matrix(c(x0,x1,x2), nrow = n)
> xtx <- t(xx)%*%xx
> xtx1 <- solve(xtx)
> xty <- t(xx)%*%Y
> beta <- xtx1%*%xty
> beta
[,1]
[1,] -229.323308
[2,] 1.883459
[3,] 12.101306> #uji simultan
> ytopi <- beta[1]+beta[2]*x1+beta[3]*x2
> Ei <- Y-ytopi
> JKT = sum((Y-mean(Y))^2)
> JKG = sum(Ei^2)
> JKR = JKT-JKG
> dbreg = ncol(data)-1
> dbt = n-1
> dbg = dbt-dbreg
> KTR = JKR/dbreg
> KTG = JKG/dbt
> FHIT = KTR/KTG
> uji.anova <- data.frame(SK = c("Regresi","Galat","Total"),
+ JK = c(JKR,JKG,JKT),
+ DB = c(dbreg,dbg,dbg),
+ KT = c(KTR,KTG,""),
+ FHIT = c(FHIT,"",""),
+ p.value = c((1-pf(FHIT,dbreg,dbg,F)),"",""))
> uji.anova
SK JK DB KT FHIT p.value
1 Regresi 1900915.3 2 950457.657301148 35.1898718000896 0.000222662785544614
2 Galat 243084.7 7 27009.4094886339
3 Total 2144000.0 7 > #uji parsial
> sigma<-(t(Y-(xx%*%beta))%*%(Y-(xx%*%beta)))/(n-ncol(data))
> sb<-sqrt(sigma%*%diag(xtx1))
> tb<-t(beta)/sb
> tb
[,1] [,2] [,3]
[1,] -0.2802209 3.781728 0.8080626> 2*(1-pt(abs(tb),dbg))
[,1] [,2] [,3]
[1,] 0.7874084 0.006876739 0.4456425> #koefisien determinasi
> Rsq <- 1-(JKG/JKT)
> Rsq
[1] 0.8866209> #function R
> model <- lm(Y~x1+x2)
> summary(model)
Call:
lm(formula = Y ~ x1 + x2)
Residuals:
Min 1Q Median 3Q Max
-140.48 -89.85 -54.55 -4.81 375.70
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -229.323 818.366 -0.280 0.78741
x1 1.883 0.498 3.782 0.00688 **
x2 12.101 14.976 0.808 0.44564
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 186.4 on 7 degrees of freedom
Multiple R-squared: 0.8866, Adjusted R-squared: 0.8542
F-statistic: 27.37 on 2 and 7 DF, p-value: 0.0004908
> lm(formula = Y ~ x1 + x2)
Call:
lm(formula = Y ~ x1 + x2)
Coefficients:
(Intercept) x1 x2
-229.323 1.883 12.101 > uji.anova <- anova(model)
> uji.anova
Analysis of Variance Table
Response: Y
Df Sum Sq Mean Sq F value Pr(>F)
x1 1 1878240 1878240 54.087 0.0001553 ***
x2 1 22675 22675 0.653 0.4456425
Residuals 7 243085 34726
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 12.3 ASUMSI NORMALITAS
> #asumsi normalitas Perhitungan Menggunakan Function R
> library(car)
Error in library(car): there is no package called 'car'
> shapiro.test(residuals(model))
Shapiro-Wilk normality test
data: residuals(model)
W = 0.78485, p-value = 0.0094842.4 ASUMSI HOMOSKEDASTISITAS
> #asumsi homoskedastisitas
> eim <- abs(Ei)
> r1 <- cor(x1,eim)
> r2 <- cor(x2,eim)
> r1; r2
[1] -0.3086093
[1] 0.143229> tx1ei <- r1*(sqrt(n-2))/sqrt(1-r1^2)
> tx2ei <- r2*(sqrt(n-2))/sqrt(1-r2^2)
> tx1ei; tx2ei
[1] -0.9176715
[1] 0.4093332> ttab <- qt(1-0.025,dbg)
> ttab
[1] 2.3646242.5 ASUMSI NON AUTOKORELASI
> #asumsi non autokorelasi
> library(lmtest)
Error in library(lmtest): there is no package called 'lmtest'
> dwtest(model)
Error in dwtest(model): could not find function "dwtest"2.6 ASUMSI NON MULTIKOLINIEARITAS
> #Asumsi non Multikolinearitas
> TOL <- 1/vif(model)
Error in vif(model): could not find function "vif"
> VIF <- vif(model)
Error in vif(model): could not find function "vif"
> VIF; TOL
Error in eval(expr, envir, enclos): object 'VIF' not found
Error in eval(expr, envir, enclos): object 'TOL' not found3 HASIL DAN PEMBAHASAN
3.1 REGRESI LINIER
3.1.1 MODEL REGRESI LINIER
Y = -229.323308 + 1.883459X1 + 12.101306X2
3.1.2 UJI SIMULTAN
H0 : seluruh variabel independen tidak berpengaruh signifikan terhadap variabel dependen
H1 : minimal ada 1 variabel independen yang berpengaruh signifikan terhadap variabel dependen
Statistik uji:
p-value = 0.0002
Titik kritis :
alpha = 0.05
Keputusan :
Statistik uji (0.0002) < Titik kritis (0.05), maka Tolak H0
Kesimpulan:
Dengan taraf nyata 5% dapat disimpulkan bahwa minimal ada 1 variabel independen yang berpengaruh signifikan terhadap variabel respon.
3.1.3 KOEFISIEN DETERMINASI
R2 = 0.8866
Dengan demikian, biaya promosi (X1) dan hasil penjualan (X2) dapat menjelaskan 88.66% dari pendapatan (Y).
3.2 ASUMSI NORMALITAS
H0 : Populasi berdistribusi normal
H1 : Populasi tidak berdistribusi normal
Statistik uji:
p-value = 0.009484
Titik kritis :
alpha = 0.05
Keputusan:
Statistik uji (0.009484) < Titik kritis (0.05), maka Tolak H0.
Kesimpulan:
Dengan taraf nyata 5% dapat disimpulkan bahwa populasi tidak berdistribusi normal.
3.3 ASUMSI HOMOSKEDASTISITAS
H0 : Tidak terjadi heteroskedastisitas
H1 : Terjadi heteroskedastisitas
Statistik uji:
tx1ei = -0.9176715
tx2ei = 0.4093332
Titik kritis :
ttab = 2.364624
Keputusan:
Statistik uji (|-0.9176715|) dan (|0.4093332|) < Titik kritis (2.364624), maka Terima H0.
Kesimpulan:
Dengan taraf nyata 5% dapat disimpulkan bahwa tidak terjadi masalah heteroskedastisitas atau asumsi homoskedastisitas terpenuhi.
3.4 ASUMSI NON AUTOKORELASI
H0 : Tidak terjadi autokorelasi
H1 : Terjadi autokorelasi
Statistik uji:
p-value = 0.8131
Titik kritis :
alpha = 0.05
Keputusan:
Statistik uji (0.8131) < Titik kritis (0.05), maka Terima H0.
Kesimpulan:
Dengan taraf nyata 5% dapat disimpulkan bahwa tidak terjadi masalah autokorelasi.
3.5 ASUMSI NON MULTIKOLINEARITAS
VIF = 0.1715686
TOL = 5.828571
Nilai VIF < 10 dan nilai Tolerance > 0,01, maka dinyatakan tidak terjadi multikolinearitas.
4 KESIMPULAN
Analisis regresi linear sederhana adalah suatu alat analisis yang digunakan untuk mengukur pengaruh antara variabel bebas (X) dan variabel terikat (Y) dengan 4 asumsi yang harus terpenuhi agar analisis regresi dapat dilakukan. Uji ini juga tidak dapat dilakukan jika belum memenuhi asumsi-asumsinya.
5 DAFTAR PUSTAKA
Bingham, N. H. & Fry, J. M. 2010. Regression Linear Models in Statistics. New York: Springer London Dordrecht Heidelberg.
Ghozali. (2016). Aplikasi Analisis Multivariete Dengan Program IBM SPSS.Semarang: Badan Penerbit Universitas Diponegoro.
Sugiyono. 2011. Metode penelitian kuantitatif dan R&D. Alfabeta