> library(knitr)
> opts_chunk$set(message = FALSE)
> opts_chunk$set(warning = FALSE)
> opts_chunk$set(comment = "")
> opts_chunk$set(collapse = TRUE)
> opts_chunk$set(error = TRUE)
> opts_chunk$set(prompt = TRUE)
> opts_chunk$set(fig.align = 'center')

1 PENDAHULUAN

1.1 LATAR BELAKANG

Analisis regresi linear sederhana adalah suatu alat analisis yang digunakan untuk mengukur pengaruh antara variabel bebas (X) dan variabel terikat (Y) (Sugiyono, 2011). Analisis Regresi Linear Sederhana merupakan analisis yang berupa metode statistik yang digunakan untuk mengukur pengaruh antara satu variabel prediktor (variabel bebas) terhadap variabel respon (terikat). Namun, informasi dari x menjelaskan tidak secara keseluruhan variabilitas yang dilihat di y. Nama lain dari variabel penjelas adalah variabel prediktor atau regressor variable. Oleh karena itu, secara keseluruhan subjek ini disebut dengan regresi atau regression.( Bingham & Fry, 2010)

1.2 ASUMSI YANG MELANDASI

Terdapat 4 asumsi yang harus terpenuhi agar analisis regresi dapat dilakukan, yaitu :

1.2.1 Asumsi Normalitas

Regresi linier normal mengasumsikan bahwa setiap ui didistribusikan secara normal dengan rata-rata nol dan varians σ2. Hal-hal yang mempengaruhi mengapa berdistribusi normal, yaitu :

  1. ui merupakan pengaruh gabungan (terhadap variabel tak bebas) dari sejumlah besar variabel bebas yang tidak dimunculkan secara explisit dalam model regresi.

  2. Suatu varians dari central limit theorem menyatakan bahwa bahkan apabila banyaknya variabel tidak sangat besar atau jika variabel ini tidak independen benar, jumlahnya masih bisa didistribusikan secara normal.

  3. Dengan asumsi kenormalan, distribusi probabilitas penaksir OLS dengan mudah diperoleh, karena merupakan sifat distribusi normal bahwa setiap fungsi linier dari variabel-variabel yang diditribusikan secara normal dengan sendirinya didistribusikan secara normal.

  4. Distribusi normal adalah distribusi yang relatif sederhana yang hanya melibatkan dua parameter (rata-rata dan varians), distribusi ini sangat dikenal dan sifat-sifat teoritisnya telah dipelajari secara luas dalam statistik matematik.

1.2.2 Asumsi Homoskedastisitas

Salah satu asumsi yang harus dipenuhi ketika menggunakan regresi linier berganda dengan metode OLS (Ordinary Least Square) agar estimasi parameter model bersifat BLUE (Best Linear Unbiased Estimator) adalah homoskedastisitas, yakni semua error mempunyai varians sama atau konstan. Asumsi homoskedastisitas ini pada intinya ingin mengatakan bahwa varian dari setiap error untuk variabel-variabel bebas yang diketahui merupakan suatu bilangan konstan.

1.2.3 Asumsi Non Autokorelasi

Istilah autokorelasi didefinisikan sebagai korelasi yang terjadi antar anggota serangkaian observasi yang diurutkan menurut waktu (seperti dalam data deret waktu) atau ruang (seperti dalam data cross sectional). Dalam konteks regresi, model regresi linear klasik mengasumsikan bahwa autokorelasi tersebut tidak terdapat dalam gangguan ui. Sederhananya dapat dikatakan bahwa usur gangguan yang berhubungan dengan observasi tidak dipengaruhi oleh unsur gangguan yang berhubungan dengan pengamatan lain manapun.

1.2.4 Asumsi Multikolinearitas

Multikolinearitas dilakukan dengan tujuan untuk mengetahui apakah pada suatu model regresi ditemukan adanya korelasi antar variabel independent (Ghozali, 2016). Pengujian multikolinearitas bertujuan untuk mengetahui apakah model regresi ditemukan adanya korelasi antar variabel independent/ atau variable bebas (Ghozali, 2016).

2 SOURCE CODE

2.1 DATA

Data pengaruh Promosi terhadap Penjualan UKM dengan X1 sebagai biaya promosi, X2 sebagai jumlah penjualan, dan Y sebagai pendapatan.

> x1<- c(500,300,700,800,600,900,1000,1000,1100,1300)
> x2<- c(35,50,25,30,35,25,30,20,20,15)
> Y <- c(1000,900,1300,1500,1700,1700,2000,2100,2000,2400)
> data <- data.frame(x1,x2,Y)

2.2 ANALISIS REGRESI LINIER

> #perhitungan dengan matrix
> n <- length(Y)
> x0 <- rep(1,n)
> xx <- matrix(c(x0,x1,x2), nrow = n)
> xtx <- t(xx)%*%xx
> xtx1 <- solve(xtx)
> xty <- t(xx)%*%Y
> beta <- xtx1%*%xty
> beta
            [,1]
[1,] -229.323308
[2,]    1.883459
[3,]   12.101306
> #uji simultan
> ytopi <- beta[1]+beta[2]*x1+beta[3]*x2
> Ei <- Y-ytopi
> JKT = sum((Y-mean(Y))^2)
> JKG = sum(Ei^2)
> JKR = JKT-JKG
> dbreg = ncol(data)-1
> dbt = n-1
> dbg = dbt-dbreg
> KTR = JKR/dbreg
> KTG = JKG/dbt
> FHIT = KTR/KTG
> uji.anova <- data.frame(SK = c("Regresi","Galat","Total"),
+                         JK = c(JKR,JKG,JKT),
+                         DB = c(dbreg,dbg,dbg),
+                         KT = c(KTR,KTG,""),
+                         FHIT = c(FHIT,"",""),
+                         p.value = c((1-pf(FHIT,dbreg,dbg,F)),"",""))
> uji.anova
       SK        JK DB               KT             FHIT              p.value
1 Regresi 1900915.3  2 950457.657301148 35.1898718000896 0.000222662785544614
2   Galat  243084.7  7 27009.4094886339                                      
3   Total 2144000.0  7                                                       
> #uji parsial
> sigma<-(t(Y-(xx%*%beta))%*%(Y-(xx%*%beta)))/(n-ncol(data))
> sb<-sqrt(sigma%*%diag(xtx1))
> tb<-t(beta)/sb
> tb
           [,1]     [,2]      [,3]
[1,] -0.2802209 3.781728 0.8080626
> 2*(1-pt(abs(tb),dbg))
          [,1]        [,2]      [,3]
[1,] 0.7874084 0.006876739 0.4456425
> #koefisien determinasi
> Rsq <- 1-(JKG/JKT)
> Rsq
[1] 0.8866209
> #function R
> model <- lm(Y~x1+x2)
> summary(model)

Call:
lm(formula = Y ~ x1 + x2)

Residuals:
    Min      1Q  Median      3Q     Max 
-140.48  -89.85  -54.55   -4.81  375.70 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)   
(Intercept) -229.323    818.366  -0.280  0.78741   
x1             1.883      0.498   3.782  0.00688 **
x2            12.101     14.976   0.808  0.44564   
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 186.4 on 7 degrees of freedom
Multiple R-squared:  0.8866,    Adjusted R-squared:  0.8542 
F-statistic: 27.37 on 2 and 7 DF,  p-value: 0.0004908
>   lm(formula = Y ~ x1 + x2)

Call:
lm(formula = Y ~ x1 + x2)

Coefficients:
(Intercept)           x1           x2  
   -229.323        1.883       12.101  
> uji.anova <- anova(model)
> uji.anova
Analysis of Variance Table

Response: Y
          Df  Sum Sq Mean Sq F value    Pr(>F)    
x1         1 1878240 1878240  54.087 0.0001553 ***
x2         1   22675   22675   0.653 0.4456425    
Residuals  7  243085   34726                      
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

2.3 ASUMSI NORMALITAS

> #asumsi normalitas Perhitungan Menggunakan Function R
> library(car)
Error in library(car): there is no package called 'car'
> shapiro.test(residuals(model))

    Shapiro-Wilk normality test

data:  residuals(model)
W = 0.78485, p-value = 0.009484

2.4 ASUMSI HOMOSKEDASTISITAS

> #asumsi homoskedastisitas
> eim <- abs(Ei)
> r1 <- cor(x1,eim)
> r2 <- cor(x2,eim)
> r1; r2
[1] -0.3086093
[1] 0.143229
> tx1ei <- r1*(sqrt(n-2))/sqrt(1-r1^2)
> tx2ei <- r2*(sqrt(n-2))/sqrt(1-r2^2)
> tx1ei; tx2ei
[1] -0.9176715
[1] 0.4093332
> ttab <- qt(1-0.025,dbg)
> ttab
[1] 2.364624

2.5 ASUMSI NON AUTOKORELASI

> #asumsi non autokorelasi
> library(lmtest)
Error in library(lmtest): there is no package called 'lmtest'
> dwtest(model)
Error in dwtest(model): could not find function "dwtest"

2.6 ASUMSI NON MULTIKOLINIEARITAS

> #Asumsi non Multikolinearitas
> TOL <- 1/vif(model)
Error in vif(model): could not find function "vif"
> VIF <- vif(model)
Error in vif(model): could not find function "vif"
> VIF; TOL
Error in eval(expr, envir, enclos): object 'VIF' not found
Error in eval(expr, envir, enclos): object 'TOL' not found

3 HASIL DAN PEMBAHASAN

3.1 REGRESI LINIER

3.1.1 MODEL REGRESI LINIER

Y = -229.323308 + 1.883459X1 + 12.101306X2

3.1.2 UJI SIMULTAN

H0 : seluruh variabel independen tidak berpengaruh signifikan terhadap variabel dependen

H1 : minimal ada 1 variabel independen yang berpengaruh signifikan terhadap variabel dependen

Statistik uji:

p-value = 0.0002

Titik kritis :

alpha = 0.05

Keputusan :

Statistik uji (0.0002) < Titik kritis (0.05), maka Tolak H0

Kesimpulan:

Dengan taraf nyata 5% dapat disimpulkan bahwa minimal ada 1 variabel independen yang berpengaruh signifikan terhadap variabel respon.

3.1.3 KOEFISIEN DETERMINASI

R2 = 0.8866

Dengan demikian, biaya promosi (X1) dan hasil penjualan (X2) dapat menjelaskan 88.66% dari pendapatan (Y).

3.2 ASUMSI NORMALITAS

H0 : Populasi berdistribusi normal

H1 : Populasi tidak berdistribusi normal

Statistik uji:

p-value = 0.009484

Titik kritis :

alpha = 0.05

Keputusan:

Statistik uji (0.009484) < Titik kritis (0.05), maka Tolak H0.

Kesimpulan:

Dengan taraf nyata 5% dapat disimpulkan bahwa populasi tidak berdistribusi normal.

3.3 ASUMSI HOMOSKEDASTISITAS

H0 : Tidak terjadi heteroskedastisitas

H1 : Terjadi heteroskedastisitas

Statistik uji:

tx1ei = -0.9176715

tx2ei = 0.4093332

Titik kritis :

ttab = 2.364624

Keputusan:

Statistik uji (|-0.9176715|) dan (|0.4093332|) < Titik kritis (2.364624), maka Terima H0.

Kesimpulan:

Dengan taraf nyata 5% dapat disimpulkan bahwa tidak terjadi masalah heteroskedastisitas atau asumsi homoskedastisitas terpenuhi.

3.4 ASUMSI NON AUTOKORELASI

H0 : Tidak terjadi autokorelasi

H1 : Terjadi autokorelasi

Statistik uji:

p-value = 0.8131

Titik kritis :

alpha = 0.05

Keputusan:

Statistik uji (0.8131) < Titik kritis (0.05), maka Terima H0.

Kesimpulan:

Dengan taraf nyata 5% dapat disimpulkan bahwa tidak terjadi masalah autokorelasi.

3.5 ASUMSI NON MULTIKOLINEARITAS

VIF = 0.1715686

TOL = 5.828571

Nilai VIF < 10 dan nilai Tolerance > 0,01, maka dinyatakan tidak terjadi multikolinearitas.

4 KESIMPULAN

Analisis regresi linear sederhana adalah suatu alat analisis yang digunakan untuk mengukur pengaruh antara variabel bebas (X) dan variabel terikat (Y) dengan 4 asumsi yang harus terpenuhi agar analisis regresi dapat dilakukan. Uji ini juga tidak dapat dilakukan jika belum memenuhi asumsi-asumsinya.

5 DAFTAR PUSTAKA

Bingham, N. H. & Fry, J. M. 2010. Regression Linear Models in Statistics. New York: Springer London Dordrecht Heidelberg.

Ghozali. (2016). Aplikasi Analisis Multivariete Dengan Program IBM SPSS.Semarang: Badan Penerbit Universitas Diponegoro.

Sugiyono. 2011. Metode penelitian kuantitatif dan R&D. Alfabeta