function (theme = β€œcayman”, highlight = github)

1 PENDAHULUAN

1.1 Latar Belakang

Analisis regresi merupakan suatu cara yang dapat digunakan untuk mengetahui hubungan sebuah variabel tak bebas (regressand) dengan sebuah atau lebih variabel bebas (regressor). Menurut Drapper and Smith (1992) analisis regresi merupakan metode analisis yang dapat digunakan untuk menganalisis data dan mengambil kesimpulan yang bermakna tentang hubungan ketergantungan variabel terhadap variabel lainnya. Bila dalam analisisnya hanya melibatkan sebuah variabel bebas, maka analisis yang digunakan adalah analisis regresi linier sederhana. Hubungan atau korelasi antara dua variabel melalui persamaan regresi sederhana untuk meramalkan nilai dengan yang sudah diketahui nilainya tidak cukup, sebab selain masih ada variabel lainnya. Apabila dalam persamaan analisis regresi melibatkan dua atau lebih variabel bebas, maka regresi ini disebut analisis regresi linier berganda (multiple linier regression). Analisis regresi linier berganda mempunyai lebih dari satu variabel bebas, sering menimbulkan masalah karena terjadinya hubungan kuat antara dua variabel bebasnya yang mengakibatkan terjadinya kolenieritas ganda (multikolenierity). Gejala ini menimbulkan masalah dalam pemodelan regresi. Kolerasi yang sangat tinggi akan menghasilkan penaksiran yang berbias, tidak stabil dan mungkin jauh dari nilai sasaran Gonst dan Mason (1997) sehingga galat yang dihasilkan menjadi besar dan variansi parameternya menjadi tak hingga. Salah satu cara untuk mengatasi masalah tersebut adalah melalui uJI Asumsi Klasik. Salah satu aplikasi pengujian asumsi klasik dalam regresi linier yaitu pengaruh Jumlah Promosi Objek Wisata dan Jumlah pengunjung terhadap Jumlah Pendapatan Objek Wisata Per minggu di kota Brebes. Berdasarkan latar belakang atau uraian di atas maka penulis tertarik untuk menganalisis Pengaruh Jumlah Promosi Objek Wisata dan Jumlah pengunjung terhadap Jumlah Pendapatan Objek Wisata Per minggu di kota Brebes.

1.2 Analisis Regresi

1.2.1 Analisis Regresi Linier Sederhana

Persamaan regresi linier sederhana merupakan suatu model persamaan yang menggambarkan hubungan antara variabel penjelas/ prediktor (X) dengan satu variabel respon (Y). Model regresi linier sederhana dapat dituliskan dalam bentuk seperti: \[ \hat{Y}= π‘Ž + 𝑏X \] Keterangan:
\(\hat{Y}\) = Variabel ResponsΒ  π‘Ž = Konstanta, intersep
𝑏 = Konstanta regresi/ slope
𝑋 =Variabel bebas

1.2.2 Analisis Regresi Linier Berganda

Suatu model regresi linier berganda dapat dituliskan dalam bentuk seperti: \[ Y= 𝛽_0 + 𝛽_1𝑋_1 𝛽_2𝑋_2+. . +𝛽_π‘˜π‘‹_𝐾+ πœ€ \] Dimana nilai intersepnya \(Ξ²_0\) dan \(Ξ²_j\) ; j = 1 dan untuk model regresi sampai dengan k paremeter dapat digabungkan atau disesuaikan dengan j variabel (Weisberg, 2014). Nilai residual atau error yang merupakan penampung bagi faktor lain yang tida k tercakup dalam model, seperti variabel bebas selain j =1 sampai dengan k, kesalahan dalam pengamatan, pengukuran dan sebagainya.

1.2.3 Uji Asumsi Klasik

Untuk mendapatkan model analisis regresi linier berganda yang baik, yaitu model yang memiliki nilai estimasi terbaik dan bebas dari simpangan secara linier maka perlu dilakukan uji asumsi klasik. Uji asumsi klasik kemudian menjadi persyaratan sebelum melakukan analisis regresi linier berganda (Susilo et al., 2014). Uji asumsi klasik harus terpenuhi, jika tidak maka akan dihasilkan garis regresi yang tidak cocok untuk memprediksi (Sudarmanto, 2005).

A. Uji Normalitas
Uji Normalitas diperlukan untuk menguji apakah dalam model regresi linier berganda, variabel pengganggu atau residual memiliki distribusi normal. Seperti diketahui bahwa uji T dan F mengasumsikan bahwa nilai residual mengikuti distribusi normal. Jika asumsi normalitas dilangar maka uji statistic yang dilakukan kemudian menjadi tidak valid untuk jumlah sampel kecil. Ada dua cara untuk mendeteksi apakah residual berdistribusi normal atau tidak yaitu dengan analisis grafik dan uji statistik (Ghozali, 2013).

1.Analisis Grafik
Salah satu cara termudah untuk melihat normalitas residual untuk data dengan sampel kecil adalah dengan melihat grafik histogram dengan membandingkan antara data observasi dengan distribusi yang mendekati distribusi normal. Metode grafik yang lain bisa dilakukan dengan melihat normal probability plot yang membandingkan distribusi kumulatif dan distribusi normal. Jika garis yang terbentuk adalah satu garis lurus diagonal yang mengikuti garis diagonal distrbusi normal maka dapat dikatakan bahwa data berdistribusi normal.
2. Analisis Statistik
Analisis statistik yang dapat digunakan untuk menguji normalitas adalah uji Kolmogorov Smirnov. langkah langkah melakukan uji Kolmogorov Smirnov adalah sebagai berikut (Yuliasty, 2015):

  • Membuat hipotesis
    \(H_0\) : Data berdistribusi normal
    \(H_1\) : Data tidak berdistribusi normal

  • Menentukan taraf nyata
    Menentukan seberapa besar peluang membuat risiko kesalahan dalam mengambil keputusan menolak hipotesis yang benar. Biasanya dilambangkan dengan Ξ± atau yang sering disebutkan sebagai taraf signifikan.

  • Kriteria Pengujian
    Dhitung ≀ Dtabel , maka terima \(H_0\)
    Dhitung > Dtabel , maka tolak \(H_0\)
    Jika menggunakan p-value maka,
    P-value < Ξ± , maka tolak \(H_0\)
    P-value > Ξ±, maka terima \(H_0\)

  • Statistik Uji \[ 𝐷hitung = 𝑆𝑒𝑝 |𝐹_𝑛(π‘₯) βˆ’ 𝐹_0(π‘₯)| \]

Keterangan:
𝐹_𝑛(π‘₯) = Nilai distribusi kumulatif sampel
𝐹_0 (π‘₯) = Nilai distribusi kumulatif dibawah x (untuk distribusi normal : P(Z<zi))

B. Uji Multikolinieritas
Analisis regresi linier berganda adalah bentuk fungsional antara suatu variabel independent dengan bebeapa variabel dependen. Analisis regresi adalah analisis yang bertujuan untuk melihat apakah terdapat hubungan antara variabel independen dan variabel dependen. Regresi linier adalah regresi yang variabel independennya berpangkat lebih dari satu, Pentingnya dilakukan uji multikolinieritas adalah dalam rangka menguji apakah dalam model regresi linier berganda ditemukan adanya korelasi antar variabel independent. Dalam analisis regresi yang baik disyaratkan tidak terjadi multikolinieritas diantara variabel independennya (Supardi, 2013).
Untuk mengetahui terjadinya multikolinieritas diantara variabel independent dalam suatu model regrsi adalah dengan menguji nilai VIF (Variance Inflation Factor) atau Tol (Tolerance). Dengan kedua ukuran ini nantinya didapatkan setiap variabel penjelas manakah yang dijelaskan oleh variabel penjelas yang lain.Tolerance akan mengukur ragam dari variabel penjelas yang dipilih yang tidak dijelaskan oleh variabel penjelas lainnya. Sehingga hubungan dari dua ukuran tersebut adalah jika nilai tolerance rendah maka nilai VIF justru akan semakin tinggi. Kelemahan dari dua ukuran ini adalah tidak akan diketahui variabel mana yang saling berhubungan atau berkorelasi (Ghozali, 2018).

  • Hipotesis yang diuji:
    \(H_0\) : Terjadi multikolinieritas antara variabel independen
    \(H_1\) : Tidak terjadi multikolinieritas antara variabel independenΒ 

  • Rumus menentukan nilai 𝑉𝐼𝐹 dan π‘‡π‘œπ‘™ adalah sebagai (Supardi, 2013): \[ 𝑉𝐼𝐹 =\frac {𝐼}{1 βˆ’ π‘Ÿ_𝑖^2} ; 𝑖 = 1,2,3, . . , π‘˜ \] \[ π‘‡π‘œπ‘™ =\frac {𝐼}{𝑉𝐼𝐹}= 1 βˆ’ π‘Ÿ_𝑖^2 \]

Keterangan:
𝑉𝐼𝐹 = Nilai Variance Inflation Factor
π‘‡π‘œπ‘™ = Nilai Tolerance variabel independent
π‘Ÿ_𝑖 = Koefisien korelasi antara variabel bebas ke-i dengan variabel independen lainnya

  • Kriteria Pengujian Nilai π‘‡π‘œπ‘™ > 0,1 atau nilai 𝑉𝐼𝐹 < 10, maka terima \(H_1\)
    Nilai π‘‡π‘œπ‘™ ≀ 0,1 atau nilai 𝑉𝐼𝐹 β‰₯ 10, maka tolak \(H1\)

C. Uji Heterokedastisitas
Uji Heterokedastisitas dipergunakan untuk menguji apakah terdapat ragam dari residual yang berbeda yang dapat membiaskan hasil yang telah dihitung (Lestari & Setyawan, 2017). Model regresi yang memenuhi persyaratan adalah dimana terdpat kesamaan ragam dari residual yang berbeda atau yang disebutkan dengan homokedastisitas. Untuk mengetahui terjadi heterokedastisitas diantara variabel independent dalam suatu model regresi dilakukan dengan uji Glesjer. Uji Glesjer secara umum dinotasikan sebagai berikut: \[ |𝑒| = π‘Ž_1 + 𝑏_2𝑋_2 \] Keterangan:
|𝑒| = Nilai absolut dari residual yang dihasilkan dari regresi model
\(𝑋_2\) = Variabel penjelas

Model regresi akan terbatasi heterokedastisitas, jika variabel penjelas secara statistic tidak signifikan mempengaruhi residual. Dengan melihat nilai Sig. t > 0,05

D. Uji Autokorelasi
Untuk mendeteksi apakah pada model regresi tersebut terdapat autokorelasi maka dapat digunakan uji Durbin Watson (DW) (Rayyan, 2018):

  1. Hipotesis
    \(H_0\) : 𝜌 = 0 (tidak ada autokorelasi) \(H_1\) : 𝜌 β‰  0,

  2. Statistik Uji
    \[ π·π‘Š = \frac {sum_{t=2}^{N} (πœ€_π‘‘βˆ’ πœ€_t-1)^2}{sum_{t=2}^{N} πœ€_𝑑^2} \]

  3. Daerah kritis
    Tolak hipotesis nol apabila:
    4 βˆ’ \(𝑑_𝑙4\)< π·π‘Š < 4 ; autokorelasi negatif
    4 βˆ’\(𝑑_𝑒\)< π·π‘Š < 4 βˆ’ \(𝑑_𝑙\); daerah keraguanΒ  2 < π·π‘Š < 4 βˆ’ \(𝑑_𝑒\); tidak ada autokorelasiΒ  \(𝑑_1\) < π·π‘Š < \(𝑑_𝑒\); daerah keraguan 0 < π·π‘Š< 𝑑𝑙; autokorelasi positifΒ 

Keterangan:Β  \(𝑑_𝑙\)= batas bawah nilai kritis pada tabel Durbin Watson
\(𝑑_𝑒\)= batas atas nilai kritis pada tabel Durbin Watson
π‘˜ = jumlah variabel bebas
𝑛 = jumlah sampel yang relevan

1.3 Data

Data merupakan sekumpulan informasi yang diperoleh dari suatu pengamatan maupun pencarian pada beberapa sumber tertentu. Menurut jenisnya, data dapat dibagi menjadi dua, yaitu data kualitatif dan kuantitatif. Data kuantitatif adalah data yang penyajiannya berbentuk verbal seperti lisan atau kata (Noeng Muhadjir, 1996). Sedangkan data kuantitatif merupakan data yang dapat diukur atau dihitung secara langsung karena berupa bilangan (Sugiyono, 2010). Berdasarkan sumber datanya, data juga dapat dibagi menjadi dua, yaitu data primer dan sekunder. Data primer adalah data yang berasal dari sumber asli yang dapat dicari melalui wawancara atau kuesioner. Sedangkan data sekunder adalah data yang telah diolah dan didapatkan melalui web, berita.Data Yang digunakan disini diambil dari [https://brebeskab.bps.go.id/]

2 SOURCE CODE

2.1 Library yang Dibutuhkan

> # Library
> library(readxl)
> library(tseries)
> library(car)
> library(lmtest)

2.2 Memanggil Data

> data <- read.csv ("E:/SMT6/KOMSTAT/data.CSV", header = TRUE)
> data
                       Objek.Wistata Jumlah.Promosi Jumlah.Pengunjung
1            Pantai Randusanga Indah              1            110257
2         Kolam Renang Tirta Kencana              2             42962
3         Waduk Malahayu Banjarharjo              2             95483
4   Pemandian Air Panas Tirta Husada              1             40626
5 Pemandian Air Panas Cipanas Buaran              3             31410
6     Agrowisata Kaligua Paguyangan               1            119744
7               Obyek Wisata Lainnya              1            764489
  Jumlah.Pendapatan.Penjualan
1                      483287
2                      214810
3                      388190
4                      189075
5                      138200
6                      113757
7                      112614

fungsi read.csv digunakan untuk memanggil file csv dengan argumen letak lokasi file yang akan digunakan

> class (data)
[1] "data.frame"
> Y <- data$Jumlah.Pendapatan.Penjualan
> X1 <- data$Jumlah.Promosi
> X2 <- data$Jumlah.Pengunjung

Perintah Class() digunakan untuk mengetahui tipe data suatu objek. Output dari perintah diatas menunjukkan bahwa tipe data dari β€œdata” yaitu data.frame sehingga selanjutnya pendefinisian masing masing variable yang terdapat dalam data frame dengan menggunakan fungsi data.frame$()

> stat.desc(data)
Error in stat.desc(data): could not find function "stat.desc"
> sum <- summary(data)
> sum
 Objek.Wistata      Jumlah.Promosi  Jumlah.Pengunjung
 Length:7           Min.   :1.000   Min.   : 31410   
 Class :character   1st Qu.:1.000   1st Qu.: 41794   
 Mode  :character   Median :1.000   Median : 95483   
                    Mean   :1.571   Mean   :172139   
                    3rd Qu.:2.000   3rd Qu.:115001   
                    Max.   :3.000   Max.   :764489   
 Jumlah.Pendapatan.Penjualan
 Min.   :112614             
 1st Qu.:125979             
 Median :189075             
 Mean   :234276             
 3rd Qu.:301500             
 Max.   :483287             

Syntax stat.desc(data) berfungsi untuk menampilkan Statistika Deskriptis dari sebuah objek, sedangkan fungsi summary digunakan untuk menampilkan ringkasan statistika deskriptif dari objek tersebut

> #Fungsi lm
> reg<- lm(Y~X1+X2, data=data)
> summary(reg)

Call:
lm(formula = Y ~ X1 + X2, data = data)

Residuals:
      1       2       3       4       5       6       7 
 209697  -29033  156028 -100001  -63498 -157723  -15472 

Coefficients:
              Estimate Std. Error t value Pr(>|t|)
(Intercept)  3.428e+05  1.812e+05   1.892    0.131
X1          -4.471e+04  9.279e+04  -0.482    0.655
X2          -2.224e-01  2.769e-01  -0.803    0.467

Residual standard error: 164600 on 4 degrees of freedom
Multiple R-squared:  0.145, Adjusted R-squared:  -0.2825 
F-statistic: 0.3391 on 2 and 4 DF,  p-value: 0.731

Fungsi lm() digunakan untuk menciptakan model hubungan antara prediktor dan variabel respon.

2.3 Uji Asumsi

Uji Normalitas

> sisa<-residuals(reg)
> jarque.bera.test(sisa)

    Jarque Bera Test

data:  sisa
X-squared = 0.71588, df = 2, p-value = 0.6991
> shapiro.test(sisa)

    Shapiro-Wilk normality test

data:  sisa
W = 0.90628, p-value = 0.3707

fungsi jarque.bera.test dan shspiro.test digunakan untuk uji asumsi Normalitas yaitu untuk melihat apakah data berdistribusi normal atau tidak.

Uji Multikolinieritas

> vif(reg)
      X1       X2 
1.181007 1.181007 

Pengujian korelasi antar variabel independent untuk melihat tidak adanya korelasi erat antar variabel independent dapat dilakukan melihat nilai VIF dengan perintah vif() dalam package car

Uji Homogenitas galat

> bptest(reg)

    studentized Breusch-Pagan test

data:  reg
BP = 2.626, df = 2, p-value = 0.269

Uji Non Autokorelasi

> dwtest(reg)

    Durbin-Watson test

data:  reg
DW = 1.7287, p-value = 0.4007
alternative hypothesis: true autocorrelation is greater than 0

Uji autokorelasi dilakukan untuk menguji apakah ada pengaruh dari data terdahulu kepada data yang baru, uji ini dilakukan untuk data time series, dengan menggunakan perintah dwtest() dalam package lmtest

3 HASIL DAN PEMBAHASAN

3.1 Statistika Deskriptif


Berdasarkan Data yang digunakan, diperoleh nilai Mean sebesar 1.571 untuk variabel Jumlah Promosi (X1), 172139 untuk Variabel Jumlah Pengunjung (X2), dan 234276 untuk variabel Jumlah Pendapatan (Y).

3.2 Uji Normalitas

> jarque.bera.test(sisa)

    Jarque Bera Test

data:  sisa
X-squared = 0.71588, df = 2, p-value = 0.6991
> shapiro.test(sisa)

    Shapiro-Wilk normality test

data:  sisa
W = 0.90628, p-value = 0.3707

Hipotesis
\(H_0\) : Galat berdistribusi normal
\(H_1\) : Galat tidak berdistribusi normal

Karena p-value pada Jarque Bera Test (0.6991) dan Shapiro-wilk normality test (0.3707) > alpha (0.05) –> terima \(H_0\)

Sehingga dengan taraf nyata 5% dapat disimpulkan bahwa galat berdistribusi normal.

3.3 Uji Multikolinieritas

> vif(reg)
      X1       X2 
1.181007 1.181007 

Hipotesis
\(H_0\) : Terjadi multikolinieritas antara variabel independen
\(H_1\) : Tidak terjadi multikolinieritas antara variabel independen

Karena NILAI VIF 0.1 > 1.181007 > 10 –> tolak \(H_0\)

Sehingga dengan taraf nyata 5% dapat disimpulkan bahwa Tidak terjadi multikolinieritas antara variabel independen.

3.4 Uji Homogenitas

> bptest(reg)

    studentized Breusch-Pagan test

data:  reg
BP = 2.626, df = 2, p-value = 0.269

Hipotesis
\(H_0\): 𝛿2 = 𝛿3 = 0
\(H_0\) : setidaknya terdapat satu 𝛿𝑗 β‰  0 ;𝑗 = 2,3Β 

Hasil studentized Breusch-Pagan test didapatkan p-value (0.269) > alpha (0.05) –> terima \(H_0\)

Dengan taraf nyata 5% dapat disimpulkan bahwa ragam galat sama atau asumsi homogenitas ragam terpenuhi.

3.5 Uji Non Autokorelasi

> dwtest(reg)

    Durbin-Watson test

data:  reg
DW = 1.7287, p-value = 0.4007
alternative hypothesis: true autocorrelation is greater than 0

Hipotesis
\(H_0\) : ragam galat independent
\(H_0\) : ragam galat tidak independent

pada Durbin-Watson test didapatkan nilai p-value (0.4007) > 0.05, maka terima \(H_0\)

Dengan taraf nyata 5% dapat disimpulkan bahwa autokorelasi atau asumsi non autokorelasi terpenuhi

3.6 Model Regresi

> summary(reg)

Call:
lm(formula = Y ~ X1 + X2, data = data)

Residuals:
      1       2       3       4       5       6       7 
 209697  -29033  156028 -100001  -63498 -157723  -15472 

Coefficients:
              Estimate Std. Error t value Pr(>|t|)
(Intercept)  3.428e+05  1.812e+05   1.892    0.131
X1          -4.471e+04  9.279e+04  -0.482    0.655
X2          -2.224e-01  2.769e-01  -0.803    0.467

Residual standard error: 164600 on 4 degrees of freedom
Multiple R-squared:  0.145, Adjusted R-squared:  -0.2825 
F-statistic: 0.3391 on 2 and 4 DF,  p-value: 0.731

Semua asumsi terpenuhi sehingga dapat disimpulkan bahwa secara parsial variabel (X1) dan (X2) berpengaruh signifikan terhadap Y

dan didapatkan Model Regresinya yaitu \[ Y= 342800 - 44710𝑋_1 - 0.2224𝑋_2 \]
Setiap penurunan 1 satu kali promosi maka akan Pendapatan Penjualan tiket objek wisata turun sebesar Rp.442800 dan setiap penurunan 1 Jumlah Pengunjung juga akan pendapan juga akan turun sebesar Rp.0.2
\(R^2\) sebesar -0.2825 artinya variable Jumlah Promosi dan Jumlah pengunjung belum mampu menjelaskan faktor-faktor yang mempengaruhi Jumlah Pendapatan Penjualan.

4 DAFTAR PUSTAKA

Sudarmanto, R. (2005). Analisis Regresi Linear Ganda dengan SPSS. Graha Ilmu.
Sugiyono. 2010. Metode Penelitian Kuantitatif, Kualitatif dan R&D. Edisi Kedua. Bandung:Alfabeta
Sugiyono. 2013. Statistika Untuk Penelitian. Bandung : Alfabeta.
Supangat, Andi. 2007. Statistika Dalam Kajian Deskriptif, Inferensi dan Nonparametik. Bandung
Supardi, U. (2013). Aplikasi Statistika Dalam Penelitian Edisi Revisiβ€―: Konsep Statistika Yang Lebih Komprehensif. Change Pulication Design.
Susilo, W., Aima, M., & Suprapti, F. (2014). Biostatistika Lanjut dan Aplikasi Riset. Trans Info Media.
Weisberg, S. (2014). Applied Linear Regression (fourth edi). John Wiley & Sons Ltd.
Solimun. 2010. Analisis Multivariat Pemodelan Struktural Metode Partial Least Square-PLS. Malang: CV. Citra Malang