1 Pendahuluan
1.1 Latar Belakang
Penggunaan statistika dalam mengolah data penelitian berpengaruh
terhadap tingkat analisis hasil penelitian. penelitian-penelitian dalam
bidang eksakta yang menggunakan perhitungan statistika, akan
menghasilkan data yang sahih apabila memperhatikan tata cara analisis
data yang digunakann. Dalam memprediksi dan mengukur nilai dari pengaruh
satu variabel (bebas/independen/predictor) terhadap
variabel lain (tak bebas/dependent/response) dapat
digunakan uji regresi.
Analisis/uji regresi merupakan suatu metode yang digunakan untuk
memperoleh model hubunfan antara satu variabel
(bebas/independen/predictor) terhadap variabel lain
(tak bebas/dependent/response). Hasil perhitungan
analisis/uji regresi akan dimuat dalam kesimpulan dan akan menentukan
apakah penelitian yang dilakukan berhasil atau tidak. Analisis
perhitungan pada uji regresi menyangkut beberapa perhitungan statistika
seperti uji signifikansi (uji-t,uji-F), anova, dan penentuan hipotesis.
Hasil dari analisis/uji regresi berupa suatu persamaan regresi.
Model regresi dapat diperoleh dengan melakukan estimasi
terhadapparameter modelnya. Untuk menduga nilai parameter regresi ini
biasanyadigunakan Metode Kuadrat Terkecil (MKT). Metode MKT ini
diterapkanjikaasumsi-asumsi berikut terpenuhi, yaitu asumsi ragam
berdistribusi normal, tidakterjadi multikolinieritas, kehomogenan ragam
sisaan dan tidak autokorelasi. Semua asumsi harus terpenuhi supaya
didapatkan penduga parameter yang bersifat BLUE (Best Linier
Unbiased Estimator).
Jika terjadi masalah multikolinearitas, maka metode kuadrat terkecil
bukan solusi yang terbaik, karena pendugaan koefisien regresi yang
dihasilkantidak stabil dan variansi koefisien regresi menjadi sangat
besar. Oleh karenaitudiperlukan suatu metode pendugaan alternatif yang
memberikan pendugaanyanglebih baik. Salah satu metode untuk mengatasi
masalah multikolinearitas yaitumetode regresi ridge, dengan regresi
ridge maka koefisien regresi yang dihasilkan 2 lebih stabil dan variansi
koefisien regresi lebih kecil. Pada dasarnya metode ini merupakan
modifikasi dari metode kuadrat terkecil. Asumsi yang harus dipenuhi pada
metode ini adalah matriks korelasi dari variabel bebas dapat
diinverskandengan menggunakan metode regresi ridge sehingga nilai dugaan
koefisien regresi mudah untuk diperoleh.
2 Metodologi
2.1 Analisis Regresi Berganda
Regresi linier berganda merupakan model persamaan yang menjelaskan
hubungan dua variabel bebas/prediktor (X) atau lebih terhadap satu
variabel tak bebas/respons (Y). Tujuan analisis regresi linier berganda
yaitu untuk membuktikan ada atau tidak hubungan anatara dua variabel
atau lebih dari variabel bebas/prediktor (X1, X2,
X3, …,Xi) terhadap satu variabel tak bebas/respons
Y.
Persamaan regresi linier berganda sebagai berikut:
\[
Y = \beta_0 + \beta_i X_{i1} +\beta_2X_{i2}+...+\beta_kX_{ik} +
\epsilon_i \tag{2.1}
\] Dimana:
Yi = Variabel dependen untuk pengamatan ke i=1,2,…,n
\(\beta_0,\beta_1,...,\beta_k\) =
Parameter
\(X_{i1},X_{i2},...,X_{ik}\) = Variabel
independen
\(\epsilon_i\) = sisaan (\(\epsilon\)) untuk pengamatan ke i
Dalam notasi matriks persamaan (2.1) dapat ditulis menjadi persamaan
(2.2) berikut: \[ Y = X \beta + \epsilon
\tag{2.2}
\] dimana:
Y = vektor variabel tidak bebas berukuran nx1
X = matriks variabel bebas berukuran nx(p-1)
\(\beta\) = vektor parameter berukuran
px1
\(\epsilon\) = vektor error
berukuran nx1
2.2 Asumsi-Asumsi Model Regresi Linier Berganda
- Model regresinya adalah linier dalam parameter.
- Nilai rata-rata dari error adalah nol.
- Variansi dari error adalah konstan (homoskedastik).
- Tidak terjadi autokorelasi pada error.
- Tidak terjadi multikolinieritas pada variabel bebas.
- Error berdistribusi normal (Normalitas)
Asumsi persyaratan noemalitas harus terpenuhi untuk mengetahui residual/error/data sampel berasal dari populasi data yang berdistribusi normal. Uji statistik yang digunakan adalah kolmogorov-smirnov. Hipotesis yang digunakan adalah sebagai berikut: H~0 : data berdistribusi normal
H~1 : data tidak berdistribusi normal
Tingkat signifikan \(\alpha\) = 5%
Pengambilan keputusan: jika p-value < 0,05 maka H_0_ ditolak.
2.3 Estimasi Parameter Model Regresi Linier Berganda
Estimasi parameter ini bertujuan untuk mendapatkan model regresi
linier berganda yang akan digunakan dalam analisis. Pada materi
pelatihan ini, metode yang digunakan untuk mengestimasi parameter model
regresi linier berganda adalah metode kuadrat terkecil atau sering juga
disebut dengan metode ordinary least square (OLS). Metode OLS ini
bertujuan meminimumkan jumlah kuadrat error. Berdasarkan persamaan (2.2)
dapat diperoleh penaksir (estimator) OLS untuk \(\beta\) adalah sebagai berikut:
\[ \beta = (X^TX)^{-1}X^T Y\tag{2.3}
\] Penaksir OLS pada persamaan (2.3) merupakan penaksir yang
tidak bias, linier dan terbaik.
2.4 Pengujian Parameter
Pengujian parameter bertujuan untuk mengetahui ada atau tidak pengaruh variabel bebas/ predictor/ independent (X) terhadap variabel tidak bebasresponse/ dependent (Y) , baik secara serentak maupun secara parsial.
2.4.1 Pengujian Parameter Secara Serentak (Simultan)
Prosedur pengujian parameter secara simultan adalah sebagai berikut:
- Membuat hipotesis
H0 : \(\beta_1\) = \(\beta_2\) = 0 ; (variabel X1 dan
X2 tidak berpengaruh terhadap Y)
H1 : \(\beta_1\) ≠ \(\beta_2\) ≠ 0 ; (variabel X1 dan
X2 berpengaruh terhadap Y)
- Menentukan taraf/tingkat signifikansi (\(\alpha\))
Tingkat signifikansi yang sering digunakan untuk adalah \(\alpha\) = 5%
- Menentukan statistik uji
Statistik uji yang digunakan adalah:
\[
SU = \frac{r^2/k}{(1-r^2)/(n-k-1)} = \frac{r^2(n-k-1)}{k(1-r^2)}
\tag{2.4}
\]
- Menentukan daerah titik (penolakan H0)
Daerah kritis yang digunakan adalah H0 ditolak apabila F
> F{\(\alpha\),p-1,n-p}
Dengan F{\(\alpha\),p-1,n-p}
disebut dengan F tabel
SElain dari daerah kritis dapat juga menggunakan daerah kritis yang lain
yaitu jika peluang (Sig.) < tingkat signifikansi (\(\alpha\)), maka tolak H0
- Menarik kesimpulan
2.4.2 Pengujian Parameter Secara Individu (Parsial)
Prosedur pengujian parameter secara parsial adalah sebagai berikut:
- Membuat hipotesis
H0 : \(\beta_k\) = 0 ;
(variabel Xk tidak berpengaruh terhadap Y)
H1 : \(\beta_k\) ≠ 0 ;
(variabel Xk berpengaruh terhadap Y)
- Menentukan taraf/tingkat signifikansi (\(\alpha\))
Tingkat signifikansi yang sering digunakan untuk adalah \(\alpha\) = 5%
- Menentukan statistik uji
Statistik uji yang digunakan adalah:
\[
SU = \frac{b_k}{s{b_k}} \tag{2.5}
\] dengan:
bk = nilai taksiran parameter \(\beta_k\) (yang diperoleh dari metode
OLS)
s(bk) = standar deviasi nilai taksiran parameter \(\beta_k\)
- Mententukan daerah titik kritis (penolakan H0)
Daerah kritis yang digunakan adalah:
H0 ditolak apabila t > t{(\(\alpha\)/2,n-p)} atau t <
-t{(\(\alpha\)/2,n-p)}
disebut dengan t tabel
Selain dari daerah kritis di atas, dapat juga digunakan daerah kritis
yang lain yaitu apabila nilai peluang (Sig.) < tingkat signifikansi
(\(\alpha\)), maka H0
ditolak
- Menarik kesimpulan
2.5 Pelanggaran-Pelanggaran Terhadap Asumsi Regresi Linier Berganda
Dalam analisis regresi linier berganda terdapat beberapa pelanggaran-pelanggaran yang seringkali dilakukan terhadap asumsi-asumsinya, diantaranya sebagai berikut:
- Multikolinieritas
Multikolinieritas adalah terjadinya hubungan linier antara variabel
bebas dalam suatu model regresi linier berganda. Hubungan linier antara
variabel bebas dapat terjadi dalam bentuk hubungan linier yang sempurna
(perfect) dan hubungan linier yang kurang sempurna
(imperfect).
Adapun dampak adanya multikolinieritas dalam model regresi linier
berganda adalah sebagai berikut:
- Penaksir OLS masih bersifat BLUE, tetapi mempunyai variansi dan
kovariansi yang besar sehingga sulit mendapatkan taksiran (estimasi)
yang tepat.
- Akibat penaksir OLS mempunyai variansi dan kovariansi yang yang besar,
menyebabkan interval estimasi akan cenderung lebih lebar dan nilai
hitung statistik uji t akan kecil, sehingga membuat variabel bebas
secara statistik tidak signifikan mempengaruhi variabel tidak
bebas.
- Walaupun secara individu variabel bebas tidak berpengaruh terhadap
variabel tidak bebas melalui uji t, tetapi nilai koefisien determinasi
(R2) masih bisa relatif tinggi.
Selanjutnya untuk mendeteksi adanya multikolinieritas dalam model
regresi linier berganda dapat digunakan nilai variance inflation factor
(VIF) dan tolerance (TOL) dengan ketentuan jika nilai VIF melebihi angka
10, maka terjadi multikolinieritas dalam model regresi. Kemudian jika
nilai TOL sama dengan 1, maka tidak terjadi multikolinieritas dalam
model regresi. Nilai VIF dinyatakan sebagai berikut:
\[ VIF = \frac{1}{(1-R^2_J)} \tag{2.6}
\] Dengan \(R^2_J\) adalah
koefisien determinasi antara satu variabel prediktor Xj
dengan variabel prediktor lainnya.
- Heteroskedastisitas
Heteroskedasitas merupakan sebuah kondisi dimana varians dari error
bersifat bebas. Dampak adanya heteroskedastisitas dalam model regresi
adalah walaupun estimator OLS masih linier dan tidak bias, tetapi tidak
lagi mempunyai variansi yang minimum dan menyebabkan perhitungan
standard error metode OLS tidak bisa dipercaya kebenarannya. Selain itu
interval estimasi maupun pengujian hipotesis yang didasarkan pada
distribusi t maupun F tidak bisa lagi dipercaya untuk evaluasi hasil
regresi.
Akibat dari dampak heteroskedastisitas tersebut menyebabkan estimator
OLS tidak menghasilkan estimator yang BLUE dan hanya menghasilkan
estimator OLS yang linear unbiased estimator (LUE).
Selanjutnya dilakukan deteksi masalah heteroskedastisitas dalam model
regresi.Salah satu cara yang dapat digunakan untuk mendeteksi adanya
heteroskedastisitas dalam model regresi adalah dengan Metode Glejser.
Glejser merupakan seorang ahliekonometrika dan mengatakan bahwa nilai
variansi variabel error model regresi tergantung dari variabel bebas.
Selanjutnya untuk mengetahui apakah pola variabel error mengandung
heteroskedastisitas Glejser menyarankan untuk melakukan regresi nilai
mutlak residual dengan variabel bebas. Jika hasil uji F dari model
regresi yang diperoleh tidak signifikan, maka tidak ada
heteroskedastisitas dalam model regresi.
- Autokorelasi
Uji autokorelasi digunakan untuk mengetahui ada atau tidaknya
penyimpangan korelasi yang terjadi antara residual pada satu pengamatan
dengan pengamatan lain pada model regresi.
Adapun dampak dari adanya autokorelasi dalam model regresi adalah sama
dengan dampak dari heteroskedastisitas yang telah diuraikan di atas,
yaitu walaupun estimator OLS masih linier dan tidak bias, tetapi tidak
lagi mempunyai variansi yang minimum dan menyebabkan perhitungan
standard error metode OLS tidak bisa dipercaya kebenarannya. Selain itu
interval estimasi maupun pengujian hipotesis yang didasarkan pada
distribusi t maupun F tidak bisa lagi dipercaya untuk evaluasi hasil
regresi. Akibat dari dampak adanya autokorelasi dalam model regresi
menyebabkan estimator OLS tidak menghasilkan estimator yang BLUE dan
hanya menghasilkan estimator OLS yang LUE (Widarjono, 2007). Selanjutnya
untuk mendeteksi adanya autokorelasi dalam model regresi linier berganda
dapat digunakan metode Durbin-Watson. Durbin-Watson telah berhasil
mengembangkan suatu metode yang digunakan untuk mendeteksi adanya
masalah autokorelasi dalam model regresi linier berganda menggunakan
pengujian hipotesis dengan statistik uji yang cukup populer seperti pada
persamaan (2.7) sebagai berikut:
\[
d = \frac{\Sigma{(e_i-e_{i-1}})^2}{\Sigma{e^2_i}} \tag{2.7}
\] Kemudian Durbin-Watson berhasil menurunkan nilai kritis batas
bawah (dL) dan batas atas (dU) sehingga jika nilai
d hitung dari persamaan (2.7) terletak di luar nilai kritis ini, maka
ada atau tidaknya autokorelasi baik positif atau negatif dapat
diketahui. Deteksi autokorelasipada model regresi linier berganda dengan
metode Durbin-Watson adalah seperti pada tabel berikut:
: Nilai Statistik Durbin-Watson : | : Hasil :
0 < d < dL | Menolak H0 ; ada autokorelasi
positif
dL
2.6 Pengujian Asumsi
- Uji Normalitas
Uji normalitas adalah pengujian untuk melihat apakah residual dari model regresi yang terbentuk berdistribusi normal. Model regresi yang baik adalah model yang distribusinya normal. Uji yang digunakan bisa berupa uji shapiro-wilk, uji anderson-darling, dan uji kolmogorov-smirnov.
- Uji Homoskedastisitas
Jika homoskedastisitas tidak terpenuhi menandakan bahwa telah terjadinya ketidaksamaan varian dari residual untuk semua pengamatan dari model regresi. Uji yang bisa digunakan adalah uji breusch-pagan.
- Uji Linearitas
Uji linearitas adalah salah satu uji asumsi klasik yang dilakukan untuk mengetahui sifat linear pada sebaran data antara variabel X dan Y. Perlunya mengetahui adakah sifat linear pada hubungan X dan Y mempengaruhi tingkat valid atau tidaknya model regresi yang dihasilkan. Uji yang digunakan adalah uji harvey-collier dan uji reset.
- Uji Autokorelasi
Uji Autokorelasi dilakukan untuk mengetahui adakah korelasi variabel yang ada di dalam model prediksi dengan perubahan waktu. Uji yang digunakan adalah uji durbin watson untuk menilai adanya autokorelasi pada residual. Uji durbin watson akan menghasilkan nilai Durbin Watson (DW) yang nantinya akan dibandingkan dengan dua nilai durbin Watson tabel, yaitu durbin Upper (DU) dan durbin Lower (DL).
2.7 Pengujian Hipotesis
- Uji Simultan
Uji simultan atau uji F digunakan untuk menguji pengaruh secara bersama-sama seluruh variabel prediktor yang diuji terhadap variabel respons. Hipotesis yang digunakan adalah sebagai berikut: \[ H _{0}: \beta _{1} = \beta _{2} = ... = \beta _{k-1} = 0 \] \[ H _{1}: \beta _{k} ≠ 0 \]
- Uji Parsial
Uji t digunakan untuk pengujian koefisien regresi secara parsial. Masing-masing variabel prediktor diuji untuk diketahui pengaruhnya terhadap variabel respons. Hipotesis yang digunakan sebagai berikut: \[ H _{0}: \beta _{i} = 0 \]
\[ H _{1}: \beta _{i} ≠ 0 \]
2.8 Data
Diberikan data tentang Tingkat Penjualan pada 15 tahun besertakan variabel biaya produksi, distribusi dan promosi.
3 Source Code
3.1 Library yang Dibutuhkan
#Library yang dibutuhkan
library(olsrr)
##
## Attaching package: 'olsrr'
## The following object is masked from 'package:datasets':
##
## rivers
library(car)
## Loading required package: carData
library(nortest)
library(vctrs)
library(readxl)
3.2 Pembangkitan Data
Berikut adalah variabel yang digunakan dalam data:
- Y = Tingkat Penjualan
- X1 = Biaya Produksi
- X2 = Biaya Distribusi
- X3 = Biaya Promosi
Data yang digunakan:
<- readxl::read_excel("C:/Users/Asus/Documents/~ College Stuff/Komstat/Data.xlsx")
Data ::kable(Data, caption="Data yang digunakan") knitr
Y | X1 | X2 | X3 | X4 |
---|---|---|---|---|
62 | 216 | 51 | 2.7 | 19 |
50 | 104 | 50 | 3.1 | 16 |
61 | 106 | 51 | 2.4 | 21 |
60 | 147 | 52 | 2.0 | 26 |
60 | 71 | 52 | 2.3 | 23 |
63 | 144 | 49 | 2.2 | 22 |
58 | 73 | 50 | 2.3 | 22 |
63 | 235 | 50 | 2.1 | 24 |
55 | 23 | 51 | 3.2 | 16 |
56 | 92 | 50 | 2.9 | 17 |
56 | 53 | 51 | 3.0 | 17 |
67 | 85 | 52 | 2.6 | 20 |
59 | 100 | 48 | 2.4 | 20 |
55 | 80 | 48 | 3.0 | 16 |
55 | 80 | 48 | 3.0 | 16 |
64 | 133 | 51 | 2.4 | 21 |
60 | 140 | 52 | 2.6 | 20 |
62 | 141 | 51 | 2.3 | 22 |
68 | 233 | 50 | 2.3 | 22 |
60 | 167 | 48 | 2.3 | 21 |
Data dapat dibangkitkan menggunakan package readxl atau pilihan import dataset yang telah tersedia pada software.
3.3 Pengujian
3.3.1 Persamaan Regresi
Akan dibentuk persamaan regresi menggunakan function lm
dan perintah summary
untuk menampilkan hasil analisis
regresi.
<- lm(Y~X1+X2+X3, data=Data)
regresi summary(regresi)
##
## Call:
## lm(formula = Y ~ X1 + X2 + X3, data = Data)
##
## Residuals:
## Min 1Q Median 3Q Max
## -6.0338 -1.1521 0.0426 0.7079 7.1859
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 33.51446 27.91373 1.201 0.247
## X1 0.02584 0.01482 1.744 0.100
## X2 0.74221 0.50820 1.460 0.164
## X3 -5.57354 2.40421 -2.318 0.034 *
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 3.063 on 16 degrees of freedom
## Multiple R-squared: 0.5902, Adjusted R-squared: 0.5134
## F-statistic: 7.681 on 3 and 16 DF, p-value: 0.002116
3.3.2 Pengujian Model Terbaik
Akan ditentukan variabel mana yang dapat dimasukkan ke dalam persamaan regresi untuk mendapatkan model terbaik. Pengujian dilakukan menggunakan 3 metode pemilihan model terbaik yaitu All Possible Regression, Forward Selection, dan Backward Selection.
#Metode All Possible Regression
::ols_step_all_possible(regresi) olsrr
## Index N Predictors R-Square Adj. R-Square Mallow's Cp
## 3 1 1 X3 0.47319759 0.44393079 4.568625
## 1 2 1 X1 0.35579197 0.32000263 9.152644
## 2 3 1 X2 0.08609995 0.03532772 19.682577
## 5 4 2 X1 X3 0.53557904 0.48094128 4.132986
## 6 5 2 X2 X3 0.51234610 0.45497505 5.040100
## 4 6 2 X1 X2 0.45256331 0.38815900 7.374276
## 7 7 3 X1 X2 X3 0.59020895 0.51337312 4.000000
#Metode Forward Selection
::ols_step_forward_p(regresi) olsrr
##
## Selection Summary
## ------------------------------------------------------------------------
## Variable Adj.
## Step Entered R-Square R-Square C(p) AIC RMSE
## ------------------------------------------------------------------------
## 1 X3 0.4732 0.4439 4.5686 108.0879 3.2738
## 2 X1 0.5356 0.4809 4.1330 107.5672 3.1629
## 3 X2 0.5902 0.5134 4.0000 107.0643 3.0625
## ------------------------------------------------------------------------
#Metode Backward Selection
::ols_step_backward_p(regresi) olsrr
## [1] "No variables have been removed from the model."
3.3.3 Uji Asumsi
library(car)
library(nortest)
#Uji Normalitas
shapiro.test(Data$Y)
##
## Shapiro-Wilk normality test
##
## data: Data$Y
## W = 0.97332, p-value = 0.8229
::ad.test(Data$Y) nortest
##
## Anderson-Darling normality test
##
## data: Data$Y
## A = 0.27128, p-value = 0.6348
::lillie.test(Data$Y) nortest
##
## Lilliefors (Kolmogorov-Smirnov) normality test
##
## data: Data$Y
## D = 0.12724, p-value = 0.5392
#Uji Homoskedastisitas
::bptest(regresi) lmtest
##
## studentized Breusch-Pagan test
##
## data: regresi
## BP = 2.1759, df = 3, p-value = 0.5367
#Uji Linearitas
::resettest(regresi, power=2) lmtest
##
## RESET test
##
## data: regresi
## RESET = 0.94267, df1 = 1, df2 = 15, p-value = 0.347
#Uji Non-Autokorelasi
::dwtest(regresi) lmtest
##
## Durbin-Watson test
##
## data: regresi
## DW = 2.0218, p-value = 0.4124
## alternative hypothesis: true autocorrelation is greater than 0
4 Hasil dan Pembahasan
4.1 Persamaan Regresi
Didapatkan persamaan regresi awal sebagai berikut: \[ Y = 33.51446 + 0.02584 X_{1} + 0.74221 X_{2} - 5.57354 X_{3} \]
4.2 Pengujian Model Terbaik
- Metode All Possible Regression
Persamaan regresi yang mengandung variabel X1, X2, dan X3 mempunyai nilai Cp Mallow terkecil dan R-square Adj. Terbesar sehingga model tersebutlah yang terbaik.
- Forward Selection
Dengan metode forward selection didapat bahwa model terbaik mengandung variabel prediktor X1, X2, dan X3.
- Backward Selection
Output dari uji model terbaik dengan metode backward selection menghasilkan bahwa untuk mendapatkan model terbaik, tidak ada variabel prediktor yang dihapuskan dari model.
4.3 Pengujian Asumsi
- Uji Normalitas
Hipotesis \(H_{0}\) : Data berdistribusi normal
\(H_{1}\) : Data berdistribusi tidak normal
Ketiga uji normalitas menghasilkan p-value yang lebih besar dari α (0.05), maka terima H0. Dengan demikian, data jumlah kecelakaan dan ketiga faktor kecelakaan menyebar secara normal.
- Uji Homoskedastisitas
Hipotesis \(H_{0}\) : Variansi galat bersifat homoskedastisitas
\(H_{1}\) : Variansi galat bersifat heteroskedastisitas
Dikarenakan p-value lebih besar dari α (0.05), maka H0 diterima. Dengan demikian, data memenuhi asumsi homoskedastisitas.
- Uji Linearitas
Hipotesis \(H_{0}\) : Model linier
\(H_{1}\) : Model non-linier Dikarenakan p-value lebih besar dari α (0.05), maka H0 diterima. Sehingga, model data bersifat linier.
- Uji Non-Autokorelasi
DW : 2.0218, nilai DW berada diantara 0≤DW≤4. Dari tabel didapatkan nilai DU=1.6889 dan DL=1.4797. Dikarenakan nilai DW terletak antara DU dan (4-DU), menandakan bahwa tidak ada autokorelasi.
4.4 Pengujian Hipotesis
- Uji Simultan
Nilai p (2.2e-16) < α (0.05), maka H0 ditolak. Disimpulkan bahwa faktor tidak berhati-hati, faktor tidak menjaga jarak, dan faktor melewati batas kecepatan secara bersamaan mempunyai pengaruh terhadap jumlah kecelakaan.
- Uji Parsial
- Pengujian X1 Terhadap Y
Statistik Uji: Nilai p-value = 0.100
P-value (0.100) > α(0.001), H0 diterima. Dengan taraf nyata 0.1% dapat disimpulkan bahwa secara parsial tidak terdapat hubungan antara variabel Biaya Produksi terhadap variabet Tingkat Penjualan.
- Pengujian X2 terhadap Y
Statistik Uji : Nilai p-value = 0.164
P-value (0.164) > α(0.001), H0 diterima Dengan taraf nyata 0.1% dapat disimpulkan bahwa secara parsial tidak terdapat hubungan antara variabel Biaya Distribusi terhadap variabel Tingkat Penjualan.
- Pengujian X3 terhadap Y Statistik Uji : Nilai p-value = 0.034
P-value (0.034) > α(0.001), H0 diterima Dengan taraf nyata 0.1% dapat disimpulkan bahwa secara parsial tidak terdapat hubungan antara variabel Biaya Promosi terhadap variabel Tingkat Penjualan.
4.5 Interpretasi Model
Setelah didapatkan dari pengujian model terbaik bahwa seluruh variabel berpengaruh untuk mendapatkan model terbaik, maka dibentuk persamaan regresi yang memasukkan ketiga variabel. Model akhir dan terbaik yang terbentuk adalah: \[ Y = 33.51446 + 0.02584 X_{1} + 0.74221 X_{2} - 5.57354 X_{3} \] Dengan interpretasi sebagai berikut (bilangan desimal akan dilakukan pembulatan):
- Penambahan Rp 1 Biaya Produksi dalam Berjual akan menambah Rp 258.4
Tingkat Penjualan jika faktor lainnya konstan.
- Penambahan Rp 1 Biaya Distribusi dalam Berjual akan menambah Rp
7422.1 Tingkat Penjualan jika faktor lainnya konstan.
- Penambahan Rp 1 Biaya Promosi dalam Berjual akan berkurang Rp
55,735.4 Tingkat Penjualan jika faktor lainnya konstan.
- Jika seluruh variabel konstan (bernilai nol) maka Tingkat Penjualan bernilai Rp 33,5144.6
Dengan data menyebar secara normal, tidak memenuhi asumsi multikolinearitas, memenuhi asumsi homoskedastisitas, bersifat linier, dan tidak ada autokorelasi.
5 Daftar Pustaka
- Laksono, A. A., Sartika, I., Desmitasari, R., AtmaYadin, M., &
dewi Atmaja, A. P. Analisis Regresi Terapan Metode-Metode Pemilihan
Persamaan Terbaik Regresi Berganda.
- Mardiatmoko, G. (2020). Pentingnya uji asumsi klasik pada analisis
regresi linier berganda (studi kasus penyusunan persamaan allometrik
kenari muda [canarium indicum l.]). Barekeng: Jurnal Ilmu Matematika dan
Terapan, 14(3), 333-342.
- Web (http://blog-carame97.blogspot.com/2020/02/contoh-soal-regresi-linier-sederhana.html)