Penerapan Analisis Regresi Linier Berganda untuk Penentuan Model Terbaik Pengaruh Biaya Produksi, Biaya Distribusi, dan Biaya Promosi Terhadap Tingkat Penjualan

Muhammad Aldi Surya Ramadhan

5/15/2022

1 Pendahuluan

1.1 Latar Belakang

Penggunaan statistika dalam mengolah data penelitian berpengaruh terhadap tingkat analisis hasil penelitian. penelitian-penelitian dalam bidang eksakta yang menggunakan perhitungan statistika, akan menghasilkan data yang sahih apabila memperhatikan tata cara analisis data yang digunakann. Dalam memprediksi dan mengukur nilai dari pengaruh satu variabel (bebas/independen/predictor) terhadap variabel lain (tak bebas/dependent/response) dapat digunakan uji regresi.
Analisis/uji regresi merupakan suatu metode yang digunakan untuk memperoleh model hubunfan antara satu variabel (bebas/independen/predictor) terhadap variabel lain (tak bebas/dependent/response). Hasil perhitungan analisis/uji regresi akan dimuat dalam kesimpulan dan akan menentukan apakah penelitian yang dilakukan berhasil atau tidak. Analisis perhitungan pada uji regresi menyangkut beberapa perhitungan statistika seperti uji signifikansi (uji-t,uji-F), anova, dan penentuan hipotesis. Hasil dari analisis/uji regresi berupa suatu persamaan regresi.
Model regresi dapat diperoleh dengan melakukan estimasi terhadapparameter modelnya. Untuk menduga nilai parameter regresi ini biasanyadigunakan Metode Kuadrat Terkecil (MKT). Metode MKT ini diterapkanjikaasumsi-asumsi berikut terpenuhi, yaitu asumsi ragam berdistribusi normal, tidakterjadi multikolinieritas, kehomogenan ragam sisaan dan tidak autokorelasi. Semua asumsi harus terpenuhi supaya didapatkan penduga parameter yang bersifat BLUE (Best Linier Unbiased Estimator).
Jika terjadi masalah multikolinearitas, maka metode kuadrat terkecil bukan solusi yang terbaik, karena pendugaan koefisien regresi yang dihasilkantidak stabil dan variansi koefisien regresi menjadi sangat besar. Oleh karenaitudiperlukan suatu metode pendugaan alternatif yang memberikan pendugaanyanglebih baik. Salah satu metode untuk mengatasi masalah multikolinearitas yaitumetode regresi ridge, dengan regresi ridge maka koefisien regresi yang dihasilkan 2 lebih stabil dan variansi koefisien regresi lebih kecil. Pada dasarnya metode ini merupakan modifikasi dari metode kuadrat terkecil. Asumsi yang harus dipenuhi pada metode ini adalah matriks korelasi dari variabel bebas dapat diinverskandengan menggunakan metode regresi ridge sehingga nilai dugaan koefisien regresi mudah untuk diperoleh.

2 Metodologi

2.1 Analisis Regresi Berganda

Regresi linier berganda merupakan model persamaan yang menjelaskan hubungan dua variabel bebas/prediktor (X) atau lebih terhadap satu variabel tak bebas/respons (Y). Tujuan analisis regresi linier berganda yaitu untuk membuktikan ada atau tidak hubungan anatara dua variabel atau lebih dari variabel bebas/prediktor (X1, X2, X3, …,Xi) terhadap satu variabel tak bebas/respons Y.
Persamaan regresi linier berganda sebagai berikut:

\[ Y = \beta_0 + \beta_i X_{i1} +\beta_2X_{i2}+...+\beta_kX_{ik} + \epsilon_i \tag{2.1} \] Dimana:
Yi = Variabel dependen untuk pengamatan ke i=1,2,…,n
\(\beta_0,\beta_1,...,\beta_k\) = Parameter
\(X_{i1},X_{i2},...,X_{ik}\) = Variabel independen
\(\epsilon_i\) = sisaan (\(\epsilon\)) untuk pengamatan ke i
Dalam notasi matriks persamaan (2.1) dapat ditulis menjadi persamaan (2.2) berikut: \[ Y = X \beta + \epsilon \tag{2.2} \] dimana:
Y = vektor variabel tidak bebas berukuran nx1
X = matriks variabel bebas berukuran nx(p-1)
\(\beta\) = vektor parameter berukuran px1
\(\epsilon\) = vektor error berukuran nx1

2.2 Asumsi-Asumsi Model Regresi Linier Berganda

  1. Model regresinya adalah linier dalam parameter.
  2. Nilai rata-rata dari error adalah nol.
  3. Variansi dari error adalah konstan (homoskedastik).
  4. Tidak terjadi autokorelasi pada error.
  5. Tidak terjadi multikolinieritas pada variabel bebas.
  6. Error berdistribusi normal (Normalitas)
    Asumsi persyaratan noemalitas harus terpenuhi untuk mengetahui residual/error/data sampel berasal dari populasi data yang berdistribusi normal. Uji statistik yang digunakan adalah kolmogorov-smirnov. Hipotesis yang digunakan adalah sebagai berikut: H~0 : data berdistribusi normal
    H~1 : data tidak berdistribusi normal
    Tingkat signifikan \(\alpha\) = 5%
    Pengambilan keputusan: jika p-value < 0,05 maka H_0_ ditolak.

2.3 Estimasi Parameter Model Regresi Linier Berganda

Estimasi parameter ini bertujuan untuk mendapatkan model regresi linier berganda yang akan digunakan dalam analisis. Pada materi pelatihan ini, metode yang digunakan untuk mengestimasi parameter model regresi linier berganda adalah metode kuadrat terkecil atau sering juga disebut dengan metode ordinary least square (OLS). Metode OLS ini bertujuan meminimumkan jumlah kuadrat error. Berdasarkan persamaan (2.2) dapat diperoleh penaksir (estimator) OLS untuk \(\beta\) adalah sebagai berikut:
\[ \beta = (X^TX)^{-1}X^T Y\tag{2.3} \] Penaksir OLS pada persamaan (2.3) merupakan penaksir yang tidak bias, linier dan terbaik.

2.4 Pengujian Parameter

Pengujian parameter bertujuan untuk mengetahui ada atau tidak pengaruh variabel bebas/ predictor/ independent (X) terhadap variabel tidak bebasresponse/ dependent (Y) , baik secara serentak maupun secara parsial.

2.4.1 Pengujian Parameter Secara Serentak (Simultan)

Prosedur pengujian parameter secara simultan adalah sebagai berikut:

  1. Membuat hipotesis

H0 : \(\beta_1\) = \(\beta_2\) = 0 ; (variabel X1 dan X2 tidak berpengaruh terhadap Y)
H1 : \(\beta_1\)\(\beta_2\) ≠ 0 ; (variabel X1 dan X2 berpengaruh terhadap Y)

  1. Menentukan taraf/tingkat signifikansi (\(\alpha\))

Tingkat signifikansi yang sering digunakan untuk adalah \(\alpha\) = 5%

  1. Menentukan statistik uji

Statistik uji yang digunakan adalah:
\[ SU = \frac{r^2/k}{(1-r^2)/(n-k-1)} = \frac{r^2(n-k-1)}{k(1-r^2)} \tag{2.4} \]

  1. Menentukan daerah titik (penolakan H0)

Daerah kritis yang digunakan adalah H0 ditolak apabila F > F{\(\alpha\),p-1,n-p}
Dengan F{\(\alpha\),p-1,n-p} disebut dengan F tabel
SElain dari daerah kritis dapat juga menggunakan daerah kritis yang lain yaitu jika peluang (Sig.) < tingkat signifikansi (\(\alpha\)), maka tolak H0

  1. Menarik kesimpulan

2.4.2 Pengujian Parameter Secara Individu (Parsial)

Prosedur pengujian parameter secara parsial adalah sebagai berikut:

  1. Membuat hipotesis

H0 : \(\beta_k\) = 0 ; (variabel Xk tidak berpengaruh terhadap Y)
H1 : \(\beta_k\) ≠ 0 ; (variabel Xk berpengaruh terhadap Y)

  1. Menentukan taraf/tingkat signifikansi (\(\alpha\))

Tingkat signifikansi yang sering digunakan untuk adalah \(\alpha\) = 5%

  1. Menentukan statistik uji

Statistik uji yang digunakan adalah:
\[ SU = \frac{b_k}{s{b_k}} \tag{2.5} \] dengan:
bk = nilai taksiran parameter \(\beta_k\) (yang diperoleh dari metode OLS)
s(bk) = standar deviasi nilai taksiran parameter \(\beta_k\)

  1. Mententukan daerah titik kritis (penolakan H0)

Daerah kritis yang digunakan adalah:
H0 ditolak apabila t > t{(\(\alpha\)/2,n-p)} atau t < -t{(\(\alpha\)/2,n-p)} disebut dengan t tabel
Selain dari daerah kritis di atas, dapat juga digunakan daerah kritis yang lain yaitu apabila nilai peluang (Sig.) < tingkat signifikansi (\(\alpha\)), maka H0 ditolak

  1. Menarik kesimpulan

2.5 Pelanggaran-Pelanggaran Terhadap Asumsi Regresi Linier Berganda

Dalam analisis regresi linier berganda terdapat beberapa pelanggaran-pelanggaran yang seringkali dilakukan terhadap asumsi-asumsinya, diantaranya sebagai berikut:

  1. Multikolinieritas

Multikolinieritas adalah terjadinya hubungan linier antara variabel bebas dalam suatu model regresi linier berganda. Hubungan linier antara variabel bebas dapat terjadi dalam bentuk hubungan linier yang sempurna (perfect) dan hubungan linier yang kurang sempurna (imperfect).
Adapun dampak adanya multikolinieritas dalam model regresi linier berganda adalah sebagai berikut:
- Penaksir OLS masih bersifat BLUE, tetapi mempunyai variansi dan kovariansi yang besar sehingga sulit mendapatkan taksiran (estimasi) yang tepat.
- Akibat penaksir OLS mempunyai variansi dan kovariansi yang yang besar, menyebabkan interval estimasi akan cenderung lebih lebar dan nilai hitung statistik uji t akan kecil, sehingga membuat variabel bebas secara statistik tidak signifikan mempengaruhi variabel tidak bebas.
- Walaupun secara individu variabel bebas tidak berpengaruh terhadap variabel tidak bebas melalui uji t, tetapi nilai koefisien determinasi (R2) masih bisa relatif tinggi.
Selanjutnya untuk mendeteksi adanya multikolinieritas dalam model regresi linier berganda dapat digunakan nilai variance inflation factor (VIF) dan tolerance (TOL) dengan ketentuan jika nilai VIF melebihi angka 10, maka terjadi multikolinieritas dalam model regresi. Kemudian jika nilai TOL sama dengan 1, maka tidak terjadi multikolinieritas dalam model regresi. Nilai VIF dinyatakan sebagai berikut:
\[ VIF = \frac{1}{(1-R^2_J)} \tag{2.6} \] Dengan \(R^2_J\) adalah koefisien determinasi antara satu variabel prediktor Xj dengan variabel prediktor lainnya.

  1. Heteroskedastisitas

Heteroskedasitas merupakan sebuah kondisi dimana varians dari error bersifat bebas. Dampak adanya heteroskedastisitas dalam model regresi adalah walaupun estimator OLS masih linier dan tidak bias, tetapi tidak lagi mempunyai variansi yang minimum dan menyebabkan perhitungan standard error metode OLS tidak bisa dipercaya kebenarannya. Selain itu interval estimasi maupun pengujian hipotesis yang didasarkan pada distribusi t maupun F tidak bisa lagi dipercaya untuk evaluasi hasil regresi.
Akibat dari dampak heteroskedastisitas tersebut menyebabkan estimator OLS tidak menghasilkan estimator yang BLUE dan hanya menghasilkan estimator OLS yang linear unbiased estimator (LUE).
Selanjutnya dilakukan deteksi masalah heteroskedastisitas dalam model regresi.Salah satu cara yang dapat digunakan untuk mendeteksi adanya heteroskedastisitas dalam model regresi adalah dengan Metode Glejser. Glejser merupakan seorang ahliekonometrika dan mengatakan bahwa nilai variansi variabel error model regresi tergantung dari variabel bebas. Selanjutnya untuk mengetahui apakah pola variabel error mengandung heteroskedastisitas Glejser menyarankan untuk melakukan regresi nilai mutlak residual dengan variabel bebas. Jika hasil uji F dari model regresi yang diperoleh tidak signifikan, maka tidak ada heteroskedastisitas dalam model regresi.

  1. Autokorelasi

Uji autokorelasi digunakan untuk mengetahui ada atau tidaknya penyimpangan korelasi yang terjadi antara residual pada satu pengamatan dengan pengamatan lain pada model regresi.
Adapun dampak dari adanya autokorelasi dalam model regresi adalah sama dengan dampak dari heteroskedastisitas yang telah diuraikan di atas, yaitu walaupun estimator OLS masih linier dan tidak bias, tetapi tidak lagi mempunyai variansi yang minimum dan menyebabkan perhitungan standard error metode OLS tidak bisa dipercaya kebenarannya. Selain itu interval estimasi maupun pengujian hipotesis yang didasarkan pada distribusi t maupun F tidak bisa lagi dipercaya untuk evaluasi hasil regresi. Akibat dari dampak adanya autokorelasi dalam model regresi menyebabkan estimator OLS tidak menghasilkan estimator yang BLUE dan hanya menghasilkan estimator OLS yang LUE (Widarjono, 2007). Selanjutnya untuk mendeteksi adanya autokorelasi dalam model regresi linier berganda dapat digunakan metode Durbin-Watson. Durbin-Watson telah berhasil mengembangkan suatu metode yang digunakan untuk mendeteksi adanya masalah autokorelasi dalam model regresi linier berganda menggunakan pengujian hipotesis dengan statistik uji yang cukup populer seperti pada persamaan (2.7) sebagai berikut:
\[ d = \frac{\Sigma{(e_i-e_{i-1}})^2}{\Sigma{e^2_i}} \tag{2.7} \] Kemudian Durbin-Watson berhasil menurunkan nilai kritis batas bawah (dL) dan batas atas (dU) sehingga jika nilai d hitung dari persamaan (2.7) terletak di luar nilai kritis ini, maka ada atau tidaknya autokorelasi baik positif atau negatif dapat diketahui. Deteksi autokorelasipada model regresi linier berganda dengan metode Durbin-Watson adalah seperti pada tabel berikut:
: Nilai Statistik Durbin-Watson : | : Hasil :
0 < d < dL | Menolak H0 ; ada autokorelasi positif
dL

2.6 Pengujian Asumsi

  1. Uji Normalitas

Uji normalitas adalah pengujian untuk melihat apakah residual dari model regresi yang terbentuk berdistribusi normal. Model regresi yang baik adalah model yang distribusinya normal. Uji yang digunakan bisa berupa uji shapiro-wilk, uji anderson-darling, dan uji kolmogorov-smirnov.

  1. Uji Homoskedastisitas

Jika homoskedastisitas tidak terpenuhi menandakan bahwa telah terjadinya ketidaksamaan varian dari residual untuk semua pengamatan dari model regresi. Uji yang bisa digunakan adalah uji breusch-pagan.

  1. Uji Linearitas

Uji linearitas adalah salah satu uji asumsi klasik yang dilakukan untuk mengetahui sifat linear pada sebaran data antara variabel X dan Y. Perlunya mengetahui adakah sifat linear pada hubungan X dan Y mempengaruhi tingkat valid atau tidaknya model regresi yang dihasilkan. Uji yang digunakan adalah uji harvey-collier dan uji reset.

  1. Uji Autokorelasi

Uji Autokorelasi dilakukan untuk mengetahui adakah korelasi variabel yang ada di dalam model prediksi dengan perubahan waktu. Uji yang digunakan adalah uji durbin watson untuk menilai adanya autokorelasi pada residual. Uji durbin watson akan menghasilkan nilai Durbin Watson (DW) yang nantinya akan dibandingkan dengan dua nilai durbin Watson tabel, yaitu durbin Upper (DU) dan durbin Lower (DL).

2.7 Pengujian Hipotesis

  1. Uji Simultan

Uji simultan atau uji F digunakan untuk menguji pengaruh secara bersama-sama seluruh variabel prediktor yang diuji terhadap variabel respons. Hipotesis yang digunakan adalah sebagai berikut: \[ H _{0}: \beta _{1} = \beta _{2} = ... = \beta _{k-1} = 0 \] \[ H _{1}: \beta _{k} ≠ 0 \]

  1. Uji Parsial

Uji t digunakan untuk pengujian koefisien regresi secara parsial. Masing-masing variabel prediktor diuji untuk diketahui pengaruhnya terhadap variabel respons. Hipotesis yang digunakan sebagai berikut: \[ H _{0}: \beta _{i} = 0 \]

\[ H _{1}: \beta _{i} ≠ 0 \]

2.8 Data

Diberikan data tentang Tingkat Penjualan pada 15 tahun besertakan variabel biaya produksi, distribusi dan promosi.

3 Source Code

3.1 Library yang Dibutuhkan

#Library yang dibutuhkan
library(olsrr)
## 
## Attaching package: 'olsrr'
## The following object is masked from 'package:datasets':
## 
##     rivers
library(car)
## Loading required package: carData
library(nortest)
library(vctrs)
library(readxl)

3.2 Pembangkitan Data

Berikut adalah variabel yang digunakan dalam data:
- Y = Tingkat Penjualan
- X1 = Biaya Produksi
- X2 = Biaya Distribusi
- X3 = Biaya Promosi
Data yang digunakan:

Data <- readxl::read_excel("C:/Users/Asus/Documents/~ College Stuff/Komstat/Data.xlsx")
knitr::kable(Data, caption="Data yang digunakan")
Data yang digunakan
Y X1 X2 X3 X4
62 216 51 2.7 19
50 104 50 3.1 16
61 106 51 2.4 21
60 147 52 2.0 26
60 71 52 2.3 23
63 144 49 2.2 22
58 73 50 2.3 22
63 235 50 2.1 24
55 23 51 3.2 16
56 92 50 2.9 17
56 53 51 3.0 17
67 85 52 2.6 20
59 100 48 2.4 20
55 80 48 3.0 16
55 80 48 3.0 16
64 133 51 2.4 21
60 140 52 2.6 20
62 141 51 2.3 22
68 233 50 2.3 22
60 167 48 2.3 21

Data dapat dibangkitkan menggunakan package readxl atau pilihan import dataset yang telah tersedia pada software.

3.3 Pengujian

3.3.1 Persamaan Regresi

Akan dibentuk persamaan regresi menggunakan function lm dan perintah summary untuk menampilkan hasil analisis regresi.

regresi <- lm(Y~X1+X2+X3, data=Data)
summary(regresi)
## 
## Call:
## lm(formula = Y ~ X1 + X2 + X3, data = Data)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -6.0338 -1.1521  0.0426  0.7079  7.1859 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)  
## (Intercept) 33.51446   27.91373   1.201    0.247  
## X1           0.02584    0.01482   1.744    0.100  
## X2           0.74221    0.50820   1.460    0.164  
## X3          -5.57354    2.40421  -2.318    0.034 *
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 3.063 on 16 degrees of freedom
## Multiple R-squared:  0.5902, Adjusted R-squared:  0.5134 
## F-statistic: 7.681 on 3 and 16 DF,  p-value: 0.002116

3.3.2 Pengujian Model Terbaik

Akan ditentukan variabel mana yang dapat dimasukkan ke dalam persamaan regresi untuk mendapatkan model terbaik. Pengujian dilakukan menggunakan 3 metode pemilihan model terbaik yaitu All Possible Regression, Forward Selection, dan Backward Selection.

#Metode All Possible Regression
olsrr::ols_step_all_possible(regresi)
##   Index N Predictors   R-Square Adj. R-Square Mallow's Cp
## 3     1 1         X3 0.47319759    0.44393079    4.568625
## 1     2 1         X1 0.35579197    0.32000263    9.152644
## 2     3 1         X2 0.08609995    0.03532772   19.682577
## 5     4 2      X1 X3 0.53557904    0.48094128    4.132986
## 6     5 2      X2 X3 0.51234610    0.45497505    5.040100
## 4     6 2      X1 X2 0.45256331    0.38815900    7.374276
## 7     7 3   X1 X2 X3 0.59020895    0.51337312    4.000000
#Metode Forward Selection
olsrr::ols_step_forward_p(regresi)
## 
##                            Selection Summary                             
## ------------------------------------------------------------------------
##         Variable                  Adj.                                      
## Step    Entered     R-Square    R-Square     C(p)       AIC        RMSE     
## ------------------------------------------------------------------------
##    1    X3            0.4732      0.4439    4.5686    108.0879    3.2738    
##    2    X1            0.5356      0.4809    4.1330    107.5672    3.1629    
##    3    X2            0.5902      0.5134    4.0000    107.0643    3.0625    
## ------------------------------------------------------------------------
#Metode Backward Selection
olsrr::ols_step_backward_p(regresi)
## [1] "No variables have been removed from the model."

3.3.3 Uji Asumsi

library(car)
library(nortest)

#Uji Normalitas
shapiro.test(Data$Y)
## 
##  Shapiro-Wilk normality test
## 
## data:  Data$Y
## W = 0.97332, p-value = 0.8229
nortest::ad.test(Data$Y)
## 
##  Anderson-Darling normality test
## 
## data:  Data$Y
## A = 0.27128, p-value = 0.6348
nortest::lillie.test(Data$Y)
## 
##  Lilliefors (Kolmogorov-Smirnov) normality test
## 
## data:  Data$Y
## D = 0.12724, p-value = 0.5392
#Uji Homoskedastisitas
lmtest::bptest(regresi)
## 
##  studentized Breusch-Pagan test
## 
## data:  regresi
## BP = 2.1759, df = 3, p-value = 0.5367
#Uji Linearitas
lmtest::resettest(regresi, power=2)
## 
##  RESET test
## 
## data:  regresi
## RESET = 0.94267, df1 = 1, df2 = 15, p-value = 0.347
#Uji Non-Autokorelasi
lmtest::dwtest(regresi)
## 
##  Durbin-Watson test
## 
## data:  regresi
## DW = 2.0218, p-value = 0.4124
## alternative hypothesis: true autocorrelation is greater than 0

4 Hasil dan Pembahasan

4.1 Persamaan Regresi

Didapatkan persamaan regresi awal sebagai berikut: \[ Y = 33.51446 + 0.02584 X_{1} + 0.74221 X_{2} - 5.57354 X_{3} \]

4.2 Pengujian Model Terbaik

  1. Metode All Possible Regression

Persamaan regresi yang mengandung variabel X1, X2, dan X3 mempunyai nilai Cp Mallow terkecil dan R-square Adj. Terbesar sehingga model tersebutlah yang terbaik.

  1. Forward Selection

Dengan metode forward selection didapat bahwa model terbaik mengandung variabel prediktor X1, X2, dan X3.

  1. Backward Selection

Output dari uji model terbaik dengan metode backward selection menghasilkan bahwa untuk mendapatkan model terbaik, tidak ada variabel prediktor yang dihapuskan dari model.

4.3 Pengujian Asumsi

  1. Uji Normalitas

Hipotesis \(H_{0}\) : Data berdistribusi normal

\(H_{1}\) : Data berdistribusi tidak normal

Ketiga uji normalitas menghasilkan p-value yang lebih besar dari α (0.05), maka terima H0. Dengan demikian, data jumlah kecelakaan dan ketiga faktor kecelakaan menyebar secara normal.

  1. Uji Homoskedastisitas

Hipotesis \(H_{0}\) : Variansi galat bersifat homoskedastisitas

\(H_{1}\) : Variansi galat bersifat heteroskedastisitas

Dikarenakan p-value lebih besar dari α (0.05), maka H0 diterima. Dengan demikian, data memenuhi asumsi homoskedastisitas.

  1. Uji Linearitas

Hipotesis \(H_{0}\) : Model linier

\(H_{1}\) : Model non-linier Dikarenakan p-value lebih besar dari α (0.05), maka H0 diterima. Sehingga, model data bersifat linier.

  1. Uji Non-Autokorelasi

DW : 2.0218, nilai DW berada diantara 0≤DW≤4. Dari tabel didapatkan nilai DU=1.6889 dan DL=1.4797. Dikarenakan nilai DW terletak antara DU dan (4-DU), menandakan bahwa tidak ada autokorelasi.

4.4 Pengujian Hipotesis

  1. Uji Simultan

Nilai p (2.2e-16) < α (0.05), maka H0 ditolak. Disimpulkan bahwa faktor tidak berhati-hati, faktor tidak menjaga jarak, dan faktor melewati batas kecepatan secara bersamaan mempunyai pengaruh terhadap jumlah kecelakaan.

  1. Uji Parsial
  • Pengujian X1 Terhadap Y
    Statistik Uji: Nilai p-value = 0.100

P-value (0.100) > α(0.001), H0 diterima. Dengan taraf nyata 0.1% dapat disimpulkan bahwa secara parsial tidak terdapat hubungan antara variabel Biaya Produksi terhadap variabet Tingkat Penjualan.

  • Pengujian X2 terhadap Y
    Statistik Uji : Nilai p-value = 0.164

P-value (0.164) > α(0.001), H0 diterima Dengan taraf nyata 0.1% dapat disimpulkan bahwa secara parsial tidak terdapat hubungan antara variabel Biaya Distribusi terhadap variabel Tingkat Penjualan.

  • Pengujian X3 terhadap Y Statistik Uji : Nilai p-value = 0.034

P-value (0.034) > α(0.001), H0 diterima Dengan taraf nyata 0.1% dapat disimpulkan bahwa secara parsial tidak terdapat hubungan antara variabel Biaya Promosi terhadap variabel Tingkat Penjualan.

4.5 Interpretasi Model

Setelah didapatkan dari pengujian model terbaik bahwa seluruh variabel berpengaruh untuk mendapatkan model terbaik, maka dibentuk persamaan regresi yang memasukkan ketiga variabel. Model akhir dan terbaik yang terbentuk adalah: \[ Y = 33.51446 + 0.02584 X_{1} + 0.74221 X_{2} - 5.57354 X_{3} \] Dengan interpretasi sebagai berikut (bilangan desimal akan dilakukan pembulatan):

  • Penambahan Rp 1 Biaya Produksi dalam Berjual akan menambah Rp 258.4 Tingkat Penjualan jika faktor lainnya konstan.
  • Penambahan Rp 1 Biaya Distribusi dalam Berjual akan menambah Rp 7422.1 Tingkat Penjualan jika faktor lainnya konstan.
  • Penambahan Rp 1 Biaya Promosi dalam Berjual akan berkurang Rp 55,735.4 Tingkat Penjualan jika faktor lainnya konstan.
  • Jika seluruh variabel konstan (bernilai nol) maka Tingkat Penjualan bernilai Rp 33,5144.6

Dengan data menyebar secara normal, tidak memenuhi asumsi multikolinearitas, memenuhi asumsi homoskedastisitas, bersifat linier, dan tidak ada autokorelasi.

5 Daftar Pustaka

  • Laksono, A. A., Sartika, I., Desmitasari, R., AtmaYadin, M., & dewi Atmaja, A. P. Analisis Regresi Terapan Metode-Metode Pemilihan Persamaan Terbaik Regresi Berganda.
  • Mardiatmoko, G. (2020). Pentingnya uji asumsi klasik pada analisis regresi linier berganda (studi kasus penyusunan persamaan allometrik kenari muda [canarium indicum l.]). Barekeng: Jurnal Ilmu Matematika dan Terapan, 14(3), 333-342.
  • Web (http://blog-carame97.blogspot.com/2020/02/contoh-soal-regresi-linier-sederhana.html)