Analisis Regresi Linear Berganda untuk Mengetahui Pengaruh antara Kemampuan Manajemen, Kemampuan Berwirausaha, dan Strategi Bersaing Terhadap Kinerja Keuangan

Brigita Gloria Suli

21 May 2022


Notes Theme: - Kelas E: cayman
- Kelas F: tactile
- Kelas G: architect
- Kelas H: hpstr

Library:

> # install.packages("knitr")
> # install.packages("rmarkdown")
> # install.packages("prettydoc")
> # install.packages("equatiomatic")

1 BAB I PENDAHULUAN

1.1 Latar Belakang

Usaha ekonomi produktif yang dimiliki oleh perorangan maupun badan usaha biasa disebut Usaha Mikro Kecil Menengah (UMKM). Pada awal pandemi covid-19 tahun 2020, keberadaan UMKM semakin meningkat dibuktikan dengan banyaknya ‘local brand’ baru dalam bidang makanan, baju, make-up, dan lainnya. UMKM memiliki pengaruh yang besar terhadap penstabilan perekonomian Indonesia di masa pandemi, hal ini dapat dibuktikan melalui BRI Micro dan SME Index yang telah mencatat bahwa terjadi peningkatan yang signifikan di bagian Indeks Aktivitas Bisnis (IAB) dari 81,5 naik hingga 93,0, Indeks Ekspektasi Aktivitas Bisnis (IEAB) dari 105,4 naik hingga 128,0, dan Indeks Sentimen Bisnis (ISB) dari 90,2 naik hingga 115,5 per kuartal I/2021 dibandingkan dengan kuartal IV/2020 yang dilihat melalui BMSI.

UMKM merupakan bisnis atau usaha yang dibangun oleh seorang atau beberapa orang yang kelak akan memimpin dan membawa bisnis yang telah dibangun sesuai dengan visi dan misi perusahaan. Guna mewujudkan visi dan misi dari bisnis yang telah dibangun, dibutuhkan pemimpin yang mampu menuntun karwayannya dalam memenuhi tujuan perusahaan. Kemampuan manajemen, berwirausaha dan strategi bersaing merupakan hal yang penting bagi pemimpin perusahaan, karena dalam melakukan bisnis dibutuhkan kemampuan tersebut agar kinerja keuangan perusahaan stabil yang menuntuk kepada kemakmuran bisnis. Pentingnya UMKM menuntun kita pada keberjalanan bisnis yang baik melalui pemimpin yang kompeten. Berdasarkan permasalahan diatas, akan dilakukan analisis regresi linear berganda untuk mengetahui pengaruh antara Kemampuan Manajemen, Kemampuan Berwirausaha, dan Strategi Bersaing Terhadap Kinerja Keuangan. Dengan adanya analisis ini diharapkan bermanfaat bagi para calon pemimpin UMKM.

2 BAB II TINJAUAN PUSTAKA

2.1 Analisis Regresi Linear Berganda

Analisis Regresi Linear Berganda merupakan suatu uji untuk mengetahui hubungan antara satu variabel respon (Y), dengan dua atau lebih variabel prediktor (X). Dikatakan linier berganda karena terdapat dua atau lebih variabel bebas yang mempengaruhi variabel tak bebas. Variabel respon merupakan variabel yang nilai-nilainya ditetukan berdasarkan nilai-nilai dari satu atau lebih peubah penjelas. Variabel prediktor merupakan variabel yang nilai-nilainya dapat ditentukan, diatur, atau diamati. Analisis regresi memiliki sifat penduga BLUE yang merupakan singkatan dari Best, Linear, Unbiased, Estimator. Kriteria ini pertama kali dikenalkan oleh Gauss-Markov. BLUE hanya berlaku apabila menggunakan metode estimasi Metode kuadrat terkecil (MKT) atau Orninary Least Square (OLS).

2.2 Uji Asumsi Klasik

Uji Asumsi Klasik merupakan uji prasyarat yang dilakukan sebelum melakukan analisis lebih lanjut terhadap data yang telah dikumpulkan. Pengujian asumsi klasik ini ditujukan agar dapat menghasilkan model regresi yang memenuhi kriteria BLUE (Best Linier Unbiased Estimator). Uji asumsi klasik terdiri dari 4 uji.

Uji Normalitas (Shapiro-Wilk, Liliefors, Kolmogorov-Smirnov) dilakukan untuk mengetahui apakah residual nerdistribusi normal atau tidak. Residual harus mengikuti distribusi normal untuk memenuhi asumsi dan kriteria BLUE. Penyebab residual tidak normal kemungkinan karena terdapat nilai ekstrim dalam data.

Uji Homoskedastisitas (Uji Park, Uji Glejser, Uji Korelasi Rank Spearman) dilakukan untuk mengetahui apakah ragam residual tidak konstan atau heteroskedastisitas, karena ketika terjadi heteroskedastisitas OLS estimator tak bias dan konsisten, hal ini dikarenakan tidak ada variabel prediktor yang berkorelasi dengan residual. Heteroskedastisitas menyebabkan meningkatnya varians residual yang berpengaruh terhadap hasil analisis karena nilai uji F dan uji T akan membesar menyebabkan nilai signifikan kecil.

Uji autokorelasi (durbin watson) dilakukan untuk mendeteksi adanya korelasi atau hubungan antara residual pengamatan yang satu dengan lainnya. Autokorelasi biasa terjadi pada data yang berurutan atau time series. Pada regresi apabula terjadi autokorelasi, maka dapat menggangu suatu model. Autokorelasi mengakibatkan penaksiran OLS tidak lagi memiliki varians yang minimum, meskipun koefisien taksiran regresi tetap tak bias.

Uji Multikolinearitas (VIF) dilakukan untuk mendeteksi apakah terdapat korelasi yang sangat tinggi antara variabel independen. Ada beberapa tanda suatu regresi linear berganda memiliki masalah dengan miltikolinearitas, yaitu nilai R Square tinggu, tetapi hanya ada sedikit variabel independen yang signifikan atau bahkan tidak signifikan.

2.3 Data

Data diperoleh dari sumber: https://slideplayer.info/slide/4117674/

      X1 X2 X3  Y
 [1,] 60 59 49 15
 [2,] 48 45 37 13
 [3,] 60 60 49 15
 [4,] 48 46 39 10
 [5,] 48 48 40 14
 [6,] 39 48 31  9
 [7,] 50 52 39 10
 [8,] 48 52 47 11
 [9,] 48 47 38 13
[10,] 48 46 38 12
[11,] 48 48 38 12
[12,] 47 45 37 11
[13,] 48 48 40 11
[14,] 48 47 38 12
[15,] 48 43 35 12

X1 = Kemampuan Manajemen

X2 = Kemampuan Berwirausaha

X3 = Strategi Bersaing

Y = Kinerja Keuangan

3 SOURCE CODE

3.1 Library yang Dibutuhkan

> # Library(tseries)
> # Library(lmtest)
> # Library(car)
> # Library(olsrr)

3.2 Import Data

> p <- file.path("C:","Users","hp","Documents","STATISTIKA",
+                "SEM 6","Komputasi Statistika F","Praktikum",
+                "data praktikum - Sheet1.csv")
> data_project = read.csv(p,header=TRUE)
> summary(data_project)
       X1              X2              X3              Y     
 Min.   :39.00   Min.   :43.00   Min.   :31.00   Min.   : 9  
 1st Qu.:48.00   1st Qu.:46.00   1st Qu.:37.50   1st Qu.:11  
 Median :48.00   Median :48.00   Median :38.00   Median :12  
 Mean   :49.07   Mean   :48.93   Mean   :39.67   Mean   :12  
 3rd Qu.:48.00   3rd Qu.:50.00   3rd Qu.:40.00   3rd Qu.:13  
 Max.   :60.00   Max.   :60.00   Max.   :49.00   Max.   :15  
> head(data_project)
  X1 X2 X3  Y
1 60 59 49 15
2 48 45 37 13
3 60 60 49 15
4 48 46 39 10
5 48 48 40 14
6 39 48 31  9

3.3 Syntax

3.3.1 Import Data

> p <- file.path("C:","Users","hp","Documents","STATISTIKA",
+                "SEM 6","Komputasi Statistika F","Praktikum",
+                "data praktikum - Sheet1.csv")
> data_project = read.csv(p,header=TRUE)
> summary(data_project)
       X1              X2              X3              Y     
 Min.   :39.00   Min.   :43.00   Min.   :31.00   Min.   : 9  
 1st Qu.:48.00   1st Qu.:46.00   1st Qu.:37.50   1st Qu.:11  
 Median :48.00   Median :48.00   Median :38.00   Median :12  
 Mean   :49.07   Mean   :48.93   Mean   :39.67   Mean   :12  
 3rd Qu.:48.00   3rd Qu.:50.00   3rd Qu.:40.00   3rd Qu.:13  
 Max.   :60.00   Max.   :60.00   Max.   :49.00   Max.   :15  
> head(data_project)
  X1 X2 X3  Y
1 60 59 49 15
2 48 45 37 13
3 60 60 49 15
4 48 46 39 10
5 48 48 40 14
6 39 48 31  9

3.3.2 Analisis Regresi Linear Berganda

> reg <- lm(Y~X1+X2+X3,
+           data=data_project)
> summary(reg)

Call:
lm(formula = Y ~ X1 + X2 + X3, data = data_project)

Residuals:
    Min      1Q  Median      3Q     Max 
-2.0020 -0.5139  0.1740  0.3732  2.2697 

Coefficients:
             Estimate Std. Error t value Pr(>|t|)  
(Intercept)  0.003108   3.626020   0.001    0.999  
X1           0.344523   0.130556   2.639    0.023 *
X2          -0.103376   0.127434  -0.811    0.434  
X3           0.003802   0.149964   0.025    0.980  
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 1.237 on 11 degrees of freedom
Multiple R-squared:  0.6173,    Adjusted R-squared:  0.5129 
F-statistic: 5.914 on 3 and 11 DF,  p-value: 0.01178

3.3.3 Uji Asumsi Klasik

> ##Uji Normalitas
> shapiro.test(residuals(reg))

    Shapiro-Wilk normality test

data:  residuals(reg)
W = 0.95058, p-value = 0.5336
>   
> ##Uji Homoskedastisitas
> lmtest::bptest(reg)

    studentized Breusch-Pagan test

data:  reg
BP = 0.13112, df = 3, p-value = 0.9879
>   
> ##Uji Autokorelasi
> lmtest::dwtest(reg)

    Durbin-Watson test

data:  reg
DW = 2.4504, p-value = 0.8268
alternative hypothesis: true autocorrelation is greater than 0
>   
> ##Uji Multikolinearitas
> car::vif(reg)
      X1       X2       X3 
3.974163 3.574221 5.161338 

3.3.4 Pemilihan Model Terbaik

> #Metode All Possible Regression
> olsrr::ols_step_all_possible(reg)
  Index N Predictors  R-Square Adj. R-Square Mallow's Cp
1     1 1         X1 0.5868170     0.5550337   0.8757842
3     2 1         X3 0.3736415     0.3254601   7.0029134
2     3 1         X2 0.2428320     0.1845883  10.7626671
4     4 2      X1 X2 0.6172650     0.5534758   2.0006428
5     5 2      X1 X3 0.5943917     0.5267904   2.6580692
6     6 2      X2 X3 0.3750024     0.2708362   8.9637987
7     7 3   X1 X2 X3 0.6172873     0.5129111   4.0000000
>   
> #Metode Forward Selection
> olsrr::ols_step_forward_p(reg)

                           Selection Summary                            
-----------------------------------------------------------------------
        Variable                  Adj.                                     
Step    Entered     R-Square    R-Square     C(p)       AIC       RMSE     
-----------------------------------------------------------------------
   1    X1            0.5868      0.5550    0.8758    51.4523    1.1826    
-----------------------------------------------------------------------
>   
> #Metode Backward Selection
> olsrr::ols_step_backward_p(reg)

                          Elimination Summary                           
-----------------------------------------------------------------------
        Variable                  Adj.                                     
Step    Removed     R-Square    R-Square     C(p)       AIC       RMSE     
-----------------------------------------------------------------------
   1    X3            0.6173      0.5535    2.0006    52.3041    1.1846    
   2    X2            0.5868       0.555    0.8758    51.4523    1.1826    
-----------------------------------------------------------------------
>   
> #Model Regresi (Final)
> reg1 <- lm(Y~X1,
+            data=data_project)
> summary(reg1)

Call:
lm(formula = Y ~ X1, data = data_project)

Residuals:
     Min       1Q   Median       3Q      Max 
-2.25103 -0.57863  0.05939  0.28689  2.28689 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept) -1.19686    3.08642  -0.388 0.704451    
X1           0.26896    0.06259   4.297 0.000868 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 1.183 on 13 degrees of freedom
Multiple R-squared:  0.5868,    Adjusted R-squared:  0.555 
F-statistic: 18.46 on 1 and 13 DF,  p-value: 0.0008683

4 BAB III HASIL DAN PEMBAHASAN

4.1 Pendugaan Parameter

Call:
lm(formula = Y ~ X1 + X2 + X3, data = data_project)

Residuals:
    Min      1Q  Median      3Q     Max 
-2.0020 -0.5139  0.1740  0.3732  2.2697 

Coefficients:
             Estimate Std. Error t value Pr(>|t|)  
(Intercept)  0.003108   3.626020   0.001    0.999  
X1           0.344523   0.130556   2.639    0.023 *
X2          -0.103376   0.127434  -0.811    0.434  
X3           0.003802   0.149964   0.025    0.980  
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 1.237 on 11 degrees of freedom
Multiple R-squared:  0.6173,    Adjusted R-squared:  0.5129 
F-statistic: 5.914 on 3 and 11 DF,  p-value: 0.01178

4.1.1 UJI PARSIAL

4.1.1.1 X1 terhadap Y

Hipotesis

H0: Tidak terdapat hubungan linear antara X1 dengan Y

H1: Terdapat hubungan linear antara X1 dengan Y

Statistik Uji

P-value = 0.023

Keputusan

Karena P-value (0.023) < α (0.05), maka Tolak H0

Interpretasi

Dapat disimpulkan secara parsial bahwa kemampuan manajemen (X1) berpengaruh secara signifikan terhadap kinerja keuangan (Y).

4.1.1.2 X2 terhadap Y

Hipotesis

H0: Tidak terdapat hubungan linear antara X2 dengan Y

H1: Terdapat hubungan linear antara X2 dengan Y

Statistik Uji

P-value = 0.434

Keputusan

Karena P-value (0.434) > α (0.05), maka Gagal Tolak H0

Interpretasi

Dapat disimpulkan secara parsial bahwa kemampuan berwirausaha (X2) tidak berpengaruh secara signifikan terhadap kinerja keuangan (Y).

4.1.1.3 X3 terhadap Y

Hipotesis

H0: Tidak terdapat hubungan linear antara X3 dengan Y

H1: Terdapat hubungan linear antara X3 dengan Y

Statistik Uji

P-value = 0.980

Keputusan

Karena P-value (0.980) > α (0.05), maka Gagal Tolak H0

Interpretasi

Dapat disimpulkan secara parsial bahwa strategi bersaing (X3) tidak berpengaruh secara signifikan terhadap kinerja keuangan (Y).

4.1.2 INTERPRETASI

Persamaan Regresi \[ Y = 0.001 + 2.639X_1 − 0.811X_2 + 0.025X_3 \]

Intrepretasi Beta0 = 0.001

Jika kemampuan manajemen (X1), kemampuan berwirausaha (X2) dan strategi bersaing (X3) bernilai konstan, maka kinerja keuangan (Y) sebesar 0.001.

Intrepretasi Beta1 = 2.639

Jika kemampuan berwirausaha (X2) dan strategi bersaing (X3) bernilai konstan, maka untuk setiap kenaikan kemampuan manajemen (X1) sebanyak 1 satuan akan menaikkan kinerja keuangan (Y) sebesar 2.639.

Intrepretasi Beta2 = -0.811

Jika kemampuan manajemen (X1) dan strategi bersaing (X3) bernilai konstan, maka untuk setiap kenaikan kemampuan berwirausaha (X2) sebanyak 1 satuan akan menurunkan kinerja keuangan (Y) sebesar 0.811.

Intrepretasi Beta3 = 0.025

Jika kemampuan manajemen (X1) dan kemampuan berwirausaha (X2) bernilai konstan, maka untuk setiap kenaikan strategi bersaing (X3) sebanyak 1 satuan akan menaikkan kinerja keuangan (Y) sebesar 0.025.

4.2 UJI ASUMSI KLASIK

4.2.1 Uji Normalitas

    Shapiro-Wilk normality test

data:  residuals(reg)
W = 0.95058, p-value = 0.5336

Hipotesis

H0: Sampel berasal dari populasi berdistribusi normal

H1: Sampel tidak berasal dari populasi berdistribusi normal

α = 0.05

Statistik Uji

W = 0.95291

P-value = 0.5713

Keputusan

Karena P-value (0.5713) > α (0.05), maka Gagal Tolak H0

Interpretasi

Dapat disimpulkan bahwa sampel berasal dari populasi yang berdistribusi normal.

4.2.2 Uji Homoskedastisitas

    studentized Breusch-Pagan test

data:  reg
BP = 0.13112, df = 3, p-value = 0.9879

Hipotesis

H0: Variansi galat bersifat homoskedastisitas

H1: Variansi galat bersifat heteroskedastisitas

α = 0.05

Statistik Uji

BP = 0.13112

P-value = 0.9879

Keputusan

Karena P-value (0. 9879) > α (0.05), maka Gagal Tolak H0

Interpretasi

Dapat disimpulkan bahwa variansi galat bersifat homoskedastisitas.

4.2.3 Uji Autokorelasi

    Durbin-Watson test

data:  reg
DW = 2.4504, p-value = 0.8268
alternative hypothesis: true autocorrelation is greater than 0

Hipotesis

H0: Tidak terjadi autokorelasi

H1: Terjadi autokorelasi

k = 3

n = 15

dL = 0.8140

dU = 1.7501

Statistik Uji

DW = 2.4504

P-value = 0.8268

Keputusan

Karena nilai DW terletak diantara 4-dU (2.2499) dan 4-dL (3.186), maka tidak ada kesimpulan.

4.2.4 Uji Multikolinearitas

      X1       X2       X3 
3.974163 3.574221 5.161338 

Interpretasi

Karena hasil perhitungan VIF < 10 maka memenuhi asumsi non multikolinieritas.

4.3 Pemilihan Model Terbaik

4.3.1 All Possible Regression

Index N Predictors    R-Square     Adj. R-Square    Mallow's Cp
1  1  1   X1          0.5868170   0.5550337         0.8757842
3  2  1   X3          0.3736415   0.3254601         7.0029134
2  3  1   X2          0.2428320   0.1845883         10.7626671
4  4  2   X1 X2       0.6172650   0.5534758         2.0006428
5  5  2   X1 X3       0.5943917   0.5267904         2.6580692
6  6  2   X2 X3       0.3750024   0.2708362         8.9637987
7  7  3   X1 X2 X3    0.6172873   0.5129111         4.0000000

Interpretasi

Model ini hanya mengandung variable X1, X2 dan X3 tidak dibutuhkan.

4.3.2 Forward Selection

                           Selection Summary                            
-----------------------------------------------------------------------
        Variable                  Adj.                                     
Step    Entered     R-Square    R-Square     C(p)       AIC       RMSE     
-----------------------------------------------------------------------
   1    X1            0.5868      0.5550    0.8758    51.4523    1.1826    
-----------------------------------------------------------------------

Interpretasi

Dengan metode forward selection dapat diketahui bahwa model yang terbaik hanya membutuhkan variable X1.

4.3.3 Backward Elimination

                          Elimination Summary                           
-----------------------------------------------------------------------
        Variable                  Adj.                                     
Step    Removed     R-Square    R-Square     C(p)       AIC       RMSE     
-----------------------------------------------------------------------
   1    X3            0.6173      0.5535    2.0006    52.3041    1.1846    
   2    X2            0.5868       0.555    0.8758    51.4523    1.1826    
-----------------------------------------------------------------------

Interpretasi

Dengan metode backward elimination dapat disimpulkan bahwa untuk mendapatkan model regresi terbaik harus membuang variable X2 dan X3.

4.4 Model Final Regresi

Call:
lm(formula = Y ~ X1, data = data_project)

Residuals:
     Min       1Q   Median       3Q      Max 
-2.25103 -0.57863  0.05939  0.28689  2.28689 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept) -1.19686    3.08642  -0.388 0.704451    
X1           0.26896    0.06259   4.297 0.000868 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 1.183 on 13 degrees of freedom
Multiple R-squared:  0.5868,    Adjusted R-squared:  0.555 
F-statistic: 18.46 on 1 and 13 DF,  p-value: 0.0008683

Interpretasi

Dengan metode backward elimination dapat disimpulkan bahwa untuk mendapatkan model regresi terbaik harus membuang variable X2 dan X3. \[ Y = −1.19686 + 0.26896(X1) \]

5 BAB IV PENUTUP

5.1 KESIMPULAN

Pendugaan parameter regresi, Uji asumsi dan Pemilihan model terbaik dapat dicari atau dihitung dengan software Rstudio/SPSS dan juga dapat dihitung dengan manual.

Pendugaan parameter regresi dapat menggunakan uji simultan dan juga uji parsial, untuk laporan kali yang dijabarkan hanya uji parsial untuk mengetahui apakah ada variable prediktor yang berpengaruh secara signifikan terhadap variable respons.

Uji Asumsi dapat menggunakan uji asumsi normalitas, uji asumsi multikolinieritas, uji asumsi homoskedastisitas, dan uji autokorelasi. Untuk uji normalitas dapat menggunakan uji saphiro wilk. Dari diatas didapatkan bahwa gagal tolak H0 yang berarti sampel berasal dari populasi yang menyebar normal.

Uji asumsi multikolinearitas dapat menggunakan uji pearson dan VIF. Dilakukan untuk melihat jumlah keeratan hubungan antar masing-masing variable dan juga untuk memeriksa apakah terdapat korelasi atau hubungan yang sangat tinggi di antara variable independen.

Uji asumsi homoskedastisitas dapat menggunakan uji breusch padan. Dilakukan untuk melihat apakah ragam residual konstan (homoskedastisitas) atau tidak konstan (heteroskedastisitas). Pada perhitungan data diatas dapatkan bahwa variansi galat bersifat homoskedastisitas.

Uji auto korelasi dapat dihitung dengan uji durbin watson. Dilakukan untuk mengetahui apakah terdapat korelasi/hubungan antar residual/galat pada data yang berurutan/time series. Dari perhitungan terhadap data diatas, residual tidak dapat disimpulkan karena letak DW berada didaerah “tidak dapat disimpulkan”.

Pemilihan model terbaik dapat menggunakan uji all possible regression, forward selection dan backward elimination. Untuk all possible regression dipilih dari predictor yang memiliki CP Mallow terkecil dan Adj. R dan R terbesar. Untuk uji forward selection dia langsung memilih variable terbaik sedangkan backward elimination ia menampilkan variable yang tereliminasi. Dari ketiga uji diatas ditemukan variable terbaik adalah X1.

5.2 SARAN

Untuk menggunakan software R jangan lupa untuk mengunduh packages olsrr, car, tseries dam lmtest. Apabila saat mencari VIF error, unduh packages “vctrs” lalu saat Rstudio ingin melakukan restart app tekan “No” pada pilihan yang tertera.

Diusahakan juga untuk data pada excel dimulai dari cell A1, karena jika tidak nanti saat dimasukkan kedalam Rstudio akan terbentuk kolom dan baris baru yang berisi NA atau not available.

6 DAFTAR PUSTAKA

Yuliara, I. M. (2016). Regresi Linier Berganda. Denpasar: Universitas Udayana.

Sholeh, Sukma. ANALISIS REGRESI LINIER TIGA PREDIKTOR. SlidePlayer.

7 LAMPIRAN

7.1 R Console

data <- c(60,48,60,48,48,39,50,48,48,48,48,47,48,48,48,

  •       59,45,60,46,48,48,52,52,47,46,48,45,48,47,43,
  •       49,37,49,39,40,31,39,47,38,38,38,37,40,38,35,
  •       15,13,15,10,14,9,10,11,13,12,12,11,11,12,12)

a <- matrix(data,

  •         nrow=15,
  •         ncol=4)

colnames(a) <- c(“X1”,“X2”,“X3”,“Y”)

a

      X1 X2 X3  Y
 [1,] 60 59 49 15
 [2,] 48 45 37 13
 [3,] 60 60 49 15
 [4,] 48 46 39 10
 [5,] 48 48 40 14
 [6,] 39 48 31  9
 [7,] 50 52 39 10
 [8,] 48 52 47 11
 [9,] 48 47 38 13
[10,] 48 46 38 12
[11,] 48 48 38 12
[12,] 47 45 37 11
[13,] 48 48 40 11
[14,] 48 47 38 12
[15,] 48 43 35 12

Library

#Library(tseries)

#Library(lmtest)

#Library(car)

#Library(olsrr)

p <- file.path(“C:”,“Users”,“hp”,“Documents”,“STATISTIKA”,

  •            "SEM 6","Komputasi Statistika F","Praktikum",
  •            "data praktikum - Sheet1.csv")

data_project = read.csv(p,header=TRUE)

summary(data_project)

       X1              X2              X3              Y     
  
 Min.   :39.00   Min.   :43.00   Min.   :31.00   Min.   : 9  
  
 1st Qu.:48.00   1st Qu.:46.00   1st Qu.:37.50   1st Qu.:11  
  
 Median :48.00   Median :48.00   Median :38.00   Median :12  
  
 Mean   :49.07   Mean   :48.93   Mean   :39.67   Mean   :12  
  
 3rd Qu.:48.00   3rd Qu.:50.00   3rd Qu.:40.00   3rd Qu.:13  
  
 Max.   :60.00   Max.   :60.00   Max.   :49.00   Max.   :15  

head(data_project)

#Import Data

p <- file.path(“C:”,“Users”,“hp”,“Documents”,“STATISTIKA”,

  •            "SEM 6","Komputasi Statistika F","Praktikum",
  •            "data praktikum - Sheet1.csv")

data_project = read.csv(p,header=TRUE)

summary(data_project)

       X1              X2              X3              Y     
        
 Min.   :39.00   Min.   :43.00   Min.   :31.00   Min.   : 9  
  
 1st Qu.:48.00   1st Qu.:46.00   1st Qu.:37.50   1st Qu.:11  
  
 Median :48.00   Median :48.00   Median :38.00   Median :12  
  
 Mean   :49.07   Mean   :48.93   Mean   :39.67   Mean   :12  
  
 3rd Qu.:48.00   3rd Qu.:50.00   3rd Qu.:40.00   3rd Qu.:13  
  
 Max.   :60.00   Max.   :60.00   Max.   :49.00   Max.   :15  

head(data_project)

#Analisis Regresi Linear Berganda

reg <- lm(Y~X1+X2+X3,

  •       data=data_project)

summary(reg)

Call:
  
lm(formula = Y ~ X1 + X2 + X3, data = data_project)
  
Residuals:
  
    Min      1Q  Median      3Q     Max 
      
-2.0020 -0.5139  0.1740  0.3732  2.2697 
  
Coefficients:
  
             Estimate Std. Error t value Pr(>|t|)  
              
(Intercept)  0.003108   3.626020   0.001    0.999  
  
X1           0.344523   0.130556   2.639    0.023 *
  
X2          -0.103376   0.127434  -0.811    0.434  
  
X3           0.003802   0.149964   0.025    0.980  
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
  
Residual standard error: 1.237 on 11 degrees of freedom
  
Multiple R-squared:  0.6173,    Adjusted R-squared:  0.5129
  
F-statistic: 5.914 on 3 and 11 DF,  p-value: 0.01178

#Uji Asumsi Klasik

##Uji Normalitas

shapiro.test(residuals(reg))

    Shapiro-Wilk normality test
  
data:  residuals(reg)
  
W = 0.95058, p-value = 0.5336

##Uji Homoskedastisitas

lmtest::bptest(reg)

    studentized Breusch-Pagan test
  
data:  reg
  
BP = 0.13112, df = 3, p-value = 0.9879

##Uji Autokorelasi

lmtest::dwtest(reg)

    Durbin-Watson test
  
data:  reg
  
DW = 2.4504, p-value = 0.8268
  
alternative hypothesis: true autocorrelation is greater than 0

##Uji Multikolinearitas

car::vif(reg)

      X1       X2       X3 
        
3.974163 3.574221 5.161338 

#Pemilihan Model Terbaik

#Metode All Possible Regression

olsrr::ols_step_all_possible(reg)

#Metode Forward Selection

olsrr::ols_step_forward_p(reg)

                           Selection Summary                               
-----------------------------------------------------------------------
  
        Variable                  Adj.                                     
Step    Entered     R-Square    R-Square     C(p)       AIC       RMSE     
-----------------------------------------------------------------------
   1    X1            0.5868      0.5550    0.8758    51.4523    1.1826    
-----------------------------------------------------------------------

#Metode Backward Selection olsrr::ols_step_backward_p(reg)

                          Elimination Summary                           
-----------------------------------------------------------------------
        Variable                  Adj.                                     
Step    Removed     R-Square    R-Square     C(p)       AIC       RMSE     
-----------------------------------------------------------------------
   1    X3            0.6173      0.5535    2.0006    52.3041    1.1846    
   2    X2            0.5868       0.555    0.8758    51.4523    1.1826    
-----------------------------------------------------------------------

#Model Regresi (Final)

reg1 <- lm(Y~X1,

  •        data=data_project)

summary(reg1)

Call:
lm(formula = Y ~ X1, data = data_project)

Residuals:
     Min       1Q   Median       3Q      Max 
-2.25103 -0.57863  0.05939  0.28689  2.28689 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept) -1.19686    3.08642  -0.388 0.704451    
X1           0.26896    0.06259   4.297 0.000868 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 1.183 on 13 degrees of freedom
Multiple R-squared:  0.5868,    Adjusted R-squared:  0.555 
F-statistic: 18.46 on 1 and 13 DF,  p-value: 0.0008683