Notes Theme: - Kelas E: cayman
- Kelas F: tactile
- Kelas G: architect
- Kelas H: hpstr
Library:
> # install.packages("knitr")
> # install.packages("rmarkdown")
> # install.packages("prettydoc")
> # install.packages("equatiomatic")Usaha ekonomi produktif yang dimiliki oleh perorangan maupun badan usaha biasa disebut Usaha Mikro Kecil Menengah (UMKM). Pada awal pandemi covid-19 tahun 2020, keberadaan UMKM semakin meningkat dibuktikan dengan banyaknya ‘local brand’ baru dalam bidang makanan, baju, make-up, dan lainnya. UMKM memiliki pengaruh yang besar terhadap penstabilan perekonomian Indonesia di masa pandemi, hal ini dapat dibuktikan melalui BRI Micro dan SME Index yang telah mencatat bahwa terjadi peningkatan yang signifikan di bagian Indeks Aktivitas Bisnis (IAB) dari 81,5 naik hingga 93,0, Indeks Ekspektasi Aktivitas Bisnis (IEAB) dari 105,4 naik hingga 128,0, dan Indeks Sentimen Bisnis (ISB) dari 90,2 naik hingga 115,5 per kuartal I/2021 dibandingkan dengan kuartal IV/2020 yang dilihat melalui BMSI.
UMKM merupakan bisnis atau usaha yang dibangun oleh seorang atau beberapa orang yang kelak akan memimpin dan membawa bisnis yang telah dibangun sesuai dengan visi dan misi perusahaan. Guna mewujudkan visi dan misi dari bisnis yang telah dibangun, dibutuhkan pemimpin yang mampu menuntun karwayannya dalam memenuhi tujuan perusahaan. Kemampuan manajemen, berwirausaha dan strategi bersaing merupakan hal yang penting bagi pemimpin perusahaan, karena dalam melakukan bisnis dibutuhkan kemampuan tersebut agar kinerja keuangan perusahaan stabil yang menuntuk kepada kemakmuran bisnis. Pentingnya UMKM menuntun kita pada keberjalanan bisnis yang baik melalui pemimpin yang kompeten. Berdasarkan permasalahan diatas, akan dilakukan analisis regresi linear berganda untuk mengetahui pengaruh antara Kemampuan Manajemen, Kemampuan Berwirausaha, dan Strategi Bersaing Terhadap Kinerja Keuangan. Dengan adanya analisis ini diharapkan bermanfaat bagi para calon pemimpin UMKM.
Analisis Regresi Linear Berganda merupakan suatu uji untuk mengetahui hubungan antara satu variabel respon (Y), dengan dua atau lebih variabel prediktor (X). Dikatakan linier berganda karena terdapat dua atau lebih variabel bebas yang mempengaruhi variabel tak bebas. Variabel respon merupakan variabel yang nilai-nilainya ditetukan berdasarkan nilai-nilai dari satu atau lebih peubah penjelas. Variabel prediktor merupakan variabel yang nilai-nilainya dapat ditentukan, diatur, atau diamati. Analisis regresi memiliki sifat penduga BLUE yang merupakan singkatan dari Best, Linear, Unbiased, Estimator. Kriteria ini pertama kali dikenalkan oleh Gauss-Markov. BLUE hanya berlaku apabila menggunakan metode estimasi Metode kuadrat terkecil (MKT) atau Orninary Least Square (OLS).
Uji Asumsi Klasik merupakan uji prasyarat yang dilakukan sebelum melakukan analisis lebih lanjut terhadap data yang telah dikumpulkan. Pengujian asumsi klasik ini ditujukan agar dapat menghasilkan model regresi yang memenuhi kriteria BLUE (Best Linier Unbiased Estimator). Uji asumsi klasik terdiri dari 4 uji.
Uji Normalitas (Shapiro-Wilk, Liliefors, Kolmogorov-Smirnov) dilakukan untuk mengetahui apakah residual nerdistribusi normal atau tidak. Residual harus mengikuti distribusi normal untuk memenuhi asumsi dan kriteria BLUE. Penyebab residual tidak normal kemungkinan karena terdapat nilai ekstrim dalam data.
Uji Homoskedastisitas (Uji Park, Uji Glejser, Uji Korelasi Rank Spearman) dilakukan untuk mengetahui apakah ragam residual tidak konstan atau heteroskedastisitas, karena ketika terjadi heteroskedastisitas OLS estimator tak bias dan konsisten, hal ini dikarenakan tidak ada variabel prediktor yang berkorelasi dengan residual. Heteroskedastisitas menyebabkan meningkatnya varians residual yang berpengaruh terhadap hasil analisis karena nilai uji F dan uji T akan membesar menyebabkan nilai signifikan kecil.
Uji autokorelasi (durbin watson) dilakukan untuk mendeteksi adanya korelasi atau hubungan antara residual pengamatan yang satu dengan lainnya. Autokorelasi biasa terjadi pada data yang berurutan atau time series. Pada regresi apabula terjadi autokorelasi, maka dapat menggangu suatu model. Autokorelasi mengakibatkan penaksiran OLS tidak lagi memiliki varians yang minimum, meskipun koefisien taksiran regresi tetap tak bias.
Uji Multikolinearitas (VIF) dilakukan untuk mendeteksi apakah terdapat korelasi yang sangat tinggi antara variabel independen. Ada beberapa tanda suatu regresi linear berganda memiliki masalah dengan miltikolinearitas, yaitu nilai R Square tinggu, tetapi hanya ada sedikit variabel independen yang signifikan atau bahkan tidak signifikan.
Data diperoleh dari sumber: https://slideplayer.info/slide/4117674/
X1 X2 X3 Y
[1,] 60 59 49 15
[2,] 48 45 37 13
[3,] 60 60 49 15
[4,] 48 46 39 10
[5,] 48 48 40 14
[6,] 39 48 31 9
[7,] 50 52 39 10
[8,] 48 52 47 11
[9,] 48 47 38 13
[10,] 48 46 38 12
[11,] 48 48 38 12
[12,] 47 45 37 11
[13,] 48 48 40 11
[14,] 48 47 38 12
[15,] 48 43 35 12
X1 = Kemampuan Manajemen
X2 = Kemampuan Berwirausaha
X3 = Strategi Bersaing
Y = Kinerja Keuangan
> # Library(tseries)
> # Library(lmtest)
> # Library(car)
> # Library(olsrr)> p <- file.path("C:","Users","hp","Documents","STATISTIKA",
+ "SEM 6","Komputasi Statistika F","Praktikum",
+ "data praktikum - Sheet1.csv")
> data_project = read.csv(p,header=TRUE)
> summary(data_project)
X1 X2 X3 Y
Min. :39.00 Min. :43.00 Min. :31.00 Min. : 9
1st Qu.:48.00 1st Qu.:46.00 1st Qu.:37.50 1st Qu.:11
Median :48.00 Median :48.00 Median :38.00 Median :12
Mean :49.07 Mean :48.93 Mean :39.67 Mean :12
3rd Qu.:48.00 3rd Qu.:50.00 3rd Qu.:40.00 3rd Qu.:13
Max. :60.00 Max. :60.00 Max. :49.00 Max. :15
> head(data_project)
X1 X2 X3 Y
1 60 59 49 15
2 48 45 37 13
3 60 60 49 15
4 48 46 39 10
5 48 48 40 14
6 39 48 31 9> p <- file.path("C:","Users","hp","Documents","STATISTIKA",
+ "SEM 6","Komputasi Statistika F","Praktikum",
+ "data praktikum - Sheet1.csv")
> data_project = read.csv(p,header=TRUE)
> summary(data_project)
X1 X2 X3 Y
Min. :39.00 Min. :43.00 Min. :31.00 Min. : 9
1st Qu.:48.00 1st Qu.:46.00 1st Qu.:37.50 1st Qu.:11
Median :48.00 Median :48.00 Median :38.00 Median :12
Mean :49.07 Mean :48.93 Mean :39.67 Mean :12
3rd Qu.:48.00 3rd Qu.:50.00 3rd Qu.:40.00 3rd Qu.:13
Max. :60.00 Max. :60.00 Max. :49.00 Max. :15
> head(data_project)
X1 X2 X3 Y
1 60 59 49 15
2 48 45 37 13
3 60 60 49 15
4 48 46 39 10
5 48 48 40 14
6 39 48 31 9> reg <- lm(Y~X1+X2+X3,
+ data=data_project)
> summary(reg)
Call:
lm(formula = Y ~ X1 + X2 + X3, data = data_project)
Residuals:
Min 1Q Median 3Q Max
-2.0020 -0.5139 0.1740 0.3732 2.2697
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 0.003108 3.626020 0.001 0.999
X1 0.344523 0.130556 2.639 0.023 *
X2 -0.103376 0.127434 -0.811 0.434
X3 0.003802 0.149964 0.025 0.980
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 1.237 on 11 degrees of freedom
Multiple R-squared: 0.6173, Adjusted R-squared: 0.5129
F-statistic: 5.914 on 3 and 11 DF, p-value: 0.01178> ##Uji Normalitas
> shapiro.test(residuals(reg))
Shapiro-Wilk normality test
data: residuals(reg)
W = 0.95058, p-value = 0.5336
>
> ##Uji Homoskedastisitas
> lmtest::bptest(reg)
studentized Breusch-Pagan test
data: reg
BP = 0.13112, df = 3, p-value = 0.9879
>
> ##Uji Autokorelasi
> lmtest::dwtest(reg)
Durbin-Watson test
data: reg
DW = 2.4504, p-value = 0.8268
alternative hypothesis: true autocorrelation is greater than 0
>
> ##Uji Multikolinearitas
> car::vif(reg)
X1 X2 X3
3.974163 3.574221 5.161338 > #Metode All Possible Regression
> olsrr::ols_step_all_possible(reg)
Index N Predictors R-Square Adj. R-Square Mallow's Cp
1 1 1 X1 0.5868170 0.5550337 0.8757842
3 2 1 X3 0.3736415 0.3254601 7.0029134
2 3 1 X2 0.2428320 0.1845883 10.7626671
4 4 2 X1 X2 0.6172650 0.5534758 2.0006428
5 5 2 X1 X3 0.5943917 0.5267904 2.6580692
6 6 2 X2 X3 0.3750024 0.2708362 8.9637987
7 7 3 X1 X2 X3 0.6172873 0.5129111 4.0000000
>
> #Metode Forward Selection
> olsrr::ols_step_forward_p(reg)
Selection Summary
-----------------------------------------------------------------------
Variable Adj.
Step Entered R-Square R-Square C(p) AIC RMSE
-----------------------------------------------------------------------
1 X1 0.5868 0.5550 0.8758 51.4523 1.1826
-----------------------------------------------------------------------
>
> #Metode Backward Selection
> olsrr::ols_step_backward_p(reg)
Elimination Summary
-----------------------------------------------------------------------
Variable Adj.
Step Removed R-Square R-Square C(p) AIC RMSE
-----------------------------------------------------------------------
1 X3 0.6173 0.5535 2.0006 52.3041 1.1846
2 X2 0.5868 0.555 0.8758 51.4523 1.1826
-----------------------------------------------------------------------
>
> #Model Regresi (Final)
> reg1 <- lm(Y~X1,
+ data=data_project)
> summary(reg1)
Call:
lm(formula = Y ~ X1, data = data_project)
Residuals:
Min 1Q Median 3Q Max
-2.25103 -0.57863 0.05939 0.28689 2.28689
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -1.19686 3.08642 -0.388 0.704451
X1 0.26896 0.06259 4.297 0.000868 ***
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 1.183 on 13 degrees of freedom
Multiple R-squared: 0.5868, Adjusted R-squared: 0.555
F-statistic: 18.46 on 1 and 13 DF, p-value: 0.0008683Call:
lm(formula = Y ~ X1 + X2 + X3, data = data_project)
Residuals:
Min 1Q Median 3Q Max
-2.0020 -0.5139 0.1740 0.3732 2.2697
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 0.003108 3.626020 0.001 0.999
X1 0.344523 0.130556 2.639 0.023 *
X2 -0.103376 0.127434 -0.811 0.434
X3 0.003802 0.149964 0.025 0.980
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 1.237 on 11 degrees of freedom
Multiple R-squared: 0.6173, Adjusted R-squared: 0.5129
F-statistic: 5.914 on 3 and 11 DF, p-value: 0.01178
Hipotesis
H0: Tidak terdapat hubungan linear antara X1 dengan Y
H1: Terdapat hubungan linear antara X1 dengan Y
Statistik Uji
P-value = 0.023
Keputusan
Karena P-value (0.023) < α (0.05), maka Tolak H0
Interpretasi
Dapat disimpulkan secara parsial bahwa kemampuan manajemen (X1) berpengaruh secara signifikan terhadap kinerja keuangan (Y).
Hipotesis
H0: Tidak terdapat hubungan linear antara X2 dengan Y
H1: Terdapat hubungan linear antara X2 dengan Y
Statistik Uji
P-value = 0.434
Keputusan
Karena P-value (0.434) > α (0.05), maka Gagal Tolak H0
Interpretasi
Dapat disimpulkan secara parsial bahwa kemampuan berwirausaha (X2) tidak berpengaruh secara signifikan terhadap kinerja keuangan (Y).
Hipotesis
H0: Tidak terdapat hubungan linear antara X3 dengan Y
H1: Terdapat hubungan linear antara X3 dengan Y
Statistik Uji
P-value = 0.980
Keputusan
Karena P-value (0.980) > α (0.05), maka Gagal Tolak H0
Interpretasi
Dapat disimpulkan secara parsial bahwa strategi bersaing (X3) tidak berpengaruh secara signifikan terhadap kinerja keuangan (Y).
Persamaan Regresi \[ Y = 0.001 + 2.639X_1 − 0.811X_2 + 0.025X_3 \]
Intrepretasi Beta0 = 0.001
Jika kemampuan manajemen (X1), kemampuan berwirausaha (X2) dan strategi bersaing (X3) bernilai konstan, maka kinerja keuangan (Y) sebesar 0.001.
Intrepretasi Beta1 = 2.639
Jika kemampuan berwirausaha (X2) dan strategi bersaing (X3) bernilai konstan, maka untuk setiap kenaikan kemampuan manajemen (X1) sebanyak 1 satuan akan menaikkan kinerja keuangan (Y) sebesar 2.639.
Intrepretasi Beta2 = -0.811
Jika kemampuan manajemen (X1) dan strategi bersaing (X3) bernilai konstan, maka untuk setiap kenaikan kemampuan berwirausaha (X2) sebanyak 1 satuan akan menurunkan kinerja keuangan (Y) sebesar 0.811.
Intrepretasi Beta3 = 0.025
Jika kemampuan manajemen (X1) dan kemampuan berwirausaha (X2) bernilai konstan, maka untuk setiap kenaikan strategi bersaing (X3) sebanyak 1 satuan akan menaikkan kinerja keuangan (Y) sebesar 0.025.
Shapiro-Wilk normality test
data: residuals(reg)
W = 0.95058, p-value = 0.5336
Hipotesis
H0: Sampel berasal dari populasi berdistribusi normal
H1: Sampel tidak berasal dari populasi berdistribusi normal
α = 0.05
Statistik Uji
W = 0.95291
P-value = 0.5713
Keputusan
Karena P-value (0.5713) > α (0.05), maka Gagal Tolak H0
Interpretasi
Dapat disimpulkan bahwa sampel berasal dari populasi yang berdistribusi normal.
studentized Breusch-Pagan test
data: reg
BP = 0.13112, df = 3, p-value = 0.9879
Hipotesis
H0: Variansi galat bersifat homoskedastisitas
H1: Variansi galat bersifat heteroskedastisitas
α = 0.05
Statistik Uji
BP = 0.13112
P-value = 0.9879
Keputusan
Karena P-value (0. 9879) > α (0.05), maka Gagal Tolak H0
Interpretasi
Dapat disimpulkan bahwa variansi galat bersifat homoskedastisitas.
Durbin-Watson test
data: reg
DW = 2.4504, p-value = 0.8268
alternative hypothesis: true autocorrelation is greater than 0
Hipotesis
H0: Tidak terjadi autokorelasi
H1: Terjadi autokorelasi
k = 3
n = 15
dL = 0.8140
dU = 1.7501
Statistik Uji
DW = 2.4504
P-value = 0.8268
Keputusan
Karena nilai DW terletak diantara 4-dU (2.2499) dan 4-dL (3.186), maka tidak ada kesimpulan.
X1 X2 X3
3.974163 3.574221 5.161338
Interpretasi
Karena hasil perhitungan VIF < 10 maka memenuhi asumsi non multikolinieritas.
Index N Predictors R-Square Adj. R-Square Mallow's Cp
1 1 1 X1 0.5868170 0.5550337 0.8757842
3 2 1 X3 0.3736415 0.3254601 7.0029134
2 3 1 X2 0.2428320 0.1845883 10.7626671
4 4 2 X1 X2 0.6172650 0.5534758 2.0006428
5 5 2 X1 X3 0.5943917 0.5267904 2.6580692
6 6 2 X2 X3 0.3750024 0.2708362 8.9637987
7 7 3 X1 X2 X3 0.6172873 0.5129111 4.0000000
Interpretasi
Model ini hanya mengandung variable X1, X2 dan X3 tidak dibutuhkan.
Selection Summary
-----------------------------------------------------------------------
Variable Adj.
Step Entered R-Square R-Square C(p) AIC RMSE
-----------------------------------------------------------------------
1 X1 0.5868 0.5550 0.8758 51.4523 1.1826
-----------------------------------------------------------------------
Interpretasi
Dengan metode forward selection dapat diketahui bahwa model yang terbaik hanya membutuhkan variable X1.
Elimination Summary
-----------------------------------------------------------------------
Variable Adj.
Step Removed R-Square R-Square C(p) AIC RMSE
-----------------------------------------------------------------------
1 X3 0.6173 0.5535 2.0006 52.3041 1.1846
2 X2 0.5868 0.555 0.8758 51.4523 1.1826
-----------------------------------------------------------------------
Interpretasi
Dengan metode backward elimination dapat disimpulkan bahwa untuk mendapatkan model regresi terbaik harus membuang variable X2 dan X3.
Call:
lm(formula = Y ~ X1, data = data_project)
Residuals:
Min 1Q Median 3Q Max
-2.25103 -0.57863 0.05939 0.28689 2.28689
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -1.19686 3.08642 -0.388 0.704451
X1 0.26896 0.06259 4.297 0.000868 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 1.183 on 13 degrees of freedom
Multiple R-squared: 0.5868, Adjusted R-squared: 0.555
F-statistic: 18.46 on 1 and 13 DF, p-value: 0.0008683
Interpretasi
Dengan metode backward elimination dapat disimpulkan bahwa untuk mendapatkan model regresi terbaik harus membuang variable X2 dan X3. \[ Y = −1.19686 + 0.26896(X1) \]
Pendugaan parameter regresi, Uji asumsi dan Pemilihan model terbaik dapat dicari atau dihitung dengan software Rstudio/SPSS dan juga dapat dihitung dengan manual.
Pendugaan parameter regresi dapat menggunakan uji simultan dan juga uji parsial, untuk laporan kali yang dijabarkan hanya uji parsial untuk mengetahui apakah ada variable prediktor yang berpengaruh secara signifikan terhadap variable respons.
Uji Asumsi dapat menggunakan uji asumsi normalitas, uji asumsi multikolinieritas, uji asumsi homoskedastisitas, dan uji autokorelasi. Untuk uji normalitas dapat menggunakan uji saphiro wilk. Dari diatas didapatkan bahwa gagal tolak H0 yang berarti sampel berasal dari populasi yang menyebar normal.
Uji asumsi multikolinearitas dapat menggunakan uji pearson dan VIF. Dilakukan untuk melihat jumlah keeratan hubungan antar masing-masing variable dan juga untuk memeriksa apakah terdapat korelasi atau hubungan yang sangat tinggi di antara variable independen.
Uji asumsi homoskedastisitas dapat menggunakan uji breusch padan. Dilakukan untuk melihat apakah ragam residual konstan (homoskedastisitas) atau tidak konstan (heteroskedastisitas). Pada perhitungan data diatas dapatkan bahwa variansi galat bersifat homoskedastisitas.
Uji auto korelasi dapat dihitung dengan uji durbin watson. Dilakukan untuk mengetahui apakah terdapat korelasi/hubungan antar residual/galat pada data yang berurutan/time series. Dari perhitungan terhadap data diatas, residual tidak dapat disimpulkan karena letak DW berada didaerah “tidak dapat disimpulkan”.
Pemilihan model terbaik dapat menggunakan uji all possible regression, forward selection dan backward elimination. Untuk all possible regression dipilih dari predictor yang memiliki CP Mallow terkecil dan Adj. R dan R terbesar. Untuk uji forward selection dia langsung memilih variable terbaik sedangkan backward elimination ia menampilkan variable yang tereliminasi. Dari ketiga uji diatas ditemukan variable terbaik adalah X1.
Untuk menggunakan software R jangan lupa untuk mengunduh packages olsrr, car, tseries dam lmtest. Apabila saat mencari VIF error, unduh packages “vctrs” lalu saat Rstudio ingin melakukan restart app tekan “No” pada pilihan yang tertera.
Diusahakan juga untuk data pada excel dimulai dari cell A1, karena jika tidak nanti saat dimasukkan kedalam Rstudio akan terbentuk kolom dan baris baru yang berisi NA atau not available.
Yuliara, I. M. (2016). Regresi Linier Berganda. Denpasar: Universitas Udayana.
Sholeh, Sukma. ANALISIS REGRESI LINIER TIGA PREDIKTOR. SlidePlayer.
data <- c(60,48,60,48,48,39,50,48,48,48,48,47,48,48,48,
59,45,60,46,48,48,52,52,47,46,48,45,48,47,43, 49,37,49,39,40,31,39,47,38,38,38,37,40,38,35, 15,13,15,10,14,9,10,11,13,12,12,11,11,12,12)a <- matrix(data,
nrow=15, ncol=4)colnames(a) <- c(“X1”,“X2”,“X3”,“Y”)
a
X1 X2 X3 Y
[1,] 60 59 49 15
[2,] 48 45 37 13
[3,] 60 60 49 15
[4,] 48 46 39 10
[5,] 48 48 40 14
[6,] 39 48 31 9
[7,] 50 52 39 10
[8,] 48 52 47 11
[9,] 48 47 38 13
[10,] 48 46 38 12
[11,] 48 48 38 12
[12,] 47 45 37 11
[13,] 48 48 40 11
[14,] 48 47 38 12
[15,] 48 43 35 12
Library
#Library(tseries)
#Library(lmtest)
#Library(car)
#Library(olsrr)
p <- file.path(“C:”,“Users”,“hp”,“Documents”,“STATISTIKA”,
"SEM 6","Komputasi Statistika F","Praktikum", "data praktikum - Sheet1.csv")data_project = read.csv(p,header=TRUE)
summary(data_project)
X1 X2 X3 Y
Min. :39.00 Min. :43.00 Min. :31.00 Min. : 9
1st Qu.:48.00 1st Qu.:46.00 1st Qu.:37.50 1st Qu.:11
Median :48.00 Median :48.00 Median :38.00 Median :12
Mean :49.07 Mean :48.93 Mean :39.67 Mean :12
3rd Qu.:48.00 3rd Qu.:50.00 3rd Qu.:40.00 3rd Qu.:13
Max. :60.00 Max. :60.00 Max. :49.00 Max. :15
head(data_project)
#Import Data
p <- file.path(“C:”,“Users”,“hp”,“Documents”,“STATISTIKA”,
"SEM 6","Komputasi Statistika F","Praktikum", "data praktikum - Sheet1.csv")data_project = read.csv(p,header=TRUE)
summary(data_project)
X1 X2 X3 Y
Min. :39.00 Min. :43.00 Min. :31.00 Min. : 9
1st Qu.:48.00 1st Qu.:46.00 1st Qu.:37.50 1st Qu.:11
Median :48.00 Median :48.00 Median :38.00 Median :12
Mean :49.07 Mean :48.93 Mean :39.67 Mean :12
3rd Qu.:48.00 3rd Qu.:50.00 3rd Qu.:40.00 3rd Qu.:13
Max. :60.00 Max. :60.00 Max. :49.00 Max. :15
head(data_project)
#Analisis Regresi Linear Berganda
reg <- lm(Y~X1+X2+X3,
data=data_project)summary(reg)
Call:
lm(formula = Y ~ X1 + X2 + X3, data = data_project)
Residuals:
Min 1Q Median 3Q Max
-2.0020 -0.5139 0.1740 0.3732 2.2697
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 0.003108 3.626020 0.001 0.999
X1 0.344523 0.130556 2.639 0.023 *
X2 -0.103376 0.127434 -0.811 0.434
X3 0.003802 0.149964 0.025 0.980
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 1.237 on 11 degrees of freedom
Multiple R-squared: 0.6173, Adjusted R-squared: 0.5129
F-statistic: 5.914 on 3 and 11 DF, p-value: 0.01178
#Uji Asumsi Klasik
##Uji Normalitas
shapiro.test(residuals(reg))
Shapiro-Wilk normality test
data: residuals(reg)
W = 0.95058, p-value = 0.5336
##Uji Homoskedastisitas
lmtest::bptest(reg)
studentized Breusch-Pagan test
data: reg
BP = 0.13112, df = 3, p-value = 0.9879
##Uji Autokorelasi
lmtest::dwtest(reg)
Durbin-Watson test
data: reg
DW = 2.4504, p-value = 0.8268
alternative hypothesis: true autocorrelation is greater than 0
##Uji Multikolinearitas
car::vif(reg)
X1 X2 X3
3.974163 3.574221 5.161338
#Pemilihan Model Terbaik
#Metode All Possible Regression
olsrr::ols_step_all_possible(reg)
#Metode Forward Selection
olsrr::ols_step_forward_p(reg)
Selection Summary
-----------------------------------------------------------------------
Variable Adj.
Step Entered R-Square R-Square C(p) AIC RMSE
-----------------------------------------------------------------------
1 X1 0.5868 0.5550 0.8758 51.4523 1.1826
-----------------------------------------------------------------------
#Metode Backward Selection olsrr::ols_step_backward_p(reg)
Elimination Summary
-----------------------------------------------------------------------
Variable Adj.
Step Removed R-Square R-Square C(p) AIC RMSE
-----------------------------------------------------------------------
1 X3 0.6173 0.5535 2.0006 52.3041 1.1846
2 X2 0.5868 0.555 0.8758 51.4523 1.1826
-----------------------------------------------------------------------
#Model Regresi (Final)
reg1 <- lm(Y~X1,
data=data_project)summary(reg1)
Call:
lm(formula = Y ~ X1, data = data_project)
Residuals:
Min 1Q Median 3Q Max
-2.25103 -0.57863 0.05939 0.28689 2.28689
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -1.19686 3.08642 -0.388 0.704451
X1 0.26896 0.06259 4.297 0.000868 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 1.183 on 13 degrees of freedom
Multiple R-squared: 0.5868, Adjusted R-squared: 0.555
F-statistic: 18.46 on 1 and 13 DF, p-value: 0.0008683