#Library:
> #library(agricolae)
> #library(nortest)
> #library(lmtest)
> #library(car)
> #library(tseries)
> #library(olsrr)1 Latar Belakang
Pertumbuhan dan perkembangan anak merupakan hal yang sangat penting dan salah satu aspek yang harus diperhatikan secara serius sejak usia dini. Namun hal itu sangat sering kali diabaikan baik oleh tenaga kesehatan maupun orangtua yang selama ini atau biasanya lebih berfokus pada penanganan saat anak sakit. Banyak hal yang harus dikenali dan dilakukan untuk mengoptimalkan tumbuh kembang anak sejak dini agar tidak terjadi penyimpangan atau keterlambatan yang tentunya tidak diharapkan.
Untuk mencapai tubuh yang ideal dan sehat, maka perlu dipertimbangkan terkait proporsi dari tinggi badan dan berat badan, sehingga perlu diketahui hubungan antara keduanya. Selain itu, dalam mencapai tujuan bayi yang sehat, kadang kali kondisi keluarga dan banyaknya anak yang telah dimiliki sebelumnya juga mempengaruhi. Orang tua dengan pengalaman mengasuh sebelumnya bisa melatih orang tua untuk lebih berhati-hati dalam mengasuh dan merawat anak selanjutnya. Namun tidak menutup kemungkinan pula bahwa anak selanjutnya akan lebih disepelekan karena orang tua yang berpikir sudah berpengalaman.
Upaya pemeliharaan kesehatan anak ditujukan mempersiapkan generasi akan datang yang sehat, cerdas, dan berkualitas serta untuk menurunkan angka kematian. Upaya ini dilakukan sejak janin masih dalam kandungan, dilahirkan, setelah dilahirkan dan sampai usia 18 tahun. Penimbangan sangat penting untuk pertumbuhan, untuk dipantau secara intensi sehingga bila berat badan anak tidaknaik atau jika ditemukan penyakit akan dapat dilakukan upaya pemulihan dan pencegahan seperti pada gizi kurang atau gizi buruk.
2 Tinjauan Pustaka
2.1 Analisis Regresi Sederhana
Analisis regresi merupakan bagian dari analisis pada ilmu statistik yang didalamnya mempelajari mengenai hubungan dan pengaruh antara dua variabel atau lebih. Namun, pada analisis regresi sederhana hanya mempelajari regresi linier dengan satu variabel independen (X) atau bisa disebut sebagai variabel bebas. Analisis regresi adalah ilmu yang mempelajari mengenai hubungan satu variabel disebut sebagai variabel yang diterangkan dengan satu atau dua variabel yang menerangkan. Pada analisis regresi hubungan antara dua variabel terbagi menjadi dua macam yaitu hubungan fungsional dan hubungan statistik, dimana pada hubungan fungsional antar dua variabel dinyatakan secara matematis sebagai berikut:
\[ Y ={f(x)} \]
Pada umumnya, persamaan model regresi linier sederhana dapat dilambangkan sebagai berikut :
\[ Y_i = b_0 + b_1X_i + \epsilon_i \]
Dimana Yi merupakan nilai variabel tak bebas dalam trial ke-i atau variabel yang dipengaruhi. Kemudian, X adalah variabel bebas yang diketahui nilainya dengan epsilon yang merupakan galat dari suatu model.
2.2 Analisis Regresi Berganda
Analisis regresi linier berganda merupakan analisis linier yang mempelajari mengenai hubungan dan seberapa besar pengaruh yang melibatkan lebih dari satu variabel independen terhadap variabel dependen (Ghozali, 2018). Persamaan regresi linier berganda adalah sebagi berikut: \[ Y_i = b_0 + b_1X_1 + b_2X_2 + b_nX_n + \epsilon_i \] Pada saat melakukan analisis regresi linier sederhana maupun berganda dibutuhkan beberapa pengujian sebagai syarat terpenuhinya asumsi klasik sehingga dapat dikatakan model yang terbentuk merupakan model terbaik.Ada lima uji asumsi yang harus dilakukan terhadap suatu model regresi tersebut yaitu uji normalitas, uji autokorelasi, uji linieritas, uji multikolinearitas, dan uji heteroskedastisitas.
2.2.1 Uji Normalitas
Uji normalitas data di gunakan untuk mangetahui sebaran data pada sebuah kelompok atau variabel memiliki distribusi normal atau tidak.Berdasarkan pengalaman empiris, pada umumnya data yang terdapat lebih dari 30 (n > 30), maka dapat diasumsikan berdistribusi normal. Namun, hal tersebut tidak menutup kemungkinan bahwa data yang kurang dari 30 (n < 30) juga berdistribusi normal. Maka dari itu, lebih baik dilakukan sebuah pengujian untuk memberikan kepastian pada hasil kesimpulan. Pengujian asumsi normalitas dapat dilakukan dengan berbagai cara yaitu melalui ujiSaphiro-Wilk, Anderson-Darling dan Kolmogorov-Smirnov.
2.2.2 Uji Multikolinieritas
Hubungan linier yang sempurna diantara variabel-variabel independen yang terdapat pada model regresi dinamakan multikolinieritas atau kolinieritas ganda. Sedangkan, kebalikannya yaitu kolinieritas merupaka hubungan linier yang sempurna dari variabel tunggal (Supranto, 1992).
Model regresi dikatakan baik apabila terbebas dari multikolinieritas yang mana memiliki nilai VIF lebih kecil dari 10 (VIF < 10) dan tolerance lebih besar dari 0,1 (Tol > 0,1) (Ghazali, 2005 : 95).
Nilai VIF (Varience Inflation Factor) merupakan elemen diagonal utama dari invers matriks korelasi. Perhitungan manual VIF dapat menggunakan rumus sebagai berikut:
\[ VIF =\frac {1}{1-R^2_j} \]
Perhitungan manual nilai Tolerance sebagai berikut:
\[ Tol = {1-R^2_j} \]
2.2.3 Uji Heterokedastisitas
Uji heterokedastisitas ini dilakukan untuk mengetahui bahwa ragam atau varian yang terdapat pada model adalah sama dimana model regresi yang efisien adalah model regresi yang terdapat kesamaan varian atau tidak terdapat heterokedastisitas. sesuai dengan jurnal karya Uthami, bahwa tujuan dilakukannya uji heteroskedastisitas adalah untuk menguji apakah dalam model regresi tersebut memiliki varian yan konstan dari residual pada pengamatan yang tersedia (Uthami,2013). Heterokedastisitas termasuk salah satu asumsi dalam analisis regresi yang harus dipenuhi dalam melakukan estimasi menggunakan metode kuadrat terkecil. Namun, terdapat beberapa asumsi di dalam analisis regresi yang harus dipenuhi dalam melakukan estimasi dengan metode kuadrat terkecil. Terdapat beberapa uji statistik yang digunakan dalam pendeteksian heteroskedastisitas, diantaranya uji park dan uji breusch pagan godfrey.
2.2.4 Uji Autokorelasi
Uji autokorelasi ini dilakukan untuk mengetahui hubungan yang terjadi pada variabel-variabel yang sedang diteliti pada suatu model. Pengujian ini dilakukan dengan cara melihat nilai Durbin-Watson. Model regresi terjadi masalah autokorelasi atau tidak dapat dilihat pada ketentuan berikut ini :
Nilai DW < dL, maka terdapat autokorelasi.
Nilai DW terletak antara dL ≤ dw ≤ du, maka tidak ada kesimpulan.
Nilai DW terletak antara du < dw ≤ 4 – du, maka tidak ada autokorelasi.
Nilai DW terletak 4 – du ≤ dw ≤ 4-dL, maka tidak dapat mengambil keputusan apa-apa.
Nilai DW > 4 – dL, maka terdapat autokorelasi.
2.3 Data
Data diambil dari https://www.datacamp.com/tutorial/linear-regression-R
Dengan variabel sebagai berikut
X1 = Berat Badan (kg)
X2 = Banyak Saudara Kandung
Y = Tinggi Badan (cm)
3 Source Code
3.1 Library yang Dibutuhkan
> #library(agricolae)
> #library(nortest)
> #library(lmtest)
> #library(car)
> #library(tseries)
> #library(olsrr)3.2 Import Data
> library(readxl)
> dataregresi1 <- read_excel("C:/Users/WINDOWS 10/Downloads/dataregresi1.xlsx")
> dataku <- as.data.frame(dataregresi1)
> dataku
X1 Y X2
1 18 76.1 2
2 19 77.0 1
3 20 78.1 3
4 21 78.2 0
5 22 78.8 1
6 23 79.7 1
7 24 79.9 3
8 25 81.1 0
9 26 81.2 2
10 27 81.8 0
11 28 82.8 0
12 29 83.5 13.3 Syntax
> library(agricolae)
Error: package or namespace load failed for 'agricolae' in loadNamespace(j <- i[[1L]], c(lib.loc, .libPaths()), versionCheck = vI[[j]]):
there is no package called 'labelled'
> library(nortest)
> library(lmtest)
> library(car)
> library(tseries)
> library(olsrr)
>
> #Membuat model regresi linier
> reg <- lm(Y~X1+X2, data=dataregresi1)
> summary(reg)
Call:
lm(formula = Y ~ X1 + X2, data = dataregresi1)
Residuals:
Min 1Q Median 3Q Max
-0.28155 -0.22946 -0.04015 0.16346 0.48944
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 64.97325 0.61202 106.161 2.96e-15 ***
X1 0.63364 0.02417 26.213 8.26e-10 ***
X2 -0.01184 0.07819 -0.151 0.883
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 0.2695 on 9 degrees of freedom
Multiple R-squared: 0.9888, Adjusted R-squared: 0.9863
F-statistic: 397 on 2 and 9 DF, p-value: 1.67e-09
>
> #Uji Normalitas
> shapiro.test(dataregresi1$Y)
Shapiro-Wilk normality test
data: dataregresi1$Y
W = 0.97576, p-value = 0.9609
>
> nortest::ad.test(dataregresi1$Y)
Anderson-Darling normality test
data: dataregresi1$Y
A = 0.14841, p-value = 0.9493
>
> nortest::lillie.test(dataregresi1$Y)
Lilliefors (Kolmogorov-Smirnov) normality test
data: dataregresi1$Y
D = 0.12307, p-value = 0.8841
>
> #Uji Autokorelasi
> cor(dataregresi1, method = "pearson")
X1 Y X2
X1 1.0000000 0.9943661 -0.3619267
Y 0.9943661 1.0000000 -0.3648668
X2 -0.3619267 -0.3648668 1.0000000
>
> car::vif(reg)
X1 X2
1.150736 1.150736
>
> # Uji Homosdekastisitas
> lmtest::bptest(reg)
studentized Breusch-Pagan test
data: reg
BP = 3.4923, df = 2, p-value = 0.1744
>
> #Uji Linieritas
> lmtest::harvtest(reg)
Harvey-Collier test
data: reg
HC = 1.0998, df = 8, p-value = 0.3034
>
> #Uji Non Autokorelasi
> lmtest::dwtest(reg)
Durbin-Watson test
data: reg
DW = 2.3777, p-value = 0.7023
alternative hypothesis: true autocorrelation is greater than 0
>
> #Pemilihan Model Terbaik
> olsrr::ols_step_all_possible(reg)
Index N Predictors R-Square Adj. R-Square Mallow's Cp
1 1 1 X1 0.9887639 0.9876403 1.02291
2 2 1 X2 0.1331278 0.0464406 688.12547
3 3 2 X1 X2 0.9887925 0.9863019 3.00000
> olsrr::ols_step_forward_p(reg)
Selection Summary
----------------------------------------------------------------------
Variable Adj.
Step Entered R-Square R-Square C(p) AIC RMSE
----------------------------------------------------------------------
1 X1 0.9888 0.9876 1.0229 5.1614 0.2560
----------------------------------------------------------------------
> olsrr::ols_step_backward_p(reg)
Elimination Summary
----------------------------------------------------------------------
Variable Adj.
Step Removed R-Square R-Square C(p) AIC RMSE
----------------------------------------------------------------------
1 X2 0.9888 0.9876 1.0229 5.1614 0.2560
----------------------------------------------------------------------
>
> #Model Regresi Final
> reg2 <- lm(Y~X1+X2, data=dataregresi1)
> reg2
Call:
lm(formula = Y ~ X1 + X2, data = dataregresi1)
Coefficients:
(Intercept) X1 X2
64.97325 0.63364 -0.01184 4 Hasil dan Pembahasan
4.1 Pendugaan Parameter Regresi
Pada R, diketahui bahwa output yang dihasilkan adalah sebagai berikut
Call:
lm(formula = Y ~ X1 + X2, data = dataregresi1)
Residuals:
Min 1Q Median 3Q Max
-0.28155 -0.22946 -0.04015 0.16346 0.48944
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 64.97325 0.61202 106.161 2.96e-15 ***
X1 0.63364 0.02417 26.213 8.26e-10 ***
X2 -0.01184 0.07819 -0.151 0.883
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 0.2695 on 9 degrees of freedom
Multiple R-squared: 0.9888, Adjusted R-squared: 0.9863
F-statistic: 397 on 2 and 9 DF, p-value: 1.67e-09
Persamaan regresi yang terbentuk
Y = 64.97325 + 0.63364X1 - 0.01184X2
Interpretasi
Untuk Intersep (Beta 0) = 64.97325. Jika variabel berat badan dan banyaknya saudara kandung bernilai konstan, maka tinggi badan (Y) adalah 64.97325 cm
Untuk Beta-1 = 0.63364, maka tinggi badan bayi akan bertambah sepanjang 0.63364 cm ketika berat badan bayi bertambah sebanyak 1 kilogram
Untuk Beta-2 = 0.01184, maka tinggi badan bayi akan berkurang sepanjang 0.01184 cm ketika banyaknya saudara kandung lebih banyak 1 orang
Secara Parsial
X1 terhadap Y
- Dengan p-value yang dihasilkan pada output < 0,05 maka H0 ditolak yang berarti dengan taraf nyata 5% sudah cukup bukti bahwa X1 (Berat Badan) berhubungan linier dengan Y (tinggi badan)
X2 terhadap Y
- Dengan p-value yang dihasilkan pada output > 0,05 maka H0 diterima yang berarti dengan taraf nyata 5% sudah cukup bukti bahwa X2 (Banyak Saudara Kandung) tidak berhubungan linier dengan Y (tinggi badan)
4.2 Uji Asumsi
4.2.1 Uji Asumsi Normalitas
Hasil Uji Normalitas menggunakan Shapiro-Wilk normality test
Shapiro-Wilk normality test
data: dataregresi1$Y
W = 0.97576, p-value = 0.9609
Hasil Uji Normalitas menggunakan Anderson Darling normality test
Anderson-Darling normality test
data: dataregresi1$Y
A = 0.14841, p-value = 0.9493
Hasil Uji Normalitas Kolmogorov-Smirnov normality test
Lilliefors (Kolmogorov-Smirnov) normality test
data: dataregresi1$Y
D = 0.12307, p-value = 0.8841
Kesimpulan
Karena keputusan dari ketiga uji adalah terima H0, maka dapat disimpulkan bahwa data menyebar normal dengan taraf nyata 5%
4.2.2 Uji Asumsi Multikolinieritas
X1 Y X2
X1 1.0000000 0.9943661 -0.3619267
Y 0.9943661 1.0000000 -0.3648668
X2 -0.3619267 -0.3648668 1.0000000
X1 X2
1.150736 1.150736
Kesimpulan
Dari hasil yang didapat, nilai VIF yang didapat lebih kecil dari 10, maka dapat disimpulkan bahwa model regresi bebas dari multikolinieritasl.
4.2.3 Uji Asumsi Homoskedastisitas
studentized Breusch-Pagan test
data: reg
BP = 3.4923, df = 2, p-value = 0.1744
Kesimpulan
Karena p-value (0.1744)> 0.05, maka H0 diterima, sehingga dapat disimpulkan bahwa variansi galat bersifat homoskedastisitas.
4.2.4 Uji Asumsi Linieritas
Harvey-Collier test
data: reg
HC = 1.0998, df = 8, p-value = 0.3034
Kesimpulan
Berdasarkan p-value yang dihasilkan, maka dapat bahwa model tersebut merupakan model linier
4.2.5 Uji Non Autokorelasi
Durbin-Watson test
data: reg
DW = 2.3777, p-value = 0.7023
alternative hypothesis: true autocorrelation is greater than 0
Kesimpulan
Dengan nilai DW 2.3777 dimana berada pada interval 0<= DW <= 4, maka tidak terdapat kesimpulan. ## Pemilihan Model Terbaik ### All Possible
Index N Predictors R-Square Adj. R-Square Mallow's Cp
1 1 1 X1 0.9887639 0.9876403 1.02291
2 2 1 X2 0.1331278 0.0464406 688.12547
3 3 2 X1 X2 0.9887925 0.9863019 3.00000
Selection Summary
----------------------------------------------------------------------
Variable Adj.
Step Entered R-Square R-Square C(p) AIC RMSE
----------------------------------------------------------------------
1 X1 0.9888 0.9876 1.0229 5.1614 0.2560
----------------------------------------------------------------------
Elimination Summary
----------------------------------------------------------------------
Variable Adj.
Step Removed R-Square R-Square C(p) AIC RMSE
----------------------------------------------------------------------
1 X2 0.9888 0.9876 1.0229 5.1614 0.2560
----------------------------------------------------------------------
Dilihat pada hasil bahwa pada persamaan regresi,pada R-Square dan Adj. R-Square dipilih nilai yang terbesar sedangkan Cp mallow yang kecil. Tetapi lebih diutamakan dilihat pada nilai Adj. R-Square karena model tersebut memenuhi asumsi multikolinieritas.
Kesimpulan
Dengan begitu, yang dipilih adalah model dengan variabel prediktor X1 saja.
4.2.6 Forward
Selection Summary
----------------------------------------------------------------------
Variable Adj.
Step Entered R-Square R-Square C(p) AIC RMSE
----------------------------------------------------------------------
1 X1 0.9888 0.9876 1.0229 5.1614 0.2560
----------------------------------------------------------------------
Kesimpulan
Dengan begitu, yang dipilih adalah model dengan variabel prediktor X1 saja.
4.2.7 Backward
Elimination Summary
----------------------------------------------------------------------
Variable Adj.
Step Removed R-Square R-Square C(p) AIC RMSE
----------------------------------------------------------------------
1 X2 0.9888 0.9876 1.0229 5.1614 0.2560
----------------------------------------------------------------------
Kesimpulan
Dengan begitu, yang dipilih adalah model dengan variabel prediktor X1 saja karena variabel kedua dihapuskan pada uji backward.
5 Kesimpulan
Dengan begitu hasil dari uji final :
Call:
lm(formula = Y ~ X1 + X2, data = dataregresi1)
Coefficients:
(Intercept) X1 X2
64.97325 0.63364 -0.01184
Model terbaik yang didapatkan adalah sebagai berikut : \[ Y = 64.97325 + 0.63364X1 \]
Yang berarti apabila berat badan dianggap konstan maka tinggi badan akan bernilai 64.97325 cm dan akan mengalami pertmbahan sepanjang 0.63364 cm setiap pertambahan berat badan sebanyak 1 kg.
6 Daftar Pustaka
Ghozali, Imam. 2018. Aplikasi Analisis Multivariate dengan Program IBM SPSS 25. Badan Penerbit Universitas Diponegoro: Semarang.
Neter, J., Kutner, M. H., Nachtsheim, C. J., & Wasserman, W. (1996). Applied linear statistical models.
Rahmadi, A. (2017). Hubungan berat badan dan panjang badan lahir dengan kejadian stunting anak 12-59 bulan di Provinsi Lampung. Jurnal Ilmiah Keperawatan Sai Betik, 12(2), 209-218.
Supranto. J. 1984. Ekonometrik. Jilid 2. Jakarta: LPEF Universitas Indonesia.
Uthami, I. A. (2013). Regresi Kuantil Median Untuk Mengatasi Heteroskedastisitas Pada Analisis Regresi. e-Jurnal Matematika , 2 (1), 6-13.