Pengaruh Berat Badan dan Banyak Saudara Kandung terhadap Tinggi Anak menggunakan Model Regresi Berganda

Nabila Azidian Islami

21 Mei 2021

#Library:

> #library(agricolae)
> #library(nortest)
> #library(lmtest)
> #library(car)
> #library(tseries)
> #library(olsrr)

1 Latar Belakang

Pertumbuhan dan perkembangan anak merupakan hal yang sangat penting dan salah satu aspek yang harus diperhatikan secara serius sejak usia dini. Namun hal itu sangat sering kali diabaikan baik oleh tenaga kesehatan maupun orangtua yang selama ini atau biasanya lebih berfokus pada penanganan saat anak sakit. Banyak hal yang harus dikenali dan dilakukan untuk mengoptimalkan tumbuh kembang anak sejak dini agar tidak terjadi penyimpangan atau keterlambatan yang tentunya tidak diharapkan.

Untuk mencapai tubuh yang ideal dan sehat, maka perlu dipertimbangkan terkait proporsi dari tinggi badan dan berat badan, sehingga perlu diketahui hubungan antara keduanya. Selain itu, dalam mencapai tujuan bayi yang sehat, kadang kali kondisi keluarga dan banyaknya anak yang telah dimiliki sebelumnya juga mempengaruhi. Orang tua dengan pengalaman mengasuh sebelumnya bisa melatih orang tua untuk lebih berhati-hati dalam mengasuh dan merawat anak selanjutnya. Namun tidak menutup kemungkinan pula bahwa anak selanjutnya akan lebih disepelekan karena orang tua yang berpikir sudah berpengalaman.

Upaya pemeliharaan kesehatan anak ditujukan mempersiapkan generasi akan datang yang sehat, cerdas, dan berkualitas serta untuk menurunkan angka kematian. Upaya ini dilakukan sejak janin masih dalam kandungan, dilahirkan, setelah dilahirkan dan sampai usia 18 tahun. Penimbangan sangat penting untuk pertumbuhan, untuk dipantau secara intensi sehingga bila berat badan anak tidaknaik atau jika ditemukan penyakit akan dapat dilakukan upaya pemulihan dan pencegahan seperti pada gizi kurang atau gizi buruk.

2 Tinjauan Pustaka

2.1 Analisis Regresi Sederhana

Analisis regresi merupakan bagian dari analisis pada ilmu statistik yang didalamnya mempelajari mengenai hubungan dan pengaruh antara dua variabel atau lebih. Namun, pada analisis regresi sederhana hanya mempelajari regresi linier dengan satu variabel independen (X) atau bisa disebut sebagai variabel bebas. Analisis regresi adalah ilmu yang mempelajari mengenai hubungan satu variabel disebut sebagai variabel yang diterangkan dengan satu atau dua variabel yang menerangkan. Pada analisis regresi hubungan antara dua variabel terbagi menjadi dua macam yaitu hubungan fungsional dan hubungan statistik, dimana pada hubungan fungsional antar dua variabel dinyatakan secara matematis sebagai berikut:

\[ Y ={f(x)} \]

Pada umumnya, persamaan model regresi linier sederhana dapat dilambangkan sebagai berikut :

\[ Y_i = b_0 + b_1X_i + \epsilon_i \]

Dimana Yi merupakan nilai variabel tak bebas dalam trial ke-i atau variabel yang dipengaruhi. Kemudian, X adalah variabel bebas yang diketahui nilainya dengan epsilon yang merupakan galat dari suatu model.

2.2 Analisis Regresi Berganda

Analisis regresi linier berganda merupakan analisis linier yang mempelajari mengenai hubungan dan seberapa besar pengaruh yang melibatkan lebih dari satu variabel independen terhadap variabel dependen (Ghozali, 2018). Persamaan regresi linier berganda adalah sebagi berikut: \[ Y_i = b_0 + b_1X_1 + b_2X_2 + b_nX_n + \epsilon_i \] Pada saat melakukan analisis regresi linier sederhana maupun berganda dibutuhkan beberapa pengujian sebagai syarat terpenuhinya asumsi klasik sehingga dapat dikatakan model yang terbentuk merupakan model terbaik.Ada lima uji asumsi yang harus dilakukan terhadap suatu model regresi tersebut yaitu uji normalitas, uji autokorelasi, uji linieritas, uji multikolinearitas, dan uji heteroskedastisitas.

2.2.1 Uji Normalitas

Uji normalitas data di gunakan untuk mangetahui sebaran data pada sebuah kelompok atau variabel memiliki distribusi normal atau tidak.Berdasarkan pengalaman empiris, pada umumnya data yang terdapat lebih dari 30 (n > 30), maka dapat diasumsikan berdistribusi normal. Namun, hal tersebut tidak menutup kemungkinan bahwa data yang kurang dari 30 (n < 30) juga berdistribusi normal. Maka dari itu, lebih baik dilakukan sebuah pengujian untuk memberikan kepastian pada hasil kesimpulan. Pengujian asumsi normalitas dapat dilakukan dengan berbagai cara yaitu melalui ujiSaphiro-Wilk, Anderson-Darling dan Kolmogorov-Smirnov.

2.2.2 Uji Multikolinieritas

Hubungan linier yang sempurna diantara variabel-variabel independen yang terdapat pada model regresi dinamakan multikolinieritas atau kolinieritas ganda. Sedangkan, kebalikannya yaitu kolinieritas  merupaka  hubungan linier yang sempurna dari variabel tunggal (Supranto, 1992).

Model regresi dikatakan baik apabila terbebas dari multikolinieritas yang mana memiliki nilai VIF lebih kecil dari 10 (VIF < 10) dan tolerance lebih besar dari 0,1 (Tol > 0,1) (Ghazali, 2005 : 95).

Nilai VIF (Varience Inflation Factor) merupakan elemen diagonal utama dari invers matriks korelasi. Perhitungan manual VIF dapat menggunakan rumus sebagai berikut:

\[ VIF =\frac {1}{1-R^2_j} \]

Perhitungan manual nilai Tolerance sebagai berikut:

\[ Tol = {1-R^2_j} \]

2.2.3 Uji Heterokedastisitas

Uji heterokedastisitas ini dilakukan untuk mengetahui bahwa ragam atau varian yang terdapat pada model adalah sama dimana model regresi yang efisien adalah model regresi yang terdapat kesamaan varian atau tidak terdapat heterokedastisitas. sesuai dengan jurnal karya Uthami, bahwa tujuan dilakukannya uji heteroskedastisitas adalah untuk menguji apakah dalam model regresi tersebut memiliki varian yan konstan dari residual pada pengamatan yang tersedia (Uthami,2013). Heterokedastisitas termasuk salah satu asumsi dalam analisis regresi yang harus dipenuhi dalam melakukan estimasi menggunakan metode kuadrat terkecil. Namun, terdapat beberapa asumsi di dalam analisis regresi yang harus dipenuhi dalam melakukan estimasi dengan metode kuadrat terkecil. Terdapat beberapa uji statistik yang digunakan dalam pendeteksian heteroskedastisitas, diantaranya uji park dan uji breusch pagan godfrey.

2.2.4 Uji Autokorelasi

Uji autokorelasi ini dilakukan untuk mengetahui hubungan yang terjadi pada variabel-variabel yang sedang diteliti pada suatu model. Pengujian ini dilakukan dengan cara melihat nilai Durbin-Watson. Model regresi terjadi masalah autokorelasi atau tidak dapat dilihat pada ketentuan berikut ini :

  1. Nilai DW < dL, maka terdapat autokorelasi.

  2. Nilai DW terletak antara dL ≤ dw ≤ du, maka tidak ada kesimpulan.

  3. Nilai DW terletak antara du < dw ≤ 4 – du, maka tidak ada autokorelasi.

  4. Nilai DW terletak 4 – du ≤ dw ≤ 4-dL, maka tidak dapat mengambil keputusan apa-apa.

  5. Nilai DW > 4 – dL, maka terdapat autokorelasi.

2.3 Data

Data diambil dari https://www.datacamp.com/tutorial/linear-regression-R

Dengan variabel sebagai berikut

X1 = Berat Badan (kg)

X2 = Banyak Saudara Kandung

Y = Tinggi Badan (cm)

3 Source Code

3.1 Library yang Dibutuhkan

> #library(agricolae)
> #library(nortest)
> #library(lmtest)
> #library(car)
> #library(tseries)
> #library(olsrr)

3.2 Import Data

> library(readxl)
> dataregresi1 <- read_excel("C:/Users/WINDOWS 10/Downloads/dataregresi1.xlsx")
> dataku <- as.data.frame(dataregresi1)
> dataku
   X1    Y X2
1  18 76.1  2
2  19 77.0  1
3  20 78.1  3
4  21 78.2  0
5  22 78.8  1
6  23 79.7  1
7  24 79.9  3
8  25 81.1  0
9  26 81.2  2
10 27 81.8  0
11 28 82.8  0
12 29 83.5  1

3.3 Syntax

> library(agricolae)
Error: package or namespace load failed for 'agricolae' in loadNamespace(j <- i[[1L]], c(lib.loc, .libPaths()), versionCheck = vI[[j]]):
 there is no package called 'labelled'
> library(nortest)
> library(lmtest)
> library(car)
> library(tseries)
> library(olsrr)
> 
> #Membuat model regresi linier
> reg <- lm(Y~X1+X2, data=dataregresi1)
> summary(reg) 

Call:
lm(formula = Y ~ X1 + X2, data = dataregresi1)

Residuals:
     Min       1Q   Median       3Q      Max 
-0.28155 -0.22946 -0.04015  0.16346  0.48944 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept) 64.97325    0.61202 106.161 2.96e-15 ***
X1           0.63364    0.02417  26.213 8.26e-10 ***
X2          -0.01184    0.07819  -0.151    0.883    
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 0.2695 on 9 degrees of freedom
Multiple R-squared:  0.9888,    Adjusted R-squared:  0.9863 
F-statistic:   397 on 2 and 9 DF,  p-value: 1.67e-09
> 
> #Uji Normalitas
> shapiro.test(dataregresi1$Y)

    Shapiro-Wilk normality test

data:  dataregresi1$Y
W = 0.97576, p-value = 0.9609
> 
> nortest::ad.test(dataregresi1$Y)

    Anderson-Darling normality test

data:  dataregresi1$Y
A = 0.14841, p-value = 0.9493
> 
> nortest::lillie.test(dataregresi1$Y)

    Lilliefors (Kolmogorov-Smirnov) normality test

data:  dataregresi1$Y
D = 0.12307, p-value = 0.8841
> 
> #Uji Autokorelasi
> cor(dataregresi1, method = "pearson")
           X1          Y         X2
X1  1.0000000  0.9943661 -0.3619267
Y   0.9943661  1.0000000 -0.3648668
X2 -0.3619267 -0.3648668  1.0000000
> 
> car::vif(reg)
      X1       X2 
1.150736 1.150736 
> 
> # Uji Homosdekastisitas
> lmtest::bptest(reg)

    studentized Breusch-Pagan test

data:  reg
BP = 3.4923, df = 2, p-value = 0.1744
> 
> #Uji Linieritas
> lmtest::harvtest(reg)

    Harvey-Collier test

data:  reg
HC = 1.0998, df = 8, p-value = 0.3034
> 
> #Uji Non Autokorelasi
> lmtest::dwtest(reg)

    Durbin-Watson test

data:  reg
DW = 2.3777, p-value = 0.7023
alternative hypothesis: true autocorrelation is greater than 0
> 
> #Pemilihan Model Terbaik
> olsrr::ols_step_all_possible(reg)
  Index N Predictors  R-Square Adj. R-Square Mallow's Cp
1     1 1         X1 0.9887639     0.9876403     1.02291
2     2 1         X2 0.1331278     0.0464406   688.12547
3     3 2      X1 X2 0.9887925     0.9863019     3.00000
> olsrr::ols_step_forward_p(reg)

                          Selection Summary                            
----------------------------------------------------------------------
        Variable                  Adj.                                    
Step    Entered     R-Square    R-Square     C(p)      AIC       RMSE     
----------------------------------------------------------------------
   1    X1            0.9888      0.9876    1.0229    5.1614    0.2560    
----------------------------------------------------------------------
> olsrr::ols_step_backward_p(reg)

                         Elimination Summary                           
----------------------------------------------------------------------
        Variable                  Adj.                                    
Step    Removed     R-Square    R-Square     C(p)      AIC       RMSE     
----------------------------------------------------------------------
   1    X2            0.9888      0.9876    1.0229    5.1614    0.2560    
----------------------------------------------------------------------
> 
> #Model Regresi Final
> reg2 <- lm(Y~X1+X2, data=dataregresi1)
> reg2

Call:
lm(formula = Y ~ X1 + X2, data = dataregresi1)

Coefficients:
(Intercept)           X1           X2  
   64.97325      0.63364     -0.01184  

4 Hasil dan Pembahasan

4.1 Pendugaan Parameter Regresi

Pada R, diketahui bahwa output yang dihasilkan adalah sebagai berikut


Call:
lm(formula = Y ~ X1 + X2, data = dataregresi1)

Residuals:
     Min       1Q   Median       3Q      Max 
-0.28155 -0.22946 -0.04015  0.16346  0.48944 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept) 64.97325    0.61202 106.161 2.96e-15 ***
X1           0.63364    0.02417  26.213 8.26e-10 ***
X2          -0.01184    0.07819  -0.151    0.883    
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 0.2695 on 9 degrees of freedom
Multiple R-squared:  0.9888,    Adjusted R-squared:  0.9863 
F-statistic:   397 on 2 and 9 DF,  p-value: 1.67e-09

Persamaan regresi yang terbentuk

Y = 64.97325 + 0.63364X1 - 0.01184X2

Interpretasi

  • Untuk Intersep (Beta 0) = 64.97325. Jika variabel berat badan dan banyaknya saudara kandung bernilai konstan, maka tinggi badan (Y) adalah 64.97325 cm

  • Untuk Beta-1 = 0.63364, maka tinggi badan bayi akan bertambah sepanjang 0.63364 cm ketika berat badan bayi bertambah sebanyak 1 kilogram

  • Untuk Beta-2 = 0.01184, maka tinggi badan bayi akan berkurang sepanjang 0.01184 cm ketika banyaknya saudara kandung lebih banyak 1 orang

Secara Parsial

X1 terhadap Y

  • Dengan p-value yang dihasilkan pada output < 0,05 maka H0 ditolak yang berarti dengan taraf nyata 5% sudah cukup bukti bahwa X1 (Berat Badan) berhubungan linier dengan Y (tinggi badan)

X2 terhadap Y

  • Dengan p-value yang dihasilkan pada output > 0,05 maka H0 diterima yang berarti dengan taraf nyata 5% sudah cukup bukti bahwa X2 (Banyak Saudara Kandung) tidak berhubungan linier dengan Y (tinggi badan)

4.2 Uji Asumsi

4.2.1 Uji Asumsi Normalitas

Hasil Uji Normalitas menggunakan Shapiro-Wilk normality test


    Shapiro-Wilk normality test

data:  dataregresi1$Y
W = 0.97576, p-value = 0.9609

Hasil Uji Normalitas menggunakan Anderson Darling normality test


    Anderson-Darling normality test

data:  dataregresi1$Y
A = 0.14841, p-value = 0.9493

Hasil Uji Normalitas Kolmogorov-Smirnov normality test


    Lilliefors (Kolmogorov-Smirnov) normality test

data:  dataregresi1$Y
D = 0.12307, p-value = 0.8841

Kesimpulan

Karena keputusan dari ketiga uji adalah terima H0, maka dapat disimpulkan bahwa data menyebar normal dengan taraf nyata 5%

4.2.2 Uji Asumsi Multikolinieritas

           X1          Y         X2
X1  1.0000000  0.9943661 -0.3619267
Y   0.9943661  1.0000000 -0.3648668
X2 -0.3619267 -0.3648668  1.0000000
      X1       X2 
1.150736 1.150736 

Kesimpulan

Dari hasil yang didapat, nilai VIF yang didapat lebih kecil dari 10, maka dapat disimpulkan bahwa model regresi bebas dari multikolinieritasl.

4.2.3 Uji Asumsi Homoskedastisitas


    studentized Breusch-Pagan test

data:  reg
BP = 3.4923, df = 2, p-value = 0.1744

Kesimpulan

Karena p-value (0.1744)> 0.05, maka H0 diterima, sehingga dapat disimpulkan bahwa variansi galat bersifat homoskedastisitas.

4.2.4 Uji Asumsi Linieritas


    Harvey-Collier test

data:  reg
HC = 1.0998, df = 8, p-value = 0.3034

Kesimpulan

Berdasarkan p-value yang dihasilkan, maka dapat bahwa model tersebut merupakan model linier

4.2.5 Uji Non Autokorelasi


    Durbin-Watson test

data:  reg
DW = 2.3777, p-value = 0.7023
alternative hypothesis: true autocorrelation is greater than 0

Kesimpulan

Dengan nilai DW 2.3777 dimana berada pada interval 0<= DW <= 4, maka tidak terdapat kesimpulan. ## Pemilihan Model Terbaik ### All Possible

  Index N Predictors  R-Square Adj. R-Square Mallow's Cp
1     1 1         X1 0.9887639     0.9876403     1.02291
2     2 1         X2 0.1331278     0.0464406   688.12547
3     3 2      X1 X2 0.9887925     0.9863019     3.00000

                          Selection Summary                            
----------------------------------------------------------------------
        Variable                  Adj.                                    
Step    Entered     R-Square    R-Square     C(p)      AIC       RMSE     
----------------------------------------------------------------------
   1    X1            0.9888      0.9876    1.0229    5.1614    0.2560    
----------------------------------------------------------------------

                         Elimination Summary                           
----------------------------------------------------------------------
        Variable                  Adj.                                    
Step    Removed     R-Square    R-Square     C(p)      AIC       RMSE     
----------------------------------------------------------------------
   1    X2            0.9888      0.9876    1.0229    5.1614    0.2560    
----------------------------------------------------------------------

Dilihat pada hasil bahwa pada persamaan regresi,pada R-Square dan Adj. R-Square dipilih nilai yang terbesar sedangkan Cp mallow yang kecil. Tetapi lebih diutamakan dilihat pada nilai Adj. R-Square karena model tersebut memenuhi asumsi multikolinieritas.

Kesimpulan

Dengan begitu, yang dipilih adalah model dengan variabel prediktor X1 saja.

4.2.6 Forward


                          Selection Summary                            
----------------------------------------------------------------------
        Variable                  Adj.                                    
Step    Entered     R-Square    R-Square     C(p)      AIC       RMSE     
----------------------------------------------------------------------
   1    X1            0.9888      0.9876    1.0229    5.1614    0.2560    
----------------------------------------------------------------------

Kesimpulan

Dengan begitu, yang dipilih adalah model dengan variabel prediktor X1 saja.

4.2.7 Backward


                         Elimination Summary                           
----------------------------------------------------------------------
        Variable                  Adj.                                    
Step    Removed     R-Square    R-Square     C(p)      AIC       RMSE     
----------------------------------------------------------------------
   1    X2            0.9888      0.9876    1.0229    5.1614    0.2560    
----------------------------------------------------------------------

Kesimpulan

Dengan begitu, yang dipilih adalah model dengan variabel prediktor X1 saja karena variabel kedua dihapuskan pada uji backward.

5 Kesimpulan

Dengan begitu hasil dari uji final :


Call:
lm(formula = Y ~ X1 + X2, data = dataregresi1)

Coefficients:
(Intercept)           X1           X2  
   64.97325      0.63364     -0.01184  

Model terbaik yang didapatkan adalah sebagai berikut : \[ Y = 64.97325 + 0.63364X1 \]

Yang berarti apabila berat badan dianggap konstan maka tinggi badan akan bernilai 64.97325 cm dan akan mengalami pertmbahan sepanjang 0.63364 cm setiap pertambahan berat badan sebanyak 1 kg.

6 Daftar Pustaka

Ghozali, Imam. 2018. Aplikasi Analisis Multivariate dengan Program IBM SPSS 25. Badan Penerbit Universitas Diponegoro: Semarang.

Neter, J., Kutner, M. H., Nachtsheim, C. J., & Wasserman, W. (1996). Applied linear statistical models.

Rahmadi, A. (2017). Hubungan berat badan dan panjang badan lahir dengan kejadian stunting anak 12-59 bulan di Provinsi Lampung. Jurnal Ilmiah Keperawatan Sai Betik, 12(2), 209-218.

Supranto. J. 1984. Ekonometrik. Jilid 2. Jakarta: LPEF Universitas Indonesia.

Uthami, I. A. (2013). Regresi Kuantil Median Untuk Mengatasi Heteroskedastisitas Pada Analisis Regresi. e-Jurnal Matematika , 2 (1), 6-13.