Y : Keputusan menolak/menerima siswa pendaftar SNBP di Universitas A pada posisi program studi Hukum x1 : nilai penunjang ppkn/sosiologi (0=<85) (1=>85) x2 : akreditasi sekolah keterangan yang digunakan (0=akreditasi C/B) (1=akreditasi A) x3 : sertifikat yang terlampir (0= sertifikat juara antar kota/antar provinsi) (1= sertifikat juara nasional/internasional) x4 : adalah rata-rata pendaftar dengan skala 100
x1 : nilai penunjang ppkn/sosiologi (0= <85) (1= >85) dengan banyak pendaftar 250
set.seed(1234)
n <- 250
u <- runif(n)
x1 <- round(runif(n))
x1
## [1] 1 1 0 0 0 1 0 0 1 1 1 0 1 0 0 0 1 0 0 1 0 1 0 1 0 1 1 1 0 0 0 0 1 1 1 0 0
## [38] 0 1 1 1 0 1 0 1 1 1 0 1 0 0 1 1 0 1 0 0 1 1 1 1 1 0 0 0 0 0 0 0 1 0 1 0 0
## [75] 0 0 0 0 1 1 1 1 1 0 0 0 0 0 1 0 1 0 1 1 0 0 0 1 1 0 0 1 0 1 1 1 1 1 0 1 0
## [112] 1 0 0 1 1 1 0 1 1 1 0 1 0 0 0 1 0 0 1 0 0 0 0 0 0 1 0 1 1 1 1 1 1 0 1 1 1
## [149] 0 0 1 0 1 1 1 0 1 0 1 0 1 1 1 0 1 0 1 1 0 0 1 1 0 0 1 0 0 0 0 0 1 1 0 1 0
## [186] 1 0 1 1 1 1 1 1 1 1 1 1 1 1 0 0 1 1 1 1 1 0 1 1 0 0 1 0 1 0 0 1 0 1 1 0 0
## [223] 0 1 0 1 1 0 1 0 1 1 1 0 0 0 1 1 1 0 1 1 1 0 1 0 1 0 1 1
x2 : akreditasi sekolah keterangan yang digunakan (0=akreditasiB/C) (2=akreditasi A)
set.seed(1000)
x2 <- round(runif(n))
x2
## [1] 0 1 0 1 1 0 1 1 0 0 0 1 0 1 1 0 0 1 0 1 0 1 0 0 1 1 0 1 0 0 1 0 1 1 1 1 0
## [38] 1 1 0 1 1 0 1 1 1 1 1 0 1 1 1 0 1 1 1 1 1 1 0 0 0 1 1 0 1 0 1 0 1 1 1 0 0
## [75] 1 0 0 0 0 0 0 0 1 0 1 0 0 0 0 0 1 1 1 0 1 1 0 1 0 0 1 0 0 1 1 1 0 1 1 0 1
## [112] 1 0 1 1 0 1 0 0 0 1 0 0 1 1 1 1 1 0 0 0 1 0 0 1 0 0 1 1 0 0 1 1 1 1 0 1 1
## [149] 0 1 0 1 1 1 1 0 1 1 1 1 1 0 1 1 0 1 1 1 1 0 0 1 0 1 0 1 0 1 1 1 1 0 0 0 1
## [186] 0 0 1 0 1 1 0 1 1 1 1 0 0 1 1 0 0 1 0 0 0 1 1 1 1 1 1 1 1 0 0 1 0 1 1 1 0
## [223] 0 0 0 1 0 1 1 1 0 0 1 1 0 0 1 0 1 1 1 1 0 0 1 1 1 1 1 1
x3 : sertifikat yang terlampir (0=sertifikat juara antar kota/antar provinsi) (1=sertifikat juara nasional/internasional)
set.seed(500)
x3 <- round(runif(n))
x3
## [1] 1 1 1 0 1 0 1 1 1 1 0 1 1 0 1 0 1 1 1 0 0 1 0 1 0 1 1 1 0 0 0 0 1 0 0 1 1
## [38] 0 1 0 0 0 1 0 1 1 1 0 0 0 0 1 0 0 0 1 0 1 1 1 0 1 1 0 1 0 0 0 0 0 0 0 0 0
## [75] 1 0 0 0 0 0 0 1 1 0 0 1 1 1 1 1 1 1 0 0 0 1 0 0 0 0 1 0 1 0 1 1 0 0 1 0 1
## [112] 1 0 1 0 1 0 1 0 1 1 1 0 0 1 0 0 1 1 1 0 0 1 1 0 0 1 1 0 1 0 1 1 1 1 1 0 0
## [149] 0 1 1 1 0 0 1 1 1 1 0 0 1 1 0 1 1 0 0 0 0 1 0 1 0 0 0 0 1 0 0 1 0 0 1 1 0
## [186] 0 0 1 1 1 1 1 1 0 0 0 0 0 0 0 1 0 1 1 1 0 1 0 0 1 1 1 0 0 0 0 1 1 0 0 0 1
## [223] 0 1 0 0 1 0 1 1 0 0 1 1 0 0 1 1 0 1 0 1 1 1 1 1 0 1 1 0
x4 : adalah nilai rapor pendaftar dengan skala 100
set.seed(1000)
x4 <-round(rnorm(n,85,5))
x4
## [1] 83 79 85 88 81 83 83 89 85 78 80 82 86 84 78 86 86 85 75 86 98 79 89 88 82
## [26] 88 76 87 88 91 84 88 81 83 76 86 83 90 81 78 82 92 86 85 84 92 86 86 78 80
## [51] 86 80 87 80 86 90 76 87 98 81 88 83 91 91 83 84 82 93 80 85 78 88 86 92 84
## [76] 83 86 92 89 87 91 86 83 92 87 84 85 73 80 95 95 75 87 84 84 87 87 89 83 95
## [101] 78 86 84 89 86 86 87 74 90 91 89 84 84 84 94 83 86 78 93 86 88 83 87 90 87
## [126] 82 81 78 86 82 82 89 90 86 85 82 91 78 78 85 86 87 81 89 79 83 91 94 85 89
## [151] 80 89 86 92 85 76 80 87 86 80 86 90 95 84 83 83 87 87 82 85 87 81 84 81 78
## [176] 79 95 91 86 84 93 90 92 91 88 85 82 89 91 83 83 79 81 87 87 93 88 86 87 80
## [201] 90 89 77 84 82 85 86 85 90 82 84 89 84 75 81 77 85 82 83 83 77 81 77 88 92
## [226] 85 77 88 89 82 81 81 95 75 82 87 87 80 96 80 81 89 85 89 85 86 87 87 86 80
b0 <- -210
b1 <- 2.5
b2 <- 2.7
b3 <- 3
b4 <- 2.4
set.seed(469)
datapendukung <- b0+(b1*x1)+(b2*x2)+(b3*x3)+(b4*x4)
datapendukung
## [1] -5.3 -12.2 -3.0 3.9 -9.9 -8.3 -5.1 9.3 -0.5 -17.3 -15.5 -7.5
## [13] 1.9 -5.7 -17.1 -3.6 1.9 -0.3 -27.0 1.6 25.2 -12.2 3.6 6.7
## [25] -10.5 9.4 -22.1 7.0 1.2 8.4 -5.7 1.2 -7.4 -5.6 -22.4 2.1
## [37] -7.8 8.7 -7.4 -20.3 -8.0 13.5 1.9 -3.3 -0.2 19.0 4.6 -0.9
## [49] -20.3 -15.3 -0.9 -9.8 1.3 -15.3 1.6 11.7 -24.9 7.0 33.4 -10.1
## [61] 3.7 -5.3 14.1 11.1 -7.8 -5.7 -13.2 15.9 -18.0 -0.8 -20.1 6.4
## [73] -3.6 10.8 -2.7 -10.8 -3.6 10.8 6.1 1.3 10.9 1.9 -2.6 10.8
## [85] 1.5 -5.4 -3.0 -31.8 -12.5 21.0 26.2 -24.3 4.0 -5.9 -5.7 4.5
## [97] -1.2 8.8 -8.3 18.0 -17.1 -1.1 -5.4 8.8 4.6 4.6 1.3 -27.2
## [109] 11.7 10.9 9.3 -0.2 -8.4 -2.7 20.8 -5.3 1.6 -19.8 15.7 1.9
## [121] 9.4 -7.8 1.3 8.7 4.5 -10.5 -10.4 -17.1 -0.6 -7.7 -13.2 6.3
## [133] 9.0 -0.6 -3.3 -13.2 13.9 -17.1 -17.6 -0.5 -1.1 7.0 -7.4 11.8
## [145] -14.7 -5.3 13.6 20.8 -6.0 9.3 -12.5 9.3 1.6 16.0 2.2 -24.6
## [157] -9.8 4.5 1.6 -15.3 4.6 11.5 23.2 -2.7 -5.3 -8.1 4.0 4.0
## [169] -10.5 -3.0 1.3 -7.4 -8.4 -12.9 -20.3 -17.7 21.0 11.1 -0.9 -2.7
## [181] 18.4 8.5 13.8 13.9 3.9 -3.5 -13.2 11.8 13.9 -2.6 -2.6 -14.9
## [193] -7.4 4.0 4.0 18.4 3.7 -1.1 4.0 -15.3 9.0 6.1 -17.0 -2.9
## [205] -7.7 -3.5 2.1 -0.8 11.2 -7.5 -2.7 11.8 -5.7 -24.8 -15.6 -25.2
## [217] 2.2 -10.2 -5.6 -5.6 -22.5 -12.6 -25.2 6.7 10.8 -0.8 -19.7 3.9
## [229] 11.8 -7.5 -13.1 -13.1 26.2 -24.3 -13.2 -1.2 7.0 -12.5 25.6 -12.3
## [241] -10.4 11.8 -0.5 6.6 2.2 2.1 4.0 4.5 4.6 -12.8
p <- exp(datapendukung)/(1+exp(datapendukung))
p
## [1] 4.966802e-03 5.030430e-06 4.742587e-02 9.801597e-01 5.017216e-05
## [6] 2.484551e-04 6.059801e-03 9.999086e-01 3.775407e-01 3.066941e-08
## [11] 1.855391e-07 5.527786e-04 8.698915e-01 3.334807e-03 3.745970e-08
## [16] 2.659699e-02 8.698915e-01 4.255575e-01 1.879529e-12 8.320184e-01
## [21] 1.000000e+00 5.030430e-06 9.734030e-01 9.987706e-01 2.753569e-05
## [26] 9.999173e-01 2.524015e-10 9.990889e-01 7.685248e-01 9.997752e-01
## [31] 3.334807e-03 7.685248e-01 6.108794e-04 3.684240e-03 1.869836e-10
## [36] 8.909032e-01 4.095672e-04 9.998334e-01 6.108794e-04 1.526940e-09
## [41] 3.353501e-04 9.999986e-01 8.698915e-01 3.557119e-02 4.501660e-01
## [46] 1.000000e+00 9.900482e-01 2.890505e-01 1.526940e-09 2.266180e-07
## [51] 2.890505e-01 5.544852e-05 7.858350e-01 2.266180e-07 8.320184e-01
## [56] 9.999917e-01 1.534855e-11 9.990889e-01 1.000000e+00 4.107787e-05
## [61] 9.758730e-01 4.966802e-03 9.999992e-01 9.999849e-01 4.095672e-04
## [66] 3.334807e-03 1.850598e-06 9.999999e-01 1.522998e-08 3.100255e-01
## [71] 1.865009e-09 9.983412e-01 2.659699e-02 9.999796e-01 6.297336e-02
## [76] 2.039909e-05 2.659699e-02 9.999796e-01 9.977622e-01 7.858350e-01
## [81] 9.999815e-01 8.698915e-01 6.913842e-02 9.999796e-01 8.175745e-01
## [86] 4.496273e-03 4.742587e-02 1.546805e-14 3.726639e-06 1.000000e+00
## [91] 1.000000e+00 2.796688e-11 9.820138e-01 2.731961e-03 3.334807e-03
## [96] 9.890131e-01 2.314752e-01 9.998493e-01 2.484551e-04 1.000000e+00
## [101] 3.745970e-08 2.497399e-01 4.496273e-03 9.998493e-01 9.900482e-01
## [106] 9.900482e-01 7.858350e-01 1.538828e-12 9.999917e-01 9.999815e-01
## [111] 9.999086e-01 4.501660e-01 2.248168e-04 6.297336e-02 1.000000e+00
## [116] 4.966802e-03 8.320184e-01 2.517499e-09 9.999998e-01 8.698915e-01
## [121] 9.999173e-01 4.095672e-04 7.858350e-01 9.998334e-01 9.890131e-01
## [126] 2.753569e-05 3.043156e-05 3.745970e-08 3.543437e-01 4.526222e-04
## [131] 1.850598e-06 9.981671e-01 9.998766e-01 3.543437e-01 3.557119e-02
## [136] 1.850598e-06 9.999991e-01 3.745970e-08 2.272046e-08 3.775407e-01
## [141] 2.497399e-01 9.990889e-01 6.108794e-04 9.999925e-01 4.129248e-07
## [146] 4.966802e-03 9.999988e-01 1.000000e+00 2.472623e-03 9.999086e-01
## [151] 3.726639e-06 9.999086e-01 8.320184e-01 9.999999e-01 9.002495e-01
## [156] 2.071838e-11 5.544852e-05 9.890131e-01 8.320184e-01 2.266180e-07
## [161] 9.900482e-01 9.999899e-01 1.000000e+00 6.297336e-02 4.966802e-03
## [166] 3.034470e-04 9.820138e-01 9.820138e-01 2.753569e-05 4.742587e-02
## [171] 7.858350e-01 6.108794e-04 2.248168e-04 2.498044e-06 1.526940e-09
## [176] 2.055832e-08 1.000000e+00 9.999849e-01 2.890505e-01 6.297336e-02
## [181] 1.000000e+00 9.997966e-01 9.999990e-01 9.999991e-01 9.801597e-01
## [186] 2.931223e-02 1.850598e-06 9.999925e-01 9.999991e-01 6.913842e-02
## [191] 6.913842e-02 3.380742e-07 6.108794e-04 9.820138e-01 9.820138e-01
## [196] 1.000000e+00 9.758730e-01 2.497399e-01 9.820138e-01 2.266180e-07
## [201] 9.998766e-01 9.977622e-01 4.139938e-08 5.215356e-02 4.526222e-04
## [206] 2.931223e-02 8.909032e-01 3.100255e-01 9.999863e-01 5.527786e-04
## [211] 6.297336e-02 9.999925e-01 3.334807e-03 1.696277e-11 1.678827e-07
## [216] 1.137049e-11 9.002495e-01 3.716894e-05 3.684240e-03 3.684240e-03
## [221] 1.691898e-10 3.372004e-06 1.137049e-11 9.987706e-01 9.999796e-01
## [226] 3.100255e-01 2.782266e-09 9.801597e-01 9.999925e-01 5.527786e-04
## [231] 2.045226e-06 2.045226e-06 1.000000e+00 2.796688e-11 1.850598e-06
## [236] 2.314752e-01 9.990889e-01 3.726639e-06 1.000000e+00 4.551724e-06
## [241] 3.043156e-05 9.999925e-01 3.775407e-01 9.986415e-01 9.002495e-01
## [246] 8.909032e-01 9.820138e-01 9.890131e-01 9.900482e-01 2.760765e-06
set.seed(2030)
y <- rbinom(n,1,p)
y
## [1] 0 0 0 1 0 0 0 1 1 0 0 0 1 0 0 0 1 1 0 1 1 0 1 1 0 1 0 1 1 1 0 0 0 0 0 0 0
## [38] 1 0 0 0 1 1 0 0 1 1 0 0 0 0 0 1 0 0 1 0 1 1 0 1 0 1 1 0 0 0 1 0 0 0 1 0 1
## [75] 0 0 0 1 1 1 1 1 0 1 1 0 0 0 0 1 1 0 1 0 0 1 1 1 0 1 0 0 0 1 1 1 1 0 1 1 1
## [112] 0 0 0 1 0 1 0 1 1 1 0 1 1 1 0 0 0 1 0 0 1 1 1 0 0 1 0 0 1 1 1 0 1 0 0 1 1
## [149] 0 1 0 1 1 1 0 0 0 1 1 0 1 1 1 0 0 0 1 0 0 0 1 0 0 0 0 0 1 1 1 0 1 1 1 1 1
## [186] 0 0 1 1 0 0 0 0 1 1 1 1 1 1 0 1 1 0 0 0 0 1 0 1 0 0 1 0 0 0 0 0 0 0 0 0 0
## [223] 0 1 1 1 0 1 1 0 0 0 1 0 0 0 1 0 1 0 0 1 0 1 1 1 1 1 1 0
datagap <- data.frame(y,x1,x2,x3,x4)
datagap
## y x1 x2 x3 x4
## 1 0 1 0 1 83
## 2 0 1 1 1 79
## 3 0 0 0 1 85
## 4 1 0 1 0 88
## 5 0 0 1 1 81
## 6 0 1 0 0 83
## 7 0 0 1 1 83
## 8 1 0 1 1 89
## 9 1 1 0 1 85
## 10 0 1 0 1 78
## 11 0 1 0 0 80
## 12 0 0 1 1 82
## 13 1 1 0 1 86
## 14 0 0 1 0 84
## 15 0 0 1 1 78
## 16 0 0 0 0 86
## 17 1 1 0 1 86
## 18 1 0 1 1 85
## 19 0 0 0 1 75
## 20 1 1 1 0 86
## 21 1 0 0 0 98
## 22 0 1 1 1 79
## 23 1 0 0 0 89
## 24 1 1 0 1 88
## 25 0 0 1 0 82
## 26 1 1 1 1 88
## 27 0 1 0 1 76
## 28 1 1 1 1 87
## 29 1 0 0 0 88
## 30 1 0 0 0 91
## 31 0 0 1 0 84
## 32 0 0 0 0 88
## 33 0 1 1 1 81
## 34 0 1 1 0 83
## 35 0 1 1 0 76
## 36 0 0 1 1 86
## 37 0 0 0 1 83
## 38 1 0 1 0 90
## 39 0 1 1 1 81
## 40 0 1 0 0 78
## 41 0 1 1 0 82
## 42 1 0 1 0 92
## 43 1 1 0 1 86
## 44 0 0 1 0 85
## 45 0 1 1 1 84
## 46 1 1 1 1 92
## 47 1 1 1 1 86
## 48 0 0 1 0 86
## 49 0 1 0 0 78
## 50 0 0 1 0 80
## 51 0 0 1 0 86
## 52 0 1 1 1 80
## 53 1 1 0 0 87
## 54 0 0 1 0 80
## 55 0 1 1 0 86
## 56 1 0 1 1 90
## 57 0 0 1 0 76
## 58 1 1 1 1 87
## 59 1 1 1 1 98
## 60 0 1 0 1 81
## 61 1 1 0 0 88
## 62 0 1 0 1 83
## 63 1 0 1 1 91
## 64 1 0 1 0 91
## 65 0 0 0 1 83
## 66 0 0 1 0 84
## 67 0 0 0 0 82
## 68 1 0 1 0 93
## 69 0 0 0 0 80
## 70 0 1 1 0 85
## 71 0 0 1 0 78
## 72 1 1 1 0 88
## 73 0 0 0 0 86
## 74 1 0 0 0 92
## 75 0 0 1 1 84
## 76 0 0 0 0 83
## 77 0 0 0 0 86
## 78 1 0 0 0 92
## 79 1 1 0 0 89
## 80 1 1 0 0 87
## 81 1 1 0 0 91
## 82 1 1 0 1 86
## 83 0 1 1 1 83
## 84 1 0 0 0 92
## 85 1 0 1 0 87
## 86 0 0 0 1 84
## 87 0 0 0 1 85
## 88 0 0 0 1 73
## 89 0 1 0 1 80
## 90 1 0 0 1 95
## 91 1 1 1 1 95
## 92 0 0 1 1 75
## 93 1 1 1 0 87
## 94 0 1 0 0 84
## 95 0 0 1 0 84
## 96 1 0 1 1 87
## 97 1 0 0 0 87
## 98 1 1 1 0 89
## 99 0 1 0 0 83
## 100 1 0 0 0 95
## 101 0 0 1 1 78
## 102 0 1 0 0 86
## 103 0 0 0 1 84
## 104 1 1 1 0 89
## 105 1 1 1 1 86
## 106 1 1 1 1 86
## 107 1 1 0 0 87
## 108 0 1 1 0 74
## 109 1 0 1 1 90
## 110 1 1 0 0 91
## 111 1 0 1 1 89
## 112 0 1 1 1 84
## 113 0 0 0 0 84
## 114 0 0 1 1 84
## 115 1 1 1 0 94
## 116 0 1 0 1 83
## 117 1 1 1 0 86
## 118 0 0 0 1 78
## 119 1 1 0 0 93
## 120 1 1 0 1 86
## 121 1 1 1 1 88
## 122 0 0 0 1 83
## 123 1 1 0 0 87
## 124 1 0 1 0 90
## 125 1 0 1 1 87
## 126 0 0 1 0 82
## 127 0 1 1 0 81
## 128 0 0 1 1 78
## 129 1 0 0 1 86
## 130 0 1 0 1 82
## 131 0 0 0 0 82
## 132 1 0 1 0 89
## 133 1 0 0 1 90
## 134 1 0 0 1 86
## 135 0 0 1 0 85
## 136 0 0 0 0 82
## 137 1 1 0 1 91
## 138 0 0 1 1 78
## 139 0 1 1 0 78
## 140 1 1 0 1 85
## 141 1 1 0 0 86
## 142 1 1 1 1 87
## 143 0 1 1 1 81
## 144 1 1 1 1 89
## 145 0 0 1 1 79
## 146 0 1 0 1 83
## 147 1 1 1 0 91
## 148 1 1 1 0 94
## 149 0 0 0 0 85
## 150 1 0 1 1 89
## 151 0 1 0 1 80
## 152 1 0 1 1 89
## 153 1 1 1 0 86
## 154 1 1 1 0 92
## 155 0 1 1 1 85
## 156 0 0 0 1 76
## 157 0 1 1 1 80
## 158 1 0 1 1 87
## 159 1 1 1 0 86
## 160 0 0 1 0 80
## 161 1 1 1 1 86
## 162 1 1 0 1 90
## 163 1 1 1 0 95
## 164 0 0 1 1 84
## 165 0 1 0 1 83
## 166 0 0 1 0 83
## 167 1 1 1 0 87
## 168 0 1 1 0 87
## 169 0 0 1 0 82
## 170 0 0 0 1 85
## 171 1 1 0 0 87
## 172 0 1 1 1 81
## 173 0 0 0 0 84
## 174 0 0 1 0 81
## 175 0 1 0 0 78
## 176 0 0 1 0 79
## 177 1 0 0 1 95
## 178 1 0 1 0 91
## 179 1 0 1 0 86
## 180 0 0 1 1 84
## 181 1 1 1 0 93
## 182 1 1 0 0 90
## 183 1 0 0 1 92
## 184 1 1 0 1 91
## 185 1 0 1 0 88
## 186 0 1 0 0 85
## 187 0 0 0 0 82
## 188 1 1 1 1 89
## 189 1 1 0 1 91
## 190 0 1 1 1 83
## 191 0 1 1 1 83
## 192 0 1 0 1 79
## 193 0 1 1 1 81
## 194 1 1 1 0 87
## 195 1 1 1 0 87
## 196 1 1 1 0 93
## 197 1 1 0 0 88
## 198 1 1 0 0 86
## 199 1 1 1 0 87
## 200 0 0 1 0 80
## 201 1 0 0 1 90
## 202 1 1 0 0 89
## 203 0 1 1 1 77
## 204 0 1 0 1 84
## 205 0 1 0 1 82
## 206 0 1 0 0 85
## 207 1 0 1 1 86
## 208 0 1 1 0 85
## 209 1 1 1 0 90
## 210 0 0 1 1 82
## 211 0 0 1 1 84
## 212 1 1 1 1 89
## 213 0 0 1 0 84
## 214 0 1 1 0 75
## 215 0 0 0 0 81
## 216 0 0 0 0 77
## 217 0 1 1 1 85
## 218 0 0 0 1 82
## 219 0 1 1 0 83
## 220 0 1 1 0 83
## 221 0 0 1 0 77
## 222 0 0 0 1 81
## 223 0 0 0 0 77
## 224 1 1 0 1 88
## 225 1 0 0 0 92
## 226 1 1 1 0 85
## 227 0 1 0 1 77
## 228 1 0 1 0 88
## 229 1 1 1 1 89
## 230 0 0 1 1 82
## 231 0 1 0 0 81
## 232 0 1 0 0 81
## 233 1 1 1 1 95
## 234 0 0 1 1 75
## 235 0 0 0 0 82
## 236 0 0 0 0 87
## 237 1 1 1 1 87
## 238 0 1 0 1 80
## 239 1 1 1 0 96
## 240 0 0 1 1 80
## 241 0 1 1 0 81
## 242 1 1 1 1 89
## 243 0 1 0 1 85
## 244 1 0 0 1 89
## 245 1 1 1 1 85
## 246 1 0 1 1 86
## 247 1 1 1 0 87
## 248 1 0 1 1 87
## 249 1 1 1 1 86
## 250 0 1 1 0 80
modelreglog <- glm(y~x1+x2+x3+x4, family = binomial(link = "logit"), data = datagap)
## Warning: glm.fit: fitted probabilities numerically 0 or 1 occurred
summary(modelreglog)
##
## Call:
## glm(formula = y ~ x1 + x2 + x3 + x4, family = binomial(link = "logit"),
## data = datagap)
##
## Coefficients:
## Estimate Std. Error z value Pr(>|z|)
## (Intercept) -210.3382 40.1019 -5.245 1.56e-07 ***
## x1 2.1463 0.7406 2.898 0.00375 **
## x2 0.6940 0.6798 1.021 0.30732
## x3 2.4837 0.8206 3.027 0.00247 **
## x4 2.4225 0.4625 5.238 1.63e-07 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## (Dispersion parameter for binomial family taken to be 1)
##
## Null deviance: 345.276 on 249 degrees of freedom
## Residual deviance: 58.473 on 245 degrees of freedom
## AIC: 68.473
##
## Number of Fisher Scoring iterations: 9
Dari Kesimpulan diatas adalah Dalam output model regresi logistik yang diberikan, koefisien estimasi untuk setiap variabel prediktor (x1, x2, x3, dan x4) adalah sebagai berikut:
Koefisien estimasi tersebut mengindikasikan seberapa besar pengaruh setiap variabel prediktor terhadap variabel respons (y), dengan mengontrol variabel lain dalam model. Dalam interpretasi koefisien:
Selain itu, nilai z-value dan nilai p-value (Pr(>|z|)) juga disediakan untuk menilai signifikansi statistik dari masing-masing koefisien. Tanda asterisk () menunjukkan tingkat signifikansi tertentu, di mana lebih banyak asterisk menunjukkan tingkat signifikansi yang lebih tinggi. Misalnya, ** menunjukkan tingkat signifikansi 0.001, ** menunjukkan 0.01, dan * menunjukkan 0.05.
Dengan demikian, variabel x1, x3, dan x4 memiliki pengaruh yang signifikan terhadap variabel respons (y) pada tingkat signifikansi α = 0.05, sementara variabel x2 tidak signifikan pada tingkat yang sama.Dalam output model regresi logistik yang diberikan, koefisien estimasi untuk setiap variabel prediktor (x1, x2, x3, dan x4) adalah sebagai berikut:
Koefisien estimasi tersebut mengindikasikan seberapa besar pengaruh setiap variabel prediktor terhadap variabel respons (y), dengan mengontrol variabel lain dalam model. Dalam interpretasi koefisien:
Selain itu, nilai z-value dan nilai p-value (Pr(>|z|)) juga disediakan untuk menilai signifikansi statistik dari masing-masing koefisien. Tanda asterisk () menunjukkan tingkat signifikansi tertentu, di mana lebih banyak asterisk menunjukkan tingkat signifikansi yang lebih tinggi. Misalnya, ** menunjukkan tingkat signifikansi 0.001, ** menunjukkan 0.01, dan * menunjukkan 0.05.
Dengan demikian, variabel x1, x3, dan x4 memiliki pengaruh yang signifikan terhadap variabel respons (y) pada tingkat signifikansi α = 0.05, sementara variabel x2 tidak signifikan pada tingkat yang sama.