Memuat library yang diperlukan
library(e1071)
## Warning: package 'e1071' was built under R version 4.2.3
library(caret)
## Loading required package: ggplot2
## Loading required package: lattice
library(devtools)
## Warning: package 'devtools' was built under R version 4.2.3
## Loading required package: usethis
## Warning: package 'usethis' was built under R version 4.2.3
Memuat dataset
data <- read.csv("D:/SOBAT KARIER/PORTOFOLIO//Diabetes/diabetes.csv", sep = ",")
head(data)
## Pregnancies Glucose BloodPressure SkinThickness Insulin BMI
## 1 6 148 72 35 0 33.6
## 2 1 85 66 29 0 26.6
## 3 8 183 64 0 0 23.3
## 4 1 89 66 23 94 28.1
## 5 0 137 40 35 168 43.1
## 6 5 116 74 0 0 25.6
## DiabetesPedigreeFunction Age Outcome
## 1 0.627 50 1
## 2 0.351 31 0
## 3 0.672 32 1
## 4 0.167 21 0
## 5 2.288 33 1
## 6 0.201 30 0
dim(data)
## [1] 768 9
str(data)
## 'data.frame': 768 obs. of 9 variables:
## $ Pregnancies : int 6 1 8 1 0 5 3 10 2 8 ...
## $ Glucose : int 148 85 183 89 137 116 78 115 197 125 ...
## $ BloodPressure : int 72 66 64 66 40 74 50 0 70 96 ...
## $ SkinThickness : int 35 29 0 23 35 0 32 0 45 0 ...
## $ Insulin : int 0 0 0 94 168 0 88 0 543 0 ...
## $ BMI : num 33.6 26.6 23.3 28.1 43.1 25.6 31 35.3 30.5 0 ...
## $ DiabetesPedigreeFunction: num 0.627 0.351 0.672 0.167 2.288 ...
## $ Age : int 50 31 32 21 33 30 26 29 53 54 ...
## $ Outcome : int 1 0 1 0 1 0 1 0 1 1 ...
Membagi data
n=round(nrow(data)*0.70)
n
## [1] 538
set.seed(123)
sample=sample(seq_len(nrow(data)), size=n)
sample
## [1] 415 463 179 526 195 118 299 229 244 14 374 665 602 603 709 91 348 649
## [19] 355 26 519 426 751 211 590 593 555 373 143 544 490 621 23 309 135 224
## [37] 166 217 290 581 72 588 575 141 722 153 294 277 767 41 431 90 316 223
## [55] 528 116 606 456 598 39 159 209 758 34 516 13 69 409 308 278 89 537
## [73] 291 424 286 671 121 110 158 64 483 477 480 67 663 85 165 648 51 74
## [91] 178 362 236 610 330 127 212 310 243 113 619 687 151 614 160 391 155 747
## [109] 5 326 280 567 238 339 754 137 455 560 589 83 654 196 694 712 500 344
## [127] 693 459 20 764 164 52 534 177 554 84 523 392 302 597 668 650 430 428
## [145] 250 429 398 714 381 545 40 522 473 200 125 265 186 573 252 458 152 54
## [163] 538 235 289 185 413 617 735 607 205 697 564 684 701 346 664 468 509 57
## [181] 457 357 279 270 347 129 218 337 749 539 748 553 390 498 222 421 627 163
## [199] 656 704 674 225 389 117 629 55 731 557 768 134 447 104 591 210 349 401
## [217] 258 635 386 725 24 466 130 682 377 170 445 234 422 508 689 80 688 475
## [235] 696 343 323 479 450 111 317 574 287 292 226 297 681 237 628 33 746 396
## [253] 721 707 76 94 636 30 562 434 175 706 532 115 739 338 96 465 358 543
## [271] 695 661 502 580 397 404 230 148 667 556 350 425 631 423 202 81 558 503
## [289] 232 670 106 375 11 669 364 550 403 461 549 31 414 505 699 513 484 16
## [307] 197 420 678 417 412 551 12 437 609 66 50 204 579 435 741 559 384 122
## [325] 399 472 315 259 353 248 604 48 331 100 108 301 10 499 658 752 402 515
## [343] 442 653 600 395 744 8 114 261 29 306 659 679 282 73 267 738 262 733
## [361] 451 745 219 184 352 662 119 643 685 691 482 36 563 240 379 120 488 304
## [379] 432 723 449 105 281 180 547 448 241 548 167 47 191 37 174 599 303 207
## [397] 19 615 708 504 103 760 652 188 139 762 690 189 311 361 572 38 633 319
## [415] 376 334 416 546 393 371 436 21 199 87 728 497 464 520 536 517 622 367
## [433] 6 128 156 288 49 227 239 193 462 507 491 190 112 378 625 467 576 321
## [451] 59 305 61 540 525 736 750 88 132 612 251 203 246 641 460 700 366 131
## [469] 578 162 645 168 276 78 566 743 95 221 405 161 533 242 181 620 761 594
## [487] 273 187 171 313 582 136 79 638 521 400 446 427 345 646 138 719 583 686
## [505] 272 673 454 755 201 637 657 489 632 2 65 260 247 734 710 418 640 206
## [523] 124 596 7 228 45 514 25 753 470 672 268 501 263 169 711 611
Pembangkitan sampel
train=data[sample, ]
head(train)
## Pregnancies Glucose BloodPressure SkinThickness Insulin BMI
## 415 0 138 60 35 167 34.6
## 463 8 74 70 40 49 35.3
## 179 5 143 78 0 0 45.0
## 526 3 87 60 18 0 21.8
## 195 8 85 55 20 0 24.4
## 118 5 78 48 0 0 33.7
## DiabetesPedigreeFunction Age Outcome
## 415 0.534 21 1
## 463 0.705 39 0
## 179 0.190 47 0
## 526 0.444 21 0
## 195 0.136 42 0
## 118 0.654 25 0
test=data[-sample, ]
head(test)
## Pregnancies Glucose BloodPressure SkinThickness Insulin BMI
## 1 6 148 72 35 0 33.6
## 3 8 183 64 0 0 23.3
## 4 1 89 66 23 94 28.1
## 9 2 197 70 45 543 30.5
## 15 5 166 72 19 175 25.8
## 17 0 118 84 47 230 45.8
## DiabetesPedigreeFunction Age Outcome
## 1 0.627 50 1
## 3 0.672 32 1
## 4 0.167 21 0
## 9 0.158 53 1
## 15 0.587 51 1
## 17 0.551 31 1
dim(train)
## [1] 538 9
dim(test)
## [1] 230 9
Klasifikasi SVM
fit<-svm(factor(Outcome)~.,data=train, probability=T)
fit
##
## Call:
## svm(formula = factor(Outcome) ~ ., data = train, probability = T)
##
##
## Parameters:
## SVM-Type: C-classification
## SVM-Kernel: radial
## cost: 1
##
## Number of Support Vectors: 316
Pengujian model SVM
pre<-predict(fit, test, decision.values=T, probability=T)
pre
## 1 3 4 9 15 17 18 22 27 28 32 35 42 43 44 46 53 56 58 60
## 1 1 0 1 1 0 0 0 1 0 1 0 1 0 1 1 0 0 0 0
## 62 63 68 70 71 75 77 82 86 92 93 97 98 99 101 102 107 109 123 126
## 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0
## 133 140 142 144 145 146 147 149 150 154 157 172 173 176 182 183 192 194 198 208
## 1 0 0 0 0 0 0 1 0 1 0 0 0 1 0 0 0 1 0 1
## 213 214 215 216 220 231 233 245 249 253 254 255 256 257 264 266 269 271 274 275
## 1 0 0 1 0 1 0 0 1 0 0 0 0 0 1 0 0 1 0 0
## 283 284 285 293 295 296 298 300 307 312 314 318 320 322 324 325 327 328 329 332
## 0 1 0 0 0 1 0 0 1 0 0 1 1 0 1 0 0 1 0 0
## 333 335 336 340 341 342 351 354 356 359 360 363 365 368 369 370 372 380 382 383
## 1 0 1 1 0 0 0 0 1 0 1 0 0 0 0 0 0 0 0 0
## 385 387 388 394 406 407 408 410 411 419 433 438 439 440 441 443 444 452 453 469
## 0 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0
## 471 474 476 478 481 485 486 487 492 493 494 495 496 506 510 511 512 518 524 527
## 1 0 0 0 1 1 0 1 0 0 0 0 0 0 0 0 0 0 1 0
## 529 530 531 535 541 542 552 561 565 568 569 570 571 577 584 585 586 587 592 595
## 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 1 0 1 0 0
## 601 605 608 613 616 618 623 624 626 630 634 639 642 644 647 651 655 660 666 675
## 0 1 0 1 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0
## 676 677 680 683 692 698 702 703 705 713 715 716 717 718 720 724 726 727 729 730
## 1 0 0 0 1 0 0 1 0 1 0 1 1 0 0 0 0 0 0 0
## 732 737 740 742 756 757 759 763 765 766
## 0 0 0 0 1 0 0 0 0 0
## attr(,"decision.values")
## 1/0
## 1 0.87434064
## 3 0.65855814
## 4 -1.52764178
## 9 1.12681779
## 15 0.08842215
## 17 -0.49045158
## 18 -1.14357535
## 22 -0.93033168
## 27 0.77984227
## 28 -1.70866902
## 32 0.23695240
## 35 -0.33274210
## 42 1.01800947
## 43 -1.62588402
## 44 1.24872463
## 46 0.67918132
## 53 -1.41107449
## 56 -1.37310749
## 58 -0.44325034
## 60 -1.38328458
## 62 -0.21223822
## 63 -1.38502987
## 68 0.69287719
## 70 -0.82267612
## 71 -1.16079017
## 75 -1.39525471
## 77 -1.41810348
## 82 -1.04650072
## 86 -1.13585472
## 92 -0.89482959
## 93 -0.92270238
## 97 -1.32537764
## 98 -1.43834652
## 99 -1.03045299
## 101 0.87061689
## 102 -0.64007724
## 107 -1.17658331
## 109 -1.31854444
## 123 -1.49770593
## 126 -0.69627225
## 133 0.77209716
## 140 -0.89139958
## 142 -0.74832273
## 144 -0.93127356
## 145 -0.13336309
## 146 -0.63124877
## 147 -1.15642786
## 149 0.22524770
## 150 -1.41572815
## 154 0.02140182
## 157 -1.55542986
## 172 -0.10050298
## 173 -0.49384861
## 176 1.43829426
## 182 -1.02615802
## 183 -0.83261721
## 192 -0.15385047
## 194 0.24463435
## 198 -1.51229580
## 208 0.79565997
## 213 0.55978379
## 214 -0.34610014
## 215 -0.53446519
## 216 1.05584087
## 220 -0.46933369
## 231 0.35890780
## 233 -1.41629463
## 245 -0.14483134
## 249 0.41826636
## 253 -1.63686106
## 254 -1.34082688
## 255 -0.33843878
## 256 -1.12645921
## 257 -0.75979494
## 264 0.17299470
## 266 -0.25697137
## 269 -1.10786103
## 271 0.83300926
## 274 -1.12250380
## 275 -0.92947324
## 283 -0.47473140
## 284 0.09334181
## 285 -0.82318788
## 293 -0.19073604
## 295 -0.27301876
## 296 0.74830690
## 298 -1.16831208
## 300 -1.28931015
## 307 -0.01028937
## 312 -1.32778536
## 314 -1.03291251
## 318 0.71559716
## 320 -0.01934775
## 322 -1.31261217
## 324 0.53079298
## 325 -1.40756145
## 327 -0.67837295
## 328 0.95629288
## 329 -1.27476505
## 332 -1.41104541
## 333 0.81985887
## 335 -1.52677086
## 336 0.56768551
## 340 1.64402346
## 341 -1.41837664
## 342 -1.20022010
## 351 -0.99556305
## 354 -1.57118979
## 356 0.14190672
## 359 -0.66881659
## 360 1.31003524
## 363 -0.26748963
## 365 -0.10728698
## 368 -1.44755234
## 369 -1.60810175
## 370 -0.10617790
## 372 -0.45406987
## 380 -0.28191973
## 382 -1.40511123
## 383 -1.44286768
## 385 -1.41415699
## 387 -0.23208601
## 388 -0.38439842
## 394 -1.50293481
## 406 -0.59070267
## 407 -0.77659010
## 408 -1.44203904
## 410 0.52295001
## 411 -0.46261760
## 419 -1.55535906
## 433 -1.62153888
## 438 -0.11493055
## 439 -1.39194290
## 440 -0.27952017
## 441 0.87398650
## 443 -1.26382994
## 444 -0.09880750
## 452 -0.77906969
## 453 -1.46945768
## 469 -0.80711565
## 471 0.30544042
## 474 -0.65666044
## 476 -0.13870909
## 478 -1.29609752
## 481 0.52445921
## 485 1.01863995
## 486 -0.51039820
## 487 0.04418267
## 492 -0.94911807
## 493 -1.20032347
## 494 -0.12380006
## 495 -1.11840933
## 496 -0.31640753
## 506 -1.24131411
## 510 -1.52795379
## 511 -0.99390453
## 512 -1.30140370
## 518 -0.06071213
## 524 0.42014294
## 527 -1.53174384
## 529 -1.28757593
## 530 -1.18990993
## 531 -1.09619931
## 535 -1.24429134
## 541 -0.11827746
## 542 -0.92738719
## 552 -1.41084704
## 561 -0.57119629
## 565 -1.28620160
## 568 -1.57927847
## 569 0.27080581
## 570 -0.91768526
## 571 -1.31720867
## 577 -0.99465320
## 584 -0.91599171
## 585 0.59005914
## 586 -1.52199777
## 587 0.09173946
## 592 -1.20970435
## 595 -0.05961613
## 601 -1.52786715
## 605 0.65436584
## 608 -1.46988062
## 613 1.01177101
## 616 -1.43208768
## 618 -1.37106306
## 623 1.04457468
## 624 -1.55621725
## 626 -1.06480750
## 630 -1.30300247
## 634 -1.50495039
## 639 -0.25884174
## 642 -0.60306471
## 644 -0.82931170
## 647 -0.27680745
## 651 -1.42938843
## 655 -1.61606692
## 660 -0.80554256
## 666 -1.33395864
## 675 -0.78657024
## 676 1.17931749
## 677 -0.84536624
## 680 -1.54940302
## 683 -1.38455666
## 692 0.41331220
## 698 -0.53027230
## 702 -0.43673034
## 703 1.37055728
## 705 -1.54596932
## 713 0.51645432
## 715 -1.29144760
## 716 0.85458996
## 717 0.98914841
## 718 -1.49393072
## 720 -0.91938962
## 724 -0.48173378
## 726 -0.71262734
## 727 -1.30240647
## 729 -0.68610825
## 730 -1.09043830
## 732 -1.04500657
## 737 -1.37285535
## 740 -0.52723924
## 742 -1.21056432
## 756 0.31296169
## 757 -0.04473038
## 759 -1.09970835
## 763 -1.26127094
## 765 -0.79995485
## 766 -1.27298964
## attr(,"probabilities")
## 1 0
## 1 0.79497458 0.20502542
## 3 0.73656016 0.26343984
## 4 0.09237811 0.90762189
## 9 0.85040687 0.14959313
## 15 0.54094467 0.45905533
## 17 0.32891088 0.67108912
## 18 0.15408694 0.84591306
## 22 0.20105127 0.79894873
## 27 0.77064688 0.22935312
## 28 0.07180567 0.92819433
## 32 0.59609931 0.40390069
## 35 0.38364338 0.61635662
## 42 0.82819675 0.17180325
## 43 0.08062983 0.91937017
## 44 0.87242152 0.12757848
## 46 0.74257960 0.25742040
## 53 0.10829422 0.89170578
## 56 0.11397693 0.88602307
## 58 0.34488870 0.65511130
## 60 0.11242867 0.88757133
## 62 0.42763834 0.57236166
## 63 0.11216501 0.88783499
## 68 0.74652712 0.25347288
## 70 0.22853730 0.77146270
## 71 0.15071707 0.84928293
## 75 0.11063117 0.88936883
## 77 0.10726986 0.89273014
## 82 0.17425207 0.82574793
## 86 0.15561819 0.84438181
## 92 0.20983260 0.79016740
## 93 0.20291488 0.79708512
## 97 0.12148800 0.87851200
## 98 0.10436728 0.89563272
## 99 0.17777916 0.82222084
## 101 0.79405326 0.20594674
## 102 0.28092718 0.71907282
## 107 0.14767904 0.85232096
## 109 0.12259756 0.87740244
## 123 0.09625284 0.90374716
## 126 0.26404905 0.73595095
## 133 0.76856570 0.23143430
## 140 0.21069576 0.78930424
## 142 0.24900816 0.75099184
## 144 0.20082209 0.79917791
## 145 0.45711539 0.54288461
## 146 0.28363778 0.71636222
## 147 0.15156524 0.84843476
## 149 0.59182144 0.40817856
## 150 0.10761507 0.89238493
## 154 0.51563976 0.48436024
## 157 0.08890737 0.91109263
## 172 0.46949726 0.53050274
## 173 0.32777556 0.67222444
## 176 0.90112848 0.09887152
## 182 0.17873258 0.82126742
## 183 0.22589203 0.77410797
## 192 0.44942139 0.55057861
## 194 0.59889906 0.40110094
## 198 0.09434659 0.90565341
## 208 0.77485627 0.22514373
## 213 0.70650653 0.29349347
## 214 0.37886796 0.62113204
## 215 0.31435953 0.68564047
## 216 0.83620154 0.16379846
## 220 0.33601322 0.66398678
## 231 0.63969880 0.36030120
## 233 0.10753265 0.89246735
## 245 0.45280575 0.54719425
## 249 0.66016122 0.33983878
## 253 0.07940525 0.92059475
## 254 0.11901125 0.88098875
## 255 0.38160404 0.61839596
## 256 0.15749834 0.84250166
## 257 0.24577119 0.75422881
## 264 0.57256224 0.42743776
## 266 0.41113275 0.58886725
## 269 0.16127446 0.83872554
## 271 0.78457680 0.21542320
## 274 0.15829537 0.84170463
## 275 0.20126032 0.79873968
## 283 0.33419065 0.66580935
## 284 0.54279549 0.45720451
## 285 0.22840060 0.77159940
## 293 0.43563230 0.56436770
## 295 0.40525799 0.59474201
## 296 0.76209082 0.23790918
## 298 0.14926377 0.85073623
## 300 0.12744340 0.87255660
## 307 0.50363810 0.49636190
## 312 0.12109910 0.87890090
## 314 0.17723498 0.82276502
## 318 0.75298688 0.24701312
## 320 0.50020626 0.49979374
## 322 0.12356789 0.87643211
## 324 0.69731458 0.30268542
## 325 0.10880940 0.89119060
## 327 0.26935395 0.73064605
## 328 0.81447766 0.18552234
## 329 0.12991476 0.87008524
## 332 0.10829848 0.89170152
## 333 0.78118939 0.21881061
## 335 0.09248883 0.90751117
## 336 0.70898341 0.29101659
## 340 0.92564236 0.07435764
## 341 0.10723022 0.89276978
## 342 0.14322696 0.85677304
## 351 0.18564011 0.81435989
## 354 0.08699163 0.91300837
## 356 0.56099473 0.43900527
## 359 0.27221360 0.72778640
## 360 0.88241022 0.11758978
## 363 0.40727917 0.59272083
## 365 0.46693743 0.53306257
## 368 0.10307039 0.89692961
## 369 0.08265018 0.91734982
## 370 0.46735580 0.53264420
## 372 0.34119353 0.65880647
## 380 0.40201100 0.59798900
## 382 0.10917000 0.89083000
## 383 0.10372856 0.89627144
## 385 0.10784394 0.89215606
## 387 0.42029274 0.57970726
## 388 0.36530881 0.63469119
## 394 0.09556573 0.90443427
## 406 0.29628704 0.70371296
## 407 0.24108372 0.75891628
## 408 0.10384537 0.89615463
## 410 0.69480003 0.30519997
## 411 0.33828779 0.66171221
## 419 0.08891606 0.91108394
## 433 0.08111931 0.91888069
## 438 0.46405534 0.53594466
## 439 0.11112596 0.88887404
## 440 0.40288550 0.59711450
## 441 0.79488709 0.20511291
## 443 0.13179950 0.86820050
## 444 0.47013728 0.52986272
## 452 0.24039686 0.75960314
## 453 0.10004164 0.89995836
## 469 0.23272147 0.76727853
## 471 0.62081979 0.37918021
## 474 0.27587856 0.72412144
## 476 0.45510559 0.54489441
## 478 0.12630396 0.87369604
## 481 0.69528481 0.30471519
## 485 0.82833266 0.17166734
## 486 0.32227346 0.67772654
## 487 0.52425669 0.47574331
## 492 0.19651703 0.80348297
## 493 0.14320774 0.85679226
## 494 0.46071402 0.53928598
## 495 0.15912387 0.84087613
## 496 0.38951344 0.61048656
## 506 0.13575330 0.86424670
## 510 0.09233848 0.90766152
## 511 0.18602038 0.81397962
## 512 0.12541925 0.87458075
## 518 0.48453965 0.51546035
## 524 0.66079895 0.33920105
## 527 0.09185821 0.90814179
## 529 0.12773594 0.87226406
## 530 0.14515502 0.85484498
## 531 0.16367932 0.83632068
## 535 0.13522482 0.86477518
## 541 0.46279410 0.53720590
## 542 0.20176900 0.79823100
## 552 0.10832751 0.89167249
## 561 0.30248746 0.69751254
## 565 0.12796818 0.87203182
## 568 0.08602296 0.91397704
## 569 0.60838813 0.39161187
## 570 0.20414741 0.79585259
## 571 0.12281548 0.87718452
## 577 0.18584865 0.81415135
## 584 0.20456471 0.79543529
## 585 0.71592929 0.28407071
## 586 0.09309776 0.90690224
## 587 0.54219280 0.45780720
## 592 0.14147223 0.85852777
## 595 0.48495450 0.51504550
## 601 0.09234948 0.90765052
## 605 0.73532552 0.26467448
## 608 0.09998395 0.90001605
## 613 0.82684737 0.17315263
## 616 0.10525723 0.89474277
## 618 0.11429019 0.88570981
## 623 0.83384957 0.16615043
## 624 0.08881076 0.91118924
## 626 0.17029615 0.82970385
## 630 0.12515373 0.87484627
## 634 0.09530205 0.90469795
## 639 0.41044669 0.58955331
## 642 0.29239590 0.70760410
## 644 0.22676920 0.77323080
## 647 0.40387488 0.59612512
## 651 0.10564309 0.89435691
## 655 0.08173958 0.91826042
## 660 0.23314742 0.76685258
## 666 0.12010690 0.87989310
## 675 0.23832734 0.76167266
## 676 0.86024869 0.13975131
## 677 0.22253143 0.77746857
## 680 0.08964998 0.91035002
## 683 0.11223645 0.88776355
## 692 0.65847483 0.34152517
## 698 0.31573071 0.68426929
## 702 0.34712459 0.65287541
## 703 0.89159848 0.10840152
## 705 0.09007558 0.90992442
## 713 0.69270859 0.30729141
## 715 0.12708363 0.87291637
## 716 0.79005297 0.20994703
## 717 0.82188382 0.17811618
## 718 0.09675167 0.90324833
## 720 0.20372809 0.79627191
## 724 0.33183360 0.66816640
## 726 0.25926080 0.74073920
## 727 0.12525266 0.87474734
## 729 0.26705317 0.73294683
## 730 0.16487795 0.83512205
## 732 0.17457812 0.82542188
## 737 0.11401553 0.88598447
## 740 0.31672459 0.68327541
## 742 0.14131401 0.85868599
## 756 0.62349924 0.37650076
## 757 0.49059076 0.50940924
## 759 0.16295268 0.83704732
## 763 0.13224389 0.86775611
## 765 0.23466483 0.76533517
## 766 0.13021920 0.86978080
## Levels: 0 1
Confusion Matrix
confusionMatrix(as.factor(test$Outcome), as.factor(pre))
## Confusion Matrix and Statistics
##
## Reference
## Prediction 0 1
## 0 135 14
## 1 40 41
##
## Accuracy : 0.7652
## 95% CI : (0.705, 0.8184)
## No Information Rate : 0.7609
## P-Value [Acc > NIR] : 0.4745443
##
## Kappa : 0.4448
##
## Mcnemar's Test P-Value : 0.0006688
##
## Sensitivity : 0.7714
## Specificity : 0.7455
## Pos Pred Value : 0.9060
## Neg Pred Value : 0.5062
## Prevalence : 0.7609
## Detection Rate : 0.5870
## Detection Prevalence : 0.6478
## Balanced Accuracy : 0.7584
##
## 'Positive' Class : 0
##