Email          : albert.prayogo99@gmail.com
RPubs         : https://rpubs.com/albert23899
Jurusan      : Statistika
Address     : ARA Center, Matana University Tower
             Jl. CBD Barat Kav, RT.1, Curug Sangereng, Kelapa Dua, Tangerang, Banten 15810.
Data dibawah merupakan dataset yang diambil pada dataset R yang bernama colon. Dataset colon merupakan dataset pada R yang diambil datanya dari pasien yang mendapatkan treatment karena mengalami colorectal cancer
Tujuan dari studi kasus ini adalah mendeskripsikan konsep dari analisis survival, dalam studi mengenai kanker terdapat beberapa metode yang digunakan yaitu :
Kaplan-Meier untuk memvisualisasikan kurva survival
Log-rank test untuk membandingkan kurva survival 2 kelompok atau lebih
Cox Proportional Hazard Regression yang mendeskripsikan dampak dari variabel dalam fungsi survival.
Konsep dasar Analisis Survival
Membentuk dan menginterpretasikan kurva survival
Menghitung dan Menganalisis perbedaan antara 2 kelompok pasien atau lebih
Mendeskripsikan analisis multivariat menggunakan model Cox proportional hazards model.
Analisis Survival merupakan metode statistika yang berhubungan dengan variabel waktu dan kejadian yang saling berkaitan.
library(survival)
library(survminer)## Loading required package: ggplot2
## Loading required package: ggpubr
##
## Attaching package: 'survminer'
## The following object is masked from 'package:survival':
##
## myeloma
library(DT)
data("colon")## Warning in data("colon"): data set 'colon' not found
datatable(colon,
caption = htmltools::tags$caption(
style='caption-side: bottom; text-align: center:',
htmltools::em('Table 1 : The Colorectal Cancer Data.')),
extensions ='FixedColumns',
options = list(scrollX= TRUE, fixedColumns=TRUE))Pemrograman dibawah merupakan perhitungan peluang survival berdasarkan jenis kelamin. Kita dapat menggunakan fungsi survfit() untuk menghitung Kaplan-Meier survival estimate.
m1<-survfit(Surv(time,status)~ sex, data=colon)
print(m1)## Call: survfit(formula = Surv(time, status) ~ sex, data = colon)
##
## n events median 0.95LCL 0.95UCL
## sex=0 890 444 2174 1752 NA
## sex=1 968 476 2527 1976 2910
Informasi diatas berisi tentang Kaplan-Meier survival analysis yang digolongkan berdasarkan jenis kelamin. Angka 0 merupakan label untuk jenis kelamin perempuan dan 1 merupakan label untuk jenis kelamin laki-laki. Dari ringkasan diatas dapat diketahui bahwa jumlah observasi terdiri atas 890 pasien berjenis kelamin perempuan dan 968 pasien berjenis kelamin laki-laki. Untuk jumlah kematian, pasien dengan jenis kelamin perempuan sejumlah 444 orang dan pasien dengan jenis kelamin laki-laki sejumlah 476 orang. Median untuk waktu bertahan hidup pasien dengan jenis kelamin perempuan selama 2174 hari dan median waktu bertahan hidup pasien dengan jenis kelamin laki-laki 2527 hari.
summary(m1)## Call: survfit(formula = Surv(time, status) ~ sex, data = colon)
##
## sex=0
## time n.risk n.event survival std.err lower 95% CI upper 95% CI
## 8 890 1 0.999 0.00112 0.997 1.000
## 23 889 1 0.998 0.00159 0.995 1.000
## 36 887 1 0.997 0.00194 0.993 1.000
## 38 886 1 0.996 0.00224 0.991 1.000
## 40 885 1 0.994 0.00251 0.989 0.999
## 49 884 1 0.993 0.00275 0.988 0.999
## 52 883 1 0.992 0.00296 0.986 0.998
## 56 882 1 0.991 0.00317 0.985 0.997
## 68 880 1 0.990 0.00336 0.983 0.996
## 72 879 2 0.988 0.00371 0.980 0.995
## 77 877 1 0.986 0.00387 0.979 0.994
## 79 876 2 0.984 0.00418 0.976 0.992
## 80 874 2 0.982 0.00446 0.973 0.991
## 85 872 2 0.980 0.00473 0.971 0.989
## 86 870 1 0.979 0.00485 0.969 0.988
## 91 869 1 0.977 0.00498 0.968 0.987
## 93 868 1 0.976 0.00510 0.966 0.986
## 98 867 2 0.974 0.00533 0.964 0.985
## 99 865 2 0.972 0.00555 0.961 0.983
## 101 863 2 0.970 0.00576 0.958 0.981
## 103 861 1 0.968 0.00586 0.957 0.980
## 106 860 1 0.967 0.00596 0.956 0.979
## 113 859 2 0.965 0.00616 0.953 0.977
## 116 857 2 0.963 0.00635 0.950 0.975
## 118 855 1 0.962 0.00644 0.949 0.974
## 121 854 1 0.961 0.00653 0.948 0.973
## 122 853 2 0.958 0.00670 0.945 0.972
## 127 851 1 0.957 0.00679 0.944 0.971
## 131 850 1 0.956 0.00687 0.943 0.970
## 132 849 1 0.955 0.00696 0.941 0.969
## 139 848 1 0.954 0.00704 0.940 0.968
## 141 847 1 0.953 0.00712 0.939 0.967
## 143 846 1 0.952 0.00720 0.938 0.966
## 145 845 1 0.950 0.00728 0.936 0.965
## 146 844 2 0.948 0.00744 0.934 0.963
## 154 842 1 0.947 0.00751 0.932 0.962
## 157 841 2 0.945 0.00766 0.930 0.960
## 160 839 1 0.944 0.00773 0.929 0.959
## 161 838 1 0.943 0.00781 0.927 0.958
## 165 837 2 0.940 0.00795 0.925 0.956
## 166 835 1 0.939 0.00802 0.924 0.955
## 167 834 1 0.938 0.00809 0.922 0.954
## 169 833 1 0.937 0.00816 0.921 0.953
## 173 832 2 0.935 0.00829 0.919 0.951
## 174 830 1 0.934 0.00836 0.917 0.950
## 175 829 1 0.932 0.00842 0.916 0.949
## 176 828 1 0.931 0.00849 0.915 0.948
## 181 827 1 0.930 0.00855 0.914 0.947
## 183 826 1 0.929 0.00861 0.912 0.946
## 185 825 4 0.925 0.00886 0.907 0.942
## 186 821 2 0.922 0.00898 0.905 0.940
## 187 819 1 0.921 0.00904 0.904 0.939
## 188 818 1 0.920 0.00910 0.902 0.938
## 189 817 2 0.918 0.00922 0.900 0.936
## 198 815 1 0.917 0.00927 0.899 0.935
## 199 814 1 0.916 0.00933 0.897 0.934
## 201 813 1 0.914 0.00939 0.896 0.933
## 204 812 1 0.913 0.00944 0.895 0.932
## 205 811 1 0.912 0.00950 0.894 0.931
## 208 810 3 0.909 0.00966 0.890 0.928
## 215 807 1 0.908 0.00971 0.889 0.927
## 218 806 2 0.905 0.00982 0.886 0.925
## 221 804 1 0.904 0.00987 0.885 0.924
## 224 803 1 0.903 0.00992 0.884 0.923
## 226 802 1 0.902 0.00997 0.883 0.922
## 227 801 1 0.901 0.01003 0.881 0.921
## 229 800 1 0.900 0.01008 0.880 0.920
## 230 799 2 0.898 0.01018 0.878 0.918
## 232 797 1 0.896 0.01023 0.877 0.917
## 235 796 1 0.895 0.01027 0.875 0.916
## 237 795 1 0.894 0.01032 0.874 0.915
## 241 794 1 0.893 0.01037 0.873 0.914
## 242 793 1 0.892 0.01042 0.872 0.913
## 243 792 1 0.891 0.01047 0.870 0.912
## 245 791 1 0.890 0.01051 0.869 0.910
## 253 790 1 0.889 0.01056 0.868 0.909
## 255 789 1 0.887 0.01061 0.867 0.908
## 256 788 1 0.886 0.01065 0.866 0.907
## 257 787 1 0.885 0.01070 0.864 0.906
## 259 786 1 0.884 0.01074 0.863 0.905
## 260 785 2 0.882 0.01083 0.861 0.903
## 261 783 1 0.881 0.01088 0.860 0.902
## 264 782 2 0.878 0.01097 0.857 0.900
## 269 780 1 0.877 0.01101 0.856 0.899
## 271 779 1 0.876 0.01105 0.855 0.898
## 274 778 1 0.875 0.01110 0.854 0.897
## 275 777 1 0.874 0.01114 0.852 0.896
## 276 776 1 0.873 0.01118 0.851 0.895
## 279 775 1 0.872 0.01122 0.850 0.894
## 283 774 2 0.869 0.01131 0.847 0.892
## 286 772 2 0.867 0.01139 0.845 0.890
## 289 770 1 0.866 0.01143 0.844 0.889
## 290 769 2 0.864 0.01151 0.841 0.887
## 293 767 1 0.863 0.01155 0.840 0.886
## 294 766 2 0.860 0.01163 0.838 0.883
## 296 764 2 0.858 0.01171 0.835 0.881
## 302 762 1 0.857 0.01175 0.834 0.880
## 304 761 1 0.856 0.01179 0.833 0.879
## 313 760 2 0.854 0.01186 0.831 0.877
## 314 758 1 0.852 0.01190 0.829 0.876
## 315 757 2 0.850 0.01197 0.827 0.874
## 322 755 2 0.848 0.01205 0.825 0.872
## 325 753 1 0.847 0.01208 0.824 0.871
## 326 752 1 0.846 0.01212 0.822 0.870
## 328 750 1 0.845 0.01216 0.821 0.869
## 329 749 1 0.843 0.01219 0.820 0.868
## 333 748 1 0.842 0.01223 0.819 0.867
## 335 747 1 0.841 0.01226 0.818 0.866
## 336 746 1 0.840 0.01230 0.816 0.865
## 337 745 2 0.838 0.01237 0.814 0.862
## 340 743 1 0.837 0.01240 0.813 0.861
## 342 741 1 0.836 0.01244 0.812 0.860
## 348 740 1 0.834 0.01247 0.810 0.859
## 352 739 1 0.833 0.01251 0.809 0.858
## 355 738 1 0.832 0.01254 0.808 0.857
## 356 737 1 0.831 0.01257 0.807 0.856
## 360 736 1 0.830 0.01261 0.806 0.855
## 362 735 1 0.829 0.01264 0.804 0.854
## 363 734 1 0.828 0.01267 0.803 0.853
## 365 733 2 0.825 0.01274 0.801 0.851
## 366 731 1 0.824 0.01277 0.800 0.850
## 370 730 1 0.823 0.01281 0.798 0.849
## 372 729 2 0.821 0.01287 0.796 0.847
## 374 727 1 0.820 0.01290 0.795 0.845
## 380 726 1 0.819 0.01293 0.794 0.844
## 382 725 2 0.816 0.01300 0.791 0.842
## 384 723 2 0.814 0.01306 0.789 0.840
## 389 721 1 0.813 0.01309 0.788 0.839
## 392 720 1 0.812 0.01312 0.787 0.838
## 393 719 1 0.811 0.01315 0.785 0.837
## 398 718 1 0.810 0.01318 0.784 0.836
## 400 717 1 0.808 0.01321 0.783 0.835
## 402 716 2 0.806 0.01327 0.781 0.833
## 405 714 1 0.805 0.01330 0.779 0.832
## 408 713 1 0.804 0.01333 0.778 0.831
## 411 712 1 0.803 0.01336 0.777 0.829
## 413 711 1 0.802 0.01338 0.776 0.828
## 415 710 2 0.799 0.01344 0.774 0.826
## 428 708 1 0.798 0.01347 0.772 0.825
## 431 707 1 0.797 0.01350 0.771 0.824
## 433 706 1 0.796 0.01353 0.770 0.823
## 434 705 1 0.795 0.01355 0.769 0.822
## 437 704 1 0.794 0.01358 0.768 0.821
## 438 703 2 0.792 0.01364 0.765 0.819
## 439 701 2 0.789 0.01369 0.763 0.817
## 440 699 1 0.788 0.01372 0.762 0.816
## 443 698 1 0.787 0.01374 0.761 0.814
## 444 697 1 0.786 0.01377 0.759 0.813
## 448 696 1 0.785 0.01380 0.758 0.812
## 458 695 1 0.784 0.01382 0.757 0.811
## 459 694 1 0.783 0.01385 0.756 0.810
## 460 693 1 0.781 0.01388 0.755 0.809
## 461 692 1 0.780 0.01390 0.753 0.808
## 464 691 1 0.779 0.01393 0.752 0.807
## 465 690 1 0.778 0.01395 0.751 0.806
## 466 689 1 0.777 0.01398 0.750 0.805
## 474 688 1 0.776 0.01400 0.749 0.804
## 480 687 1 0.775 0.01403 0.748 0.803
## 482 686 1 0.773 0.01405 0.746 0.802
## 484 685 1 0.772 0.01408 0.745 0.800
## 485 684 1 0.771 0.01410 0.744 0.799
## 490 683 2 0.769 0.01415 0.742 0.797
## 491 681 1 0.768 0.01418 0.741 0.796
## 496 680 1 0.767 0.01420 0.739 0.795
## 498 679 1 0.766 0.01422 0.738 0.794
## 499 678 2 0.763 0.01427 0.736 0.792
## 503 676 1 0.762 0.01429 0.735 0.791
## 504 675 1 0.761 0.01432 0.734 0.790
## 505 674 1 0.760 0.01434 0.732 0.789
## 506 673 1 0.759 0.01436 0.731 0.787
## 511 672 1 0.758 0.01439 0.730 0.786
## 526 671 1 0.757 0.01441 0.729 0.785
## 528 670 1 0.755 0.01443 0.728 0.784
## 529 669 1 0.754 0.01446 0.726 0.783
## 532 668 1 0.753 0.01448 0.725 0.782
## 536 667 1 0.752 0.01450 0.724 0.781
## 540 666 1 0.751 0.01452 0.723 0.780
## 542 665 1 0.750 0.01454 0.722 0.779
## 547 664 1 0.749 0.01457 0.721 0.778
## 550 663 1 0.748 0.01459 0.719 0.777
## 554 662 2 0.745 0.01463 0.717 0.774
## 555 660 1 0.744 0.01465 0.716 0.773
## 559 659 1 0.743 0.01467 0.715 0.772
## 560 658 1 0.742 0.01469 0.714 0.771
## 561 657 1 0.741 0.01472 0.712 0.770
## 563 656 1 0.740 0.01474 0.711 0.769
## 573 655 2 0.737 0.01478 0.709 0.767
## 576 653 2 0.735 0.01482 0.707 0.765
## 578 651 2 0.733 0.01486 0.704 0.763
## 580 649 1 0.732 0.01488 0.703 0.761
## 581 648 1 0.731 0.01490 0.702 0.760
## 591 647 1 0.729 0.01492 0.701 0.759
## 592 646 1 0.728 0.01494 0.700 0.758
## 593 645 3 0.725 0.01500 0.696 0.755
## 594 642 1 0.724 0.01501 0.695 0.754
## 595 641 1 0.723 0.01503 0.694 0.753
## 599 640 1 0.722 0.01505 0.693 0.752
## 601 638 1 0.720 0.01507 0.691 0.751
## 602 637 1 0.719 0.01509 0.690 0.749
## 603 636 1 0.718 0.01511 0.689 0.748
## 604 635 1 0.717 0.01513 0.688 0.747
## 608 634 2 0.715 0.01516 0.686 0.745
## 609 632 1 0.714 0.01518 0.684 0.744
## 614 631 1 0.712 0.01520 0.683 0.743
## 615 630 1 0.711 0.01522 0.682 0.742
## 616 629 1 0.710 0.01524 0.681 0.741
## 632 628 1 0.709 0.01525 0.680 0.740
## 642 627 1 0.708 0.01527 0.679 0.739
## 643 626 1 0.707 0.01529 0.677 0.737
## 649 625 1 0.706 0.01531 0.676 0.736
## 654 624 1 0.705 0.01532 0.675 0.735
## 657 623 1 0.703 0.01534 0.674 0.734
## 659 622 1 0.702 0.01536 0.673 0.733
## 663 621 2 0.700 0.01539 0.671 0.731
## 666 619 1 0.699 0.01541 0.669 0.730
## 670 618 1 0.698 0.01542 0.668 0.729
## 673 617 1 0.697 0.01544 0.667 0.728
## 675 616 1 0.696 0.01546 0.666 0.726
## 678 615 1 0.694 0.01547 0.665 0.725
## 680 614 1 0.693 0.01549 0.664 0.724
## 684 613 1 0.692 0.01550 0.662 0.723
## 687 612 1 0.691 0.01552 0.661 0.722
## 692 611 3 0.688 0.01557 0.658 0.719
## 693 608 1 0.686 0.01558 0.657 0.718
## 697 607 1 0.685 0.01560 0.655 0.717
## 700 606 2 0.683 0.01563 0.653 0.714
## 702 604 1 0.682 0.01564 0.652 0.713
## 706 603 1 0.681 0.01566 0.651 0.712
## 709 602 1 0.680 0.01567 0.650 0.711
## 711 601 1 0.679 0.01569 0.648 0.710
## 716 600 1 0.677 0.01570 0.647 0.709
## 718 599 1 0.676 0.01572 0.646 0.708
## 720 598 1 0.675 0.01573 0.645 0.707
## 726 597 1 0.674 0.01574 0.644 0.706
## 730 596 1 0.673 0.01576 0.643 0.705
## 735 595 1 0.672 0.01577 0.642 0.703
## 743 594 1 0.671 0.01579 0.640 0.702
## 751 593 1 0.670 0.01580 0.639 0.701
## 753 592 1 0.668 0.01581 0.638 0.700
## 758 591 1 0.667 0.01583 0.637 0.699
## 759 590 1 0.666 0.01584 0.636 0.698
## 765 589 1 0.665 0.01586 0.635 0.697
## 766 588 1 0.664 0.01587 0.633 0.696
## 770 587 1 0.663 0.01588 0.632 0.695
## 774 586 1 0.662 0.01589 0.631 0.693
## 802 585 2 0.659 0.01592 0.629 0.691
## 805 583 1 0.658 0.01593 0.628 0.690
## 806 582 2 0.656 0.01596 0.625 0.688
## 811 580 1 0.655 0.01597 0.624 0.687
## 832 579 1 0.654 0.01598 0.623 0.686
## 833 578 1 0.653 0.01600 0.622 0.685
## 840 577 1 0.651 0.01601 0.621 0.684
## 853 576 1 0.650 0.01602 0.620 0.682
## 858 575 1 0.649 0.01603 0.618 0.681
## 862 574 1 0.648 0.01604 0.617 0.680
## 871 573 1 0.647 0.01606 0.616 0.679
## 874 572 1 0.646 0.01607 0.615 0.678
## 884 571 1 0.645 0.01608 0.614 0.677
## 887 569 3 0.641 0.01611 0.610 0.674
## 891 565 1 0.640 0.01613 0.609 0.672
## 902 564 1 0.639 0.01614 0.608 0.671
## 904 563 1 0.638 0.01615 0.607 0.670
## 909 562 1 0.637 0.01616 0.606 0.669
## 911 561 1 0.636 0.01617 0.605 0.668
## 916 560 1 0.634 0.01618 0.603 0.667
## 936 559 1 0.633 0.01619 0.602 0.666
## 940 558 1 0.632 0.01620 0.601 0.665
## 944 557 1 0.631 0.01621 0.600 0.664
## 952 556 1 0.630 0.01622 0.599 0.662
## 959 555 1 0.629 0.01623 0.598 0.661
## 960 554 1 0.628 0.01624 0.597 0.660
## 961 553 2 0.625 0.01626 0.594 0.658
## 963 551 1 0.624 0.01627 0.593 0.657
## 968 550 1 0.623 0.01628 0.592 0.656
## 997 549 1 0.622 0.01629 0.591 0.655
## 1020 548 1 0.621 0.01630 0.590 0.654
## 1021 547 1 0.620 0.01631 0.589 0.652
## 1022 546 1 0.619 0.01632 0.587 0.651
## 1024 545 1 0.617 0.01633 0.586 0.650
## 1032 544 1 0.616 0.01634 0.585 0.649
## 1034 543 1 0.615 0.01635 0.584 0.648
## 1037 542 2 0.613 0.01637 0.582 0.646
## 1055 540 1 0.612 0.01638 0.580 0.645
## 1057 539 1 0.611 0.01639 0.579 0.644
## 1079 538 1 0.609 0.01640 0.578 0.642
## 1092 537 1 0.608 0.01641 0.577 0.641
## 1117 536 1 0.607 0.01641 0.576 0.640
## 1122 535 1 0.606 0.01642 0.575 0.639
## 1133 534 1 0.605 0.01643 0.574 0.638
## 1136 533 1 0.604 0.01644 0.572 0.637
## 1139 532 2 0.602 0.01646 0.570 0.635
## 1142 530 1 0.600 0.01646 0.569 0.634
## 1145 529 1 0.599 0.01647 0.568 0.632
## 1159 528 1 0.598 0.01648 0.567 0.631
## 1161 527 1 0.597 0.01649 0.566 0.630
## 1178 526 1 0.596 0.01649 0.564 0.629
## 1183 525 1 0.595 0.01650 0.563 0.628
## 1191 524 1 0.594 0.01651 0.562 0.627
## 1201 523 1 0.592 0.01652 0.561 0.626
## 1207 522 1 0.591 0.01652 0.560 0.625
## 1209 521 1 0.590 0.01653 0.559 0.623
## 1211 520 1 0.589 0.01654 0.557 0.622
## 1219 519 1 0.588 0.01655 0.556 0.621
## 1230 518 1 0.587 0.01655 0.555 0.620
## 1233 517 1 0.586 0.01656 0.554 0.619
## 1236 516 1 0.584 0.01657 0.553 0.618
## 1237 515 1 0.583 0.01657 0.552 0.617
## 1246 514 1 0.582 0.01658 0.551 0.616
## 1262 513 1 0.581 0.01659 0.549 0.615
## 1272 512 1 0.580 0.01659 0.548 0.613
## 1273 511 1 0.579 0.01660 0.547 0.612
## 1274 510 1 0.578 0.01660 0.546 0.611
## 1275 509 1 0.577 0.01661 0.545 0.610
## 1276 508 1 0.575 0.01662 0.544 0.609
## 1290 507 1 0.574 0.01662 0.543 0.608
## 1295 506 2 0.572 0.01663 0.540 0.606
## 1306 504 1 0.571 0.01664 0.539 0.604
## 1325 503 1 0.570 0.01665 0.538 0.603
## 1327 502 1 0.569 0.01665 0.537 0.602
## 1329 501 1 0.567 0.01666 0.536 0.601
## 1363 500 1 0.566 0.01666 0.535 0.600
## 1375 498 1 0.565 0.01667 0.533 0.599
## 1387 497 1 0.564 0.01667 0.532 0.598
## 1434 494 1 0.563 0.01668 0.531 0.597
## 1439 493 1 0.562 0.01668 0.530 0.595
## 1446 492 2 0.559 0.01669 0.528 0.593
## 1466 490 1 0.558 0.01670 0.527 0.592
## 1471 489 1 0.557 0.01670 0.525 0.591
## 1488 488 1 0.556 0.01671 0.524 0.590
## 1509 487 1 0.555 0.01671 0.523 0.589
## 1511 486 1 0.554 0.01672 0.522 0.588
## 1535 485 1 0.553 0.01672 0.521 0.586
## 1550 484 1 0.551 0.01673 0.520 0.585
## 1551 482 1 0.550 0.01673 0.519 0.584
## 1564 481 1 0.549 0.01673 0.517 0.583
## 1568 480 1 0.548 0.01674 0.516 0.582
## 1589 479 1 0.547 0.01674 0.515 0.581
## 1606 478 1 0.546 0.01675 0.514 0.580
## 1607 477 1 0.545 0.01675 0.513 0.578
## 1620 475 1 0.543 0.01675 0.512 0.577
## 1637 474 1 0.542 0.01676 0.510 0.576
## 1644 473 1 0.541 0.01676 0.509 0.575
## 1647 472 1 0.540 0.01677 0.508 0.574
## 1652 471 1 0.539 0.01677 0.507 0.573
## 1668 470 2 0.537 0.01678 0.505 0.571
## 1671 468 1 0.535 0.01678 0.504 0.569
## 1679 467 1 0.534 0.01678 0.502 0.568
## 1687 466 1 0.533 0.01679 0.501 0.567
## 1745 465 1 0.532 0.01679 0.500 0.566
## 1752 464 1 0.531 0.01679 0.499 0.565
## 1767 463 1 0.530 0.01679 0.498 0.564
## 1768 462 1 0.529 0.01680 0.497 0.563
## 1786 461 1 0.527 0.01680 0.496 0.561
## 1831 444 1 0.526 0.01680 0.494 0.560
## 1850 440 1 0.525 0.01681 0.493 0.559
## 1851 439 1 0.524 0.01681 0.492 0.558
## 1885 436 1 0.523 0.01682 0.491 0.557
## 1896 433 1 0.521 0.01682 0.489 0.555
## 1915 424 1 0.520 0.01683 0.488 0.554
## 1918 423 1 0.519 0.01683 0.487 0.553
## 1981 413 1 0.518 0.01684 0.486 0.552
## 1995 404 1 0.516 0.01684 0.484 0.551
## 2021 393 1 0.515 0.01685 0.483 0.549
## 2028 392 1 0.514 0.01686 0.482 0.548
## 2035 391 1 0.513 0.01687 0.480 0.547
## 2036 390 1 0.511 0.01688 0.479 0.545
## 2077 375 1 0.510 0.01689 0.478 0.544
## 2079 374 1 0.508 0.01690 0.476 0.543
## 2083 372 1 0.507 0.01691 0.475 0.541
## 2127 350 1 0.506 0.01692 0.474 0.540
## 2133 347 1 0.504 0.01693 0.472 0.538
## 2152 335 1 0.503 0.01695 0.471 0.537
## 2171 317 1 0.501 0.01697 0.469 0.535
## 2174 315 1 0.500 0.01699 0.467 0.534
## 2197 292 1 0.498 0.01702 0.466 0.532
## 2213 284 1 0.496 0.01705 0.464 0.531
## 2257 263 1 0.494 0.01709 0.462 0.529
## 2287 250 1 0.492 0.01713 0.460 0.527
## 2552 142 1 0.489 0.01736 0.456 0.524
##
## sex=1
## time n.risk n.event survival std.err lower 95% CI upper 95% CI
## 9 968 1 0.999 0.00103 0.997 1.000
## 19 967 1 0.998 0.00146 0.995 1.000
## 20 966 1 0.997 0.00179 0.993 1.000
## 24 965 1 0.996 0.00206 0.992 1.000
## 28 963 1 0.995 0.00230 0.990 0.999
## 34 962 1 0.994 0.00252 0.989 0.999
## 35 961 1 0.993 0.00272 0.987 0.998
## 43 960 1 0.992 0.00291 0.986 0.997
## 45 959 2 0.990 0.00325 0.983 0.996
## 59 956 1 0.989 0.00341 0.982 0.995
## 62 955 2 0.987 0.00370 0.979 0.994
## 63 953 1 0.986 0.00384 0.978 0.993
## 77 952 1 0.984 0.00397 0.977 0.992
## 78 951 1 0.983 0.00410 0.975 0.992
## 80 950 1 0.982 0.00423 0.974 0.991
## 86 949 1 0.981 0.00435 0.973 0.990
## 88 948 1 0.980 0.00446 0.972 0.989
## 91 947 1 0.979 0.00458 0.970 0.988
## 94 946 1 0.978 0.00469 0.969 0.988
## 98 945 1 0.977 0.00480 0.968 0.987
## 100 944 1 0.976 0.00490 0.967 0.986
## 102 943 1 0.975 0.00501 0.965 0.985
## 105 942 1 0.974 0.00511 0.964 0.984
## 108 941 1 0.973 0.00520 0.963 0.983
## 109 940 1 0.972 0.00530 0.962 0.983
## 111 939 1 0.971 0.00540 0.961 0.982
## 113 938 2 0.969 0.00558 0.958 0.980
## 116 936 1 0.968 0.00567 0.957 0.979
## 119 935 1 0.967 0.00576 0.956 0.978
## 121 934 1 0.966 0.00584 0.954 0.977
## 125 933 1 0.965 0.00593 0.953 0.977
## 127 932 1 0.964 0.00601 0.952 0.976
## 129 931 1 0.963 0.00609 0.951 0.975
## 133 930 1 0.962 0.00617 0.950 0.974
## 134 929 1 0.961 0.00625 0.949 0.973
## 136 928 1 0.960 0.00633 0.947 0.972
## 138 927 1 0.959 0.00641 0.946 0.971
## 141 926 1 0.958 0.00648 0.945 0.970
## 144 925 1 0.957 0.00656 0.944 0.969
## 145 924 1 0.956 0.00663 0.943 0.969
## 147 923 1 0.954 0.00671 0.941 0.968
## 150 922 1 0.953 0.00678 0.940 0.967
## 154 921 1 0.952 0.00685 0.939 0.966
## 157 920 1 0.951 0.00692 0.938 0.965
## 161 919 1 0.950 0.00699 0.937 0.964
## 164 918 1 0.949 0.00706 0.936 0.963
## 165 917 2 0.947 0.00719 0.933 0.961
## 166 915 1 0.946 0.00726 0.932 0.961
## 168 914 1 0.945 0.00732 0.931 0.960
## 171 913 2 0.943 0.00745 0.929 0.958
## 173 911 1 0.942 0.00752 0.927 0.957
## 174 910 2 0.940 0.00764 0.925 0.955
## 176 908 1 0.939 0.00770 0.924 0.954
## 179 907 1 0.938 0.00776 0.923 0.953
## 183 906 1 0.937 0.00782 0.922 0.952
## 185 905 1 0.936 0.00788 0.921 0.951
## 191 904 3 0.933 0.00806 0.917 0.949
## 196 901 1 0.932 0.00812 0.916 0.948
## 201 900 1 0.931 0.00817 0.915 0.947
## 203 899 1 0.930 0.00823 0.914 0.946
## 206 898 1 0.929 0.00828 0.912 0.945
## 215 897 2 0.927 0.00839 0.910 0.943
## 216 895 1 0.925 0.00845 0.909 0.942
## 218 894 2 0.923 0.00856 0.907 0.940
## 219 892 3 0.920 0.00871 0.903 0.938
## 222 888 1 0.919 0.00876 0.902 0.937
## 223 887 1 0.918 0.00882 0.901 0.936
## 228 886 1 0.917 0.00887 0.900 0.935
## 229 885 1 0.916 0.00892 0.899 0.934
## 230 884 3 0.913 0.00907 0.895 0.931
## 237 881 1 0.912 0.00911 0.894 0.930
## 238 880 3 0.909 0.00926 0.891 0.927
## 242 877 1 0.908 0.00931 0.890 0.926
## 245 876 1 0.907 0.00935 0.889 0.925
## 246 875 1 0.906 0.00940 0.888 0.924
## 248 874 1 0.905 0.00945 0.886 0.923
## 250 873 1 0.904 0.00949 0.885 0.923
## 251 872 1 0.903 0.00954 0.884 0.922
## 252 871 1 0.902 0.00958 0.883 0.921
## 253 870 1 0.901 0.00963 0.882 0.920
## 256 869 1 0.900 0.00967 0.881 0.919
## 257 868 1 0.899 0.00972 0.880 0.918
## 258 867 1 0.898 0.00976 0.879 0.917
## 259 866 1 0.896 0.00980 0.877 0.916
## 262 865 1 0.895 0.00985 0.876 0.915
## 263 864 2 0.893 0.00993 0.874 0.913
## 271 862 2 0.891 0.01002 0.872 0.911
## 273 860 1 0.890 0.01006 0.871 0.910
## 274 859 1 0.889 0.01010 0.870 0.909
## 276 858 2 0.887 0.01018 0.867 0.907
## 279 856 3 0.884 0.01030 0.864 0.904
## 280 853 1 0.883 0.01034 0.863 0.904
## 285 852 1 0.882 0.01038 0.862 0.903
## 286 851 1 0.881 0.01042 0.861 0.902
## 291 850 1 0.880 0.01046 0.860 0.901
## 300 849 1 0.879 0.01050 0.859 0.900
## 303 848 1 0.878 0.01054 0.857 0.899
## 304 847 1 0.877 0.01058 0.856 0.898
## 308 846 1 0.876 0.01062 0.855 0.897
## 311 845 1 0.875 0.01065 0.854 0.896
## 314 844 1 0.874 0.01069 0.853 0.895
## 316 843 1 0.873 0.01073 0.852 0.894
## 322 842 1 0.872 0.01077 0.851 0.893
## 323 841 1 0.871 0.01080 0.850 0.892
## 324 840 1 0.870 0.01084 0.849 0.891
## 330 839 2 0.867 0.01091 0.846 0.889
## 331 837 1 0.866 0.01095 0.845 0.888
## 334 836 1 0.865 0.01098 0.844 0.887
## 336 835 1 0.864 0.01102 0.843 0.886
## 337 834 1 0.863 0.01106 0.842 0.885
## 341 833 1 0.862 0.01109 0.841 0.884
## 343 832 1 0.861 0.01113 0.840 0.883
## 344 831 1 0.860 0.01116 0.839 0.882
## 348 830 1 0.859 0.01119 0.837 0.881
## 349 829 2 0.857 0.01126 0.835 0.879
## 352 827 1 0.856 0.01130 0.834 0.878
## 354 826 1 0.855 0.01133 0.833 0.878
## 355 825 1 0.854 0.01136 0.832 0.877
## 356 823 2 0.852 0.01143 0.830 0.875
## 360 821 1 0.851 0.01146 0.829 0.874
## 362 820 1 0.850 0.01150 0.828 0.873
## 366 819 1 0.849 0.01153 0.826 0.872
## 369 818 1 0.848 0.01156 0.825 0.871
## 376 817 1 0.847 0.01159 0.824 0.870
## 378 816 1 0.846 0.01163 0.823 0.869
## 379 815 1 0.845 0.01166 0.822 0.868
## 380 814 1 0.844 0.01169 0.821 0.867
## 381 813 1 0.843 0.01172 0.820 0.866
## 384 812 1 0.842 0.01175 0.819 0.865
## 386 811 2 0.839 0.01182 0.817 0.863
## 389 809 1 0.838 0.01185 0.816 0.862
## 390 808 1 0.837 0.01188 0.814 0.861
## 401 807 1 0.836 0.01191 0.813 0.860
## 406 806 2 0.834 0.01197 0.811 0.858
## 409 804 1 0.833 0.01200 0.810 0.857
## 411 803 1 0.832 0.01203 0.809 0.856
## 413 802 2 0.830 0.01209 0.807 0.854
## 417 800 1 0.829 0.01212 0.806 0.853
## 420 799 1 0.828 0.01215 0.805 0.852
## 421 798 1 0.827 0.01218 0.803 0.851
## 422 796 2 0.825 0.01223 0.801 0.849
## 429 794 1 0.824 0.01226 0.800 0.848
## 430 793 2 0.822 0.01232 0.798 0.846
## 433 791 1 0.821 0.01235 0.797 0.845
## 435 790 1 0.820 0.01237 0.796 0.844
## 437 789 1 0.819 0.01240 0.795 0.843
## 438 788 1 0.818 0.01243 0.794 0.842
## 441 787 1 0.817 0.01246 0.793 0.841
## 443 786 1 0.816 0.01248 0.791 0.840
## 448 785 1 0.815 0.01251 0.790 0.839
## 449 784 1 0.813 0.01254 0.789 0.838
## 454 781 3 0.810 0.01262 0.786 0.835
## 458 778 1 0.809 0.01265 0.785 0.834
## 462 777 1 0.808 0.01267 0.784 0.834
## 465 776 2 0.806 0.01273 0.782 0.832
## 466 774 1 0.805 0.01275 0.781 0.831
## 469 773 1 0.804 0.01278 0.779 0.830
## 472 772 1 0.803 0.01280 0.778 0.829
## 474 771 1 0.802 0.01283 0.777 0.828
## 475 770 1 0.801 0.01286 0.776 0.827
## 476 769 1 0.800 0.01288 0.775 0.826
## 485 768 1 0.799 0.01291 0.774 0.825
## 486 766 1 0.798 0.01293 0.773 0.824
## 489 764 1 0.797 0.01296 0.772 0.823
## 491 763 1 0.796 0.01298 0.771 0.822
## 493 762 1 0.795 0.01301 0.770 0.821
## 495 761 1 0.794 0.01303 0.769 0.820
## 497 760 1 0.793 0.01306 0.767 0.819
## 498 759 1 0.792 0.01308 0.766 0.818
## 499 758 2 0.790 0.01313 0.764 0.816
## 510 756 2 0.787 0.01318 0.762 0.814
## 512 754 1 0.786 0.01320 0.761 0.813
## 513 753 1 0.785 0.01322 0.760 0.812
## 522 752 1 0.784 0.01325 0.759 0.811
## 523 751 1 0.783 0.01327 0.758 0.810
## 525 750 1 0.782 0.01329 0.757 0.809
## 527 749 1 0.781 0.01332 0.755 0.808
## 532 748 1 0.780 0.01334 0.754 0.807
## 534 747 1 0.779 0.01336 0.753 0.806
## 537 746 1 0.778 0.01339 0.752 0.805
## 543 745 2 0.776 0.01343 0.750 0.803
## 546 743 1 0.775 0.01345 0.749 0.802
## 548 742 1 0.774 0.01348 0.748 0.801
## 553 741 1 0.773 0.01350 0.747 0.800
## 563 740 1 0.772 0.01352 0.746 0.799
## 565 739 1 0.771 0.01354 0.745 0.798
## 569 738 1 0.770 0.01357 0.744 0.797
## 570 737 1 0.769 0.01359 0.742 0.796
## 573 736 1 0.768 0.01361 0.741 0.795
## 577 735 1 0.767 0.01363 0.740 0.794
## 578 734 1 0.765 0.01365 0.739 0.793
## 580 733 1 0.764 0.01367 0.738 0.792
## 582 732 1 0.763 0.01369 0.737 0.791
## 583 731 2 0.761 0.01374 0.735 0.789
## 587 729 1 0.760 0.01376 0.734 0.788
## 589 728 1 0.759 0.01378 0.733 0.787
## 591 727 1 0.758 0.01380 0.732 0.786
## 594 726 1 0.757 0.01382 0.731 0.785
## 599 725 1 0.756 0.01384 0.729 0.784
## 602 724 2 0.754 0.01388 0.727 0.782
## 612 722 1 0.753 0.01390 0.726 0.781
## 613 721 1 0.752 0.01392 0.725 0.780
## 616 720 1 0.751 0.01394 0.724 0.779
## 617 719 1 0.750 0.01396 0.723 0.778
## 622 718 2 0.748 0.01400 0.721 0.776
## 625 716 1 0.747 0.01402 0.720 0.775
## 628 715 1 0.746 0.01404 0.719 0.774
## 629 713 1 0.745 0.01406 0.718 0.773
## 636 712 1 0.744 0.01407 0.716 0.772
## 638 711 1 0.743 0.01409 0.715 0.771
## 641 710 1 0.741 0.01411 0.714 0.770
## 642 709 1 0.740 0.01413 0.713 0.769
## 643 708 1 0.739 0.01415 0.712 0.768
## 647 707 1 0.738 0.01417 0.711 0.767
## 653 706 1 0.737 0.01419 0.710 0.766
## 659 705 1 0.736 0.01421 0.709 0.765
## 663 704 1 0.735 0.01422 0.708 0.764
## 664 703 1 0.734 0.01424 0.707 0.763
## 665 702 1 0.733 0.01426 0.706 0.762
## 668 700 1 0.732 0.01428 0.705 0.761
## 669 699 1 0.731 0.01430 0.704 0.760
## 672 698 1 0.730 0.01431 0.702 0.759
## 674 697 1 0.729 0.01433 0.701 0.758
## 675 696 1 0.728 0.01435 0.700 0.757
## 683 695 1 0.727 0.01437 0.699 0.756
## 685 694 1 0.726 0.01438 0.698 0.755
## 686 693 1 0.725 0.01440 0.697 0.754
## 696 692 1 0.724 0.01442 0.696 0.752
## 701 691 1 0.723 0.01444 0.695 0.751
## 702 690 1 0.722 0.01445 0.694 0.750
## 708 689 1 0.721 0.01447 0.693 0.749
## 709 688 1 0.719 0.01449 0.692 0.748
## 712 687 2 0.717 0.01452 0.689 0.746
## 717 685 2 0.715 0.01455 0.687 0.744
## 721 683 1 0.714 0.01457 0.686 0.743
## 723 682 1 0.713 0.01458 0.685 0.742
## 729 681 1 0.712 0.01460 0.684 0.741
## 730 680 1 0.711 0.01462 0.683 0.740
## 731 679 1 0.710 0.01463 0.682 0.739
## 736 678 1 0.709 0.01465 0.681 0.738
## 739 677 2 0.707 0.01468 0.679 0.736
## 742 675 1 0.706 0.01470 0.678 0.735
## 743 674 1 0.705 0.01471 0.677 0.734
## 748 673 1 0.704 0.01473 0.675 0.733
## 752 672 1 0.703 0.01474 0.674 0.732
## 755 671 1 0.702 0.01476 0.673 0.731
## 759 670 1 0.701 0.01477 0.672 0.730
## 760 669 1 0.700 0.01479 0.671 0.729
## 761 668 1 0.699 0.01480 0.670 0.728
## 764 667 1 0.697 0.01482 0.669 0.727
## 772 666 1 0.696 0.01483 0.668 0.726
## 774 665 1 0.695 0.01485 0.667 0.725
## 775 664 1 0.694 0.01486 0.666 0.724
## 795 663 1 0.693 0.01488 0.665 0.723
## 797 662 2 0.691 0.01490 0.663 0.721
## 803 660 1 0.690 0.01492 0.662 0.720
## 827 659 1 0.689 0.01493 0.660 0.719
## 828 658 1 0.688 0.01495 0.659 0.718
## 833 657 1 0.687 0.01496 0.658 0.717
## 835 656 1 0.686 0.01497 0.657 0.716
## 844 655 1 0.685 0.01499 0.656 0.715
## 845 653 1 0.684 0.01500 0.655 0.714
## 846 651 1 0.683 0.01501 0.654 0.713
## 849 650 1 0.682 0.01503 0.653 0.712
## 851 649 1 0.681 0.01504 0.652 0.711
## 854 648 1 0.680 0.01506 0.651 0.710
## 855 647 1 0.679 0.01507 0.650 0.709
## 863 646 1 0.678 0.01508 0.649 0.708
## 875 645 1 0.677 0.01510 0.648 0.707
## 883 644 2 0.674 0.01512 0.645 0.705
## 885 642 1 0.673 0.01513 0.644 0.704
## 890 641 1 0.672 0.01515 0.643 0.703
## 900 640 1 0.671 0.01516 0.642 0.702
## 901 639 1 0.670 0.01517 0.641 0.701
## 905 638 2 0.668 0.01520 0.639 0.699
## 912 636 1 0.667 0.01521 0.638 0.698
## 918 635 1 0.666 0.01522 0.637 0.697
## 922 634 1 0.665 0.01523 0.636 0.696
## 924 633 1 0.664 0.01525 0.635 0.694
## 928 632 1 0.663 0.01526 0.634 0.693
## 929 631 1 0.662 0.01527 0.633 0.692
## 930 630 1 0.661 0.01528 0.631 0.691
## 931 629 1 0.660 0.01529 0.630 0.690
## 934 628 1 0.659 0.01531 0.629 0.689
## 936 627 1 0.658 0.01532 0.628 0.688
## 938 626 1 0.657 0.01533 0.627 0.687
## 939 624 1 0.656 0.01534 0.626 0.686
## 942 623 1 0.654 0.01535 0.625 0.685
## 949 622 1 0.653 0.01536 0.624 0.684
## 957 621 1 0.652 0.01537 0.623 0.683
## 961 620 2 0.650 0.01540 0.621 0.681
## 966 618 1 0.649 0.01541 0.620 0.680
## 968 617 1 0.648 0.01542 0.619 0.679
## 969 616 1 0.647 0.01543 0.618 0.678
## 975 615 1 0.646 0.01544 0.616 0.677
## 976 614 1 0.645 0.01545 0.615 0.676
## 977 613 1 0.644 0.01546 0.614 0.675
## 986 612 1 0.643 0.01547 0.613 0.674
## 993 611 1 0.642 0.01548 0.612 0.673
## 997 610 1 0.641 0.01549 0.611 0.672
## 1013 609 1 0.640 0.01550 0.610 0.671
## 1018 608 1 0.639 0.01551 0.609 0.670
## 1025 607 1 0.638 0.01552 0.608 0.669
## 1026 606 1 0.637 0.01553 0.607 0.668
## 1029 605 1 0.636 0.01554 0.606 0.667
## 1031 604 1 0.634 0.01555 0.605 0.666
## 1041 603 1 0.633 0.01556 0.604 0.665
## 1042 602 1 0.632 0.01557 0.603 0.664
## 1046 601 1 0.631 0.01558 0.601 0.663
## 1048 600 1 0.630 0.01559 0.600 0.662
## 1052 599 1 0.629 0.01560 0.599 0.661
## 1057 598 1 0.628 0.01561 0.598 0.660
## 1061 597 1 0.627 0.01562 0.597 0.658
## 1070 596 1 0.626 0.01563 0.596 0.657
## 1081 595 1 0.625 0.01564 0.595 0.656
## 1083 594 1 0.624 0.01565 0.594 0.655
## 1089 593 1 0.623 0.01566 0.593 0.654
## 1101 592 1 0.622 0.01566 0.592 0.653
## 1103 591 1 0.621 0.01567 0.591 0.652
## 1105 589 1 0.620 0.01568 0.590 0.651
## 1106 588 1 0.619 0.01569 0.589 0.650
## 1108 587 1 0.618 0.01570 0.588 0.649
## 1112 586 1 0.617 0.01571 0.587 0.648
## 1114 585 1 0.616 0.01572 0.585 0.647
## 1122 584 1 0.614 0.01572 0.584 0.646
## 1130 583 1 0.613 0.01573 0.583 0.645
## 1134 582 1 0.612 0.01574 0.582 0.644
## 1135 581 1 0.611 0.01575 0.581 0.643
## 1138 580 1 0.610 0.01576 0.580 0.642
## 1145 579 1 0.609 0.01577 0.579 0.641
## 1151 578 1 0.608 0.01577 0.578 0.640
## 1154 577 1 0.607 0.01578 0.577 0.639
## 1159 576 1 0.606 0.01579 0.576 0.638
## 1166 575 1 0.605 0.01580 0.575 0.637
## 1178 574 1 0.604 0.01580 0.574 0.636
## 1186 573 1 0.603 0.01581 0.573 0.635
## 1193 572 1 0.602 0.01582 0.572 0.634
## 1195 571 1 0.601 0.01583 0.571 0.633
## 1198 570 1 0.600 0.01583 0.569 0.632
## 1212 568 1 0.599 0.01584 0.568 0.631
## 1215 567 1 0.598 0.01585 0.567 0.629
## 1216 566 1 0.597 0.01586 0.566 0.628
## 1246 565 1 0.595 0.01586 0.565 0.627
## 1252 564 1 0.594 0.01587 0.564 0.626
## 1262 563 1 0.593 0.01588 0.563 0.625
## 1276 562 1 0.592 0.01588 0.562 0.624
## 1277 561 1 0.591 0.01589 0.561 0.623
## 1279 560 1 0.590 0.01590 0.560 0.622
## 1298 557 1 0.589 0.01590 0.559 0.621
## 1302 556 1 0.588 0.01591 0.558 0.620
## 1304 555 1 0.587 0.01592 0.557 0.619
## 1313 554 1 0.586 0.01592 0.556 0.618
## 1314 553 1 0.585 0.01593 0.555 0.617
## 1323 551 1 0.584 0.01594 0.553 0.616
## 1353 550 1 0.583 0.01594 0.552 0.615
## 1365 549 1 0.582 0.01595 0.551 0.614
## 1388 548 1 0.581 0.01595 0.550 0.613
## 1399 547 1 0.580 0.01596 0.549 0.612
## 1405 546 1 0.579 0.01597 0.548 0.611
## 1424 545 1 0.577 0.01597 0.547 0.610
## 1432 544 1 0.576 0.01598 0.546 0.609
## 1434 543 1 0.575 0.01598 0.545 0.608
## 1436 542 1 0.574 0.01599 0.544 0.607
## 1437 541 1 0.573 0.01600 0.543 0.605
## 1447 540 1 0.572 0.01600 0.542 0.604
## 1455 539 1 0.571 0.01601 0.541 0.603
## 1475 536 1 0.570 0.01601 0.540 0.602
## 1482 535 1 0.569 0.01602 0.538 0.601
## 1495 534 1 0.568 0.01602 0.537 0.600
## 1521 533 1 0.567 0.01603 0.536 0.599
## 1530 532 1 0.566 0.01603 0.535 0.598
## 1539 529 1 0.565 0.01604 0.534 0.597
## 1540 528 1 0.564 0.01604 0.533 0.596
## 1548 527 2 0.562 0.01605 0.531 0.594
## 1561 524 1 0.560 0.01606 0.530 0.593
## 1606 523 1 0.559 0.01606 0.529 0.592
## 1656 522 1 0.558 0.01607 0.528 0.591
## 1692 521 1 0.557 0.01607 0.527 0.590
## 1709 520 1 0.556 0.01608 0.526 0.589
## 1723 519 2 0.554 0.01609 0.523 0.586
## 1743 517 1 0.553 0.01609 0.522 0.585
## 1749 516 1 0.552 0.01610 0.521 0.584
## 1759 515 1 0.551 0.01610 0.520 0.583
## 1772 514 1 0.550 0.01611 0.519 0.582
## 1783 513 1 0.549 0.01611 0.518 0.581
## 1788 512 1 0.548 0.01611 0.517 0.580
## 1790 511 1 0.547 0.01612 0.516 0.579
## 1798 510 1 0.545 0.01612 0.515 0.578
## 1812 509 1 0.544 0.01613 0.514 0.577
## 1818 506 1 0.543 0.01613 0.513 0.576
## 1829 498 1 0.542 0.01613 0.511 0.575
## 1839 497 1 0.541 0.01614 0.510 0.574
## 1856 490 1 0.540 0.01614 0.509 0.573
## 1875 482 1 0.539 0.01615 0.508 0.571
## 1876 479 1 0.538 0.01615 0.507 0.570
## 1879 478 1 0.537 0.01616 0.506 0.569
## 1884 475 1 0.535 0.01617 0.505 0.568
## 1895 474 1 0.534 0.01617 0.504 0.567
## 1907 472 1 0.533 0.01618 0.502 0.566
## 1932 469 1 0.532 0.01618 0.501 0.565
## 1950 463 1 0.531 0.01619 0.500 0.564
## 1976 454 1 0.530 0.01619 0.499 0.562
## 2012 447 1 0.529 0.01620 0.498 0.561
## 2018 446 1 0.527 0.01621 0.497 0.560
## 2023 441 1 0.526 0.01622 0.495 0.559
## 2031 432 1 0.525 0.01622 0.494 0.558
## 2052 427 1 0.524 0.01623 0.493 0.557
## 2067 419 1 0.523 0.01624 0.492 0.555
## 2074 418 1 0.521 0.01625 0.490 0.554
## 2085 411 1 0.520 0.01626 0.489 0.553
## 2128 387 1 0.519 0.01627 0.488 0.552
## 2148 376 1 0.517 0.01629 0.486 0.550
## 2171 354 1 0.516 0.01631 0.485 0.549
## 2231 295 1 0.514 0.01635 0.483 0.547
## 2284 261 1 0.512 0.01640 0.481 0.545
## 2288 260 1 0.510 0.01646 0.479 0.543
## 2318 245 1 0.508 0.01652 0.477 0.541
## 2351 226 1 0.506 0.01660 0.474 0.539
## 2458 181 1 0.503 0.01674 0.471 0.537
## 2482 171 1 0.500 0.01690 0.468 0.534
## 2527 138 1 0.496 0.01716 0.464 0.531
## 2542 126 1 0.492 0.01747 0.459 0.528
## 2593 109 1 0.488 0.01789 0.454 0.524
## 2683 88 1 0.482 0.01852 0.447 0.520
## 2695 83 1 0.477 0.01919 0.440 0.516
## 2718 77 1 0.470 0.01991 0.433 0.511
## 2725 71 1 0.464 0.02071 0.425 0.506
## 2789 38 1 0.452 0.02348 0.408 0.500
## 2910 27 1 0.435 0.02794 0.383 0.493
Hasil diatas merupakan ringkasan survival yang berisi tentang kejadian kumulatif dan peluang survival kumulatif tiap waktu kejadian kematian.
Berikut merupakan Kaplan-Meier Life Table dengan komponen sebagai berikut
n : jumlah subyek yang diamati pada setiap kurva
time : Waktu pada kurva
n.risk : jumlah subjek yang beresiko pada waktu t
n.event : jumlah kejadian meninggal pada waktu t
n.censor: data tersensor ( keluar dari resiko atau tanpa kejadian pada waktu t)
lower,upper : lower dan upper selang kepercayaan kurva
strata : Jenis kelamin
sm1<-surv_summary(m1)## Warning in .get_data(x, data = data): The `data` argument is not provided. Data
## will be extracted from model fit.
datatable(sm1,
caption = htmltools::tags$caption(
style = 'caption-side : bottom; text-align: center;',
htmltools::em('Table 2 : Summary of Survival Curves.')),
extensions="FixedColumns",
options = list(scrollX=TRUE, fixedColumns=TRUE))Median Survival times merepresentasikan waktu dimana survival probabilty sebesar 0.5
summary(m1)$table## records n.max n.start events rmean se(rmean) median 0.95LCL 0.95UCL
## sex=0 890 890 890 444 1998.547 46.12524 2174 1752 NA
## sex=1 968 968 968 476 2014.774 44.34912 2527 1976 2910
ggsurvplot digunakan untuk menghasilkan kurva survival untuk 2 subjek kelompok menggunakan taraf kepercayaan 95 persen
ggsurvplot(m1,
pval = TRUE, conf.int = TRUE, # Memunculkan p-value dan mengkonfirmasi selang kepercayaan 95%
risk.table = TRUE, # Memunculkan Tabel Resiko
risk.table.col="strata", # Kolom Tabel Resiko berupa Strata Jenis Kelamin
surv.median.line = "hv", # Memunculkan garis median horizontal dan vertical
ggtheme = theme_bw(), # Tema Kurva
palette = c("#2E9FDF","#9B59B6")) # Warna Kurvaggsurvplot(m1,
pval = TRUE, conf.int = TRUE, #Memunculkan p-value dan mengkonfirmasi selang kepercayaan 95%
xlab ="Time in Days", # Memberi label sumbu X
break.time.by =200, # Interval waktu pada tabel resiko 200 hari
ggtheme = theme_bw(),
risk.table = "abs_pct", # Memunculkan Persentase Survival
risk.table.y.text.col=T, # Memunculkan warna pada tabel resiko
risk.table.y.text = FALSE, #
ncensor.plot=TRUE, # Visualisasi jumlah data tersensor
surv.median.line = "hv", # Memunculkan garis median horizontal dan vertical
legend.labs=c("Male","Female"), # Memunculkan legenda label
palette = c("#2E9FDF","#9B59B6"))Mengintepretasikan peluang survival dimana pada hari ke 0 peluang survival sebesar 1 karena pasien masih pada awal waktu pengamatan. Pada hari ke 2000 peluang survival turun menjadi 0.5 untuk perempuan dan sekitar hari 2500 untuk perempuan turun menjadi 0.5. Median survival dari data diatas adalah 2174 hari untuk perempuan dan 2527 hari untuk laki-laki
Kurva survial dapat dibuat dengan lebih sederhana dengan menggunakan x lim.
ggsurvplot(m1,
conf.int = TRUE, # Selang kepercayaan 95 persen
risk.table.col="strata", # Tabel resiko berdasarkan jenis kelamin
ggtheme= theme_bw(),
palette = c("#2E9FDF","#9B59B6"),
xlim=c(0,2000)) # Waktu X diperpendek menjadi 1800 hari Grafik diatas merupakan pemendekan dari kurva survival karena setelah hari ke-2000 kurva sudah mulai linear karena kejadian kematian yang semakin sedikit.
Fungsi Hazard Kumulatif berikut merupakan 3 argumen fun yang digunakan untuk mentransormasikan fungsi survival.
log : transformasi log untuk fungsi survival
event : menggambarkan kejadian kumulatif f(y)=1-y
cumhaz : menggambarkan fungsi hazard kumulatif f(y)=-log(y)
ggsurvplot(m1,
conf.int = TRUE,
risk.table.col="strata",
ggtheme= theme_bw(),
palette = c("#2E9FDF","#9B59B6"),
fun="event")Kurva diatas merupakan kurva peluang kejadian kematian berdasarkan waktu. Pada grafik pada hari 0 memiliki peluang kejadian sebesar 0 karena belum terjadi kejadian resiko (kematian) dan dapat dilihat pada hari ke 3000, peluang kejadian kematian pada perempuan sekira 0.51 dan peluang kejadian laki-laki sebesar 0.58
ggsurvplot(m1,
conf.int = TRUE,
risk.table.col="strata",
ggtheme= theme_bw(),
palette = c("#2E9FDF","#9B59B6"),
fun="cumhaz")FUngsi hazard kumulatif biasanya digunakan untuk memperkirakan peluang hazard. Fungsi hazard kumulatif menggambarkan cumulative force of mortality. Dapat diartikan sebagai nilai ekspektasi jumlah kejadian pada tiap individu berdasarkan waktu
log-rank test digunakan untuk membandingakn 2 atau lebih kelompok survival. H0 : tidak ada perbedaan peluang survival antara 2 kelompok H1 : ada perbedaan peluang survival antara 2 kelompok
Log-rank test merupakan uji non-parameterik dan hasilnya mendekati distribusi chi-square Fungsi survdiff pada R digunakan untuk menghitung log-rank test
surv_diff<-survdiff(Surv(time,status)~sex, data=colon) # Log-Rank Test
surv_diff## Call:
## survdiff(formula = Surv(time, status) ~ sex, data = colon)
##
## N Observed Expected (O-E)^2/E (O-E)^2/V
## sex=0 890 444 436 0.136 0.259
## sex=1 968 476 484 0.123 0.259
##
## Chisq= 0.3 on 1 degrees of freedom, p= 0.6
n : jumlah subjek penelitian
obs : jumlah yang terobservasi
exp : ekspektasi jumlah kejadian meninggal
chisq: statistik tes kesamaan
strata : jumlah kelompok
p-value sebesar 0.0013 berarti ada perbedaan yang signifikan dari kelompok survival.
Menghitung kurva survival dengan mengkombinasikan beberapa faktor. Pertama : membuat kurva survival dengan menggunakan data set colon
require("survival")
m2<-survfit(Surv(time, status)~ sex + rx + adhere, data=colon) # Membandingkan kurva survival berdasarkan jenis kelamin, rx dan adhereggsurv<-ggsurvplot(m2,
fun="event",
conf.int = TRUE,
ggtheme = theme_bw())
ggsurv$plot + theme_bw() +
theme(legend.position = "right")+
facet_grid(rx~adhere)Tujuan dari pemodelan Cox Prop hazard regression adalah menghitung secara simultan efek dari beberapa faktor yang ada dalam survival. Cox Prop Hazard regression digunakan untuk memeriksa bagaimana setiap faktor mempengaruhi kejadian. Indikator hazard Ratio :
HR=1 : tidak ada pengaruh
HR<1 : Mengurangi Pengaruh pada hazard
HR>1 : Menambahkan Pengaruh pada Hazard
fungsi coxph dalam r memiliki format sebagai berikut coxph( formula, data, method )
formula : model linear dengan obyek survival sebagai variabel respon
data : dataframe yang mengandung variabel
method : metode yang digunakan (default : efron selain itu breslow dan exact)
res.ucox<-coxph(Surv(time,status)~ sex, data = colon)
res.ucox## Call:
## coxph(formula = Surv(time, status) ~ sex, data = colon)
##
## coef exp(coef) se(coef) z p
## sex -0.03363 0.96693 0.06599 -0.51 0.61
##
## Likelihood ratio test=0.26 on 1 df, p=0.6104
## n= 1858, number of events= 920
Ringkasan
summary(res.ucox)## Call:
## coxph(formula = Surv(time, status) ~ sex, data = colon)
##
## n= 1858, number of events= 920
##
## coef exp(coef) se(coef) z Pr(>|z|)
## sex -0.03363 0.96693 0.06599 -0.51 0.61
##
## exp(coef) exp(-coef) lower .95 upper .95
## sex 0.9669 1.034 0.8496 1.1
##
## Concordance= 0.509 (se = 0.008 )
## Likelihood ratio test= 0.26 on 1 df, p=0.6
## Wald test = 0.26 on 1 df, p=0.6
## Score (logrank) test = 0.26 on 1 df, p=0.6
Interpretasi Cox Regression
Statistik signifikansi : Kolom Z memberika nilai statistik Wald merupakan hubungan koefisien regresi cox dengan standar error. Dari hasil wald test dapat disimpulkan bahwa variabel jenis kelamin memliki koefisien yang tidak dapat diyakini secara signifikan karena memilliki p-value sebesar 0.61
Koefisien regresi. Positif menandakan hazard (resiko kematian ) lebih tinggi dengan demikian prognosis memburuk dengan subyek yang nilai variabelnya lebih tinggi. Cox model regression memberikan hazard ratio dengan membandingkan kelompok kedua (perempuan) terhadap kelompok pertama( laki-laki) . Koefisien beta sebesar -0.33 menandakan bahwa laki-laki memiliki resiko yang lebih rendah daripada perempuan.
Hazard Ratios. Merupakan eksponensial dari koefisien regresi. Perempuan mengurangi resiko (hazard) sebesar 97% or 3%. Jadi laki-laki memiliki prognostik yang lebih bagus artinya beresiko lebih rendah daripada perempuan
Selang Kepercayaan Hazard lower and upper 95 %
GLobal statistical significance of the model. Diberikan 3 output alternatif pengujian yaitu likelihood ratio test, wald test, dan score logrank statistics. Ketiga metode ini signifikan terhadap pemodelan. Ketiga metode ini asimptomatik ekuivalen artinya ketiga metode ini memberikan hasil yang sama untuk jumlah data yang besar dan cukup. Dan untuk jumlah data yang lebih kecil mungkin terjadi adanya perbedaan. Likelihood test lebih memiliki keyakinan yang lebih baik terhadap jumlah sampel yang kecil.
Multiple Covariat Coxph Regression
covariates<-c("age","sex","adhere","nodes","obstruct")
univ_formulas<-sapply(covariates,
function(x) as.formula(paste('Surv(time,status)~',x)))
univ_models<-lapply(univ_formulas,function(x){coxph(x, data = colon)})
# Extract Data
univ_results<-lapply(univ_models,
function(x){
x<-summary(x)
p.value<-signif(x$wald["pvalue"],digits = 2)
wald.test<-signif(x$wald["test"], digits = 2)
beta<-signif(x$coef[1], digits = 2);
HR<-signif(x$coef[2], digits = 2);
HR.confint.lower<-signif(x$conf.int[,"lower .95"],2)
HR.confint.upper<-signif(x$conf.int[,"upper .95"],2)
HR<-paste0(HR,"(",HR.confint.lower,"-",HR.confint.upper,")")
res<-c(beta, HR, wald.test, p.value)
names(res)<-c("beta","HR(95% CI for HR)","wald.test","p-value")
return(res)
})
res<-t(as.data.frame(univ_results,check.names=FALSE))
datatable(res,
caption = htmltools::tags$caption(
style='caption-side: bottom; text-align: center;',
htmltools::em('Table 3 : Univariate coxph for each covariates.')),
extensions = 'FixedColumns',
options=list(dom='t',scrollX=TRUE, fixedColumns=TRUE))Output pada tabel diatas menunjukan koefisien regresi beta (hazard ratio) dan signifikansi pada setiap variabel yang berhubungan dengan analisis survival. Dari output diatas dapat diketahui bahwa:
Variable adhere, nodes dan obstruct memiliki koefisien regresi beta yang signifikan sedangkan variabel age dan Sex tidak memiliki koefisien regresi beta yang tidak signifikan.
variabel adhere, nodes dan obstruct memiliki koefisien beta positif sedangkan jenis kelamin dan usia memiliki koefisien beta negatif. Hal ini menandakan semakin tinggi obstruct, adhere dan nodes akan memiliki peluang survival yang lebih rendah pada laki-laki. Sedangkan, semakin tinggi nilai age dan sex akan memiliki peluang survival yang lebih tinggi pada perempuan
res.mcox<-coxph(Surv(time,status)~age+sex+adhere, data=colon)
summary(res.mcox)## Call:
## coxph(formula = Surv(time, status) ~ age + sex + adhere, data = colon)
##
## n= 1858, number of events= 920
##
## coef exp(coef) se(coef) z Pr(>|z|)
## age -0.002935 0.997069 0.002780 -1.056 0.291001
## sex -0.029647 0.970788 0.066000 -0.449 0.653288
## adhere 0.319468 1.376395 0.086957 3.674 0.000239 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## exp(coef) exp(-coef) lower .95 upper .95
## age 0.9971 1.0029 0.9917 1.003
## sex 0.9708 1.0301 0.8530 1.105
## adhere 1.3764 0.7265 1.1607 1.632
##
## Concordance= 0.525 (se = 0.01 )
## Likelihood ratio test= 13.61 on 3 df, p=0.003
## Wald test = 14.5 on 3 df, p=0.002
## Score (logrank) test = 14.61 on 3 df, p=0.002
Ketiga p-value dari ketiga test (Likelihood, Wald, and Score) tidak menunjukan signifikansi berdasarkan jenis kelamin.
Pada multivariat Cox Analysis dapat diketahui kovariat adhere bersifat signifikan. Tetapi kovariat usia dan jenis kelamin tidak signifikan.
Diketahui bahwa P-value dari jenis kelamin sebesar 97% dengan hazard ratio sebesar 0.9708 (exp(coef)) yang menunjukan adanya hubungan yang kuat antara jenis kelamin pasien terhadap resiko kematian. Koefisien tersebut dapat diartikan bahwa jenis kelamin laki-laki mengurangi resiko sebesar 97 % atau 3 % terjadinya resiko.
P-value pada adhere memiliki nilai sebesar 0.000239 dengan hazard ratio sebesar 1.37 yang mengindikasikan adanya hubungan yang kuat antara nilai adhere dan meningkatnya resiko kematian. Semakin tinggi adhere akan semakin besar terjadinya resiko kematian.
Sebaliknya, terhadap variabel usia yang memiliki p value sebesar 0.291 dengan hazard ratio sebesar 0.99 dan variabel jenis kelamin memiliki p-value sebesar 0.65 dengan hazard ratio sebesar 0.97 yang menandakan usia tidak berkontribusi signifikan terhadap resiko kematian
Cox Proportional Hazards Model memiliki beberapa asumsi. Oleh karena itu, terdapat 3 tipe diagnostik untuk cox model
Menguji the proportional hazards assumptions (Schoenfeld Residual)
Memeriksa influential observation (outliers) (Deviance Residual)
Mendeteksi nonlinearitas antara log hazard dan kovariat (Martingale Residuals)
Menggunakan fungsi cox.zph() di paket survival untuk melakukan test proportional hazard assumption. Uji ini dinamakan dengan skala residual schoenfeld yang bertujuan untuk menguji independensi antara residu dengan waktu. Proportional hazard assumptions membutuhkan hubungan yang tidak signifikan residual dan waktu
res.cox<-coxph(Surv(time, status)~ age + sex + obstruct, data=colon)
test.ph<-cox.zph(res.cox)
test.ph## chisq df p
## age 0.00672 1 0.9347
## sex 3.74554 1 0.0529
## obstruct 7.63473 1 0.0057
## GLOBAL 10.85924 3 0.0125
Tes diatas menunjukan bahwa kovariat obstruk terdapat indikasi signfikan terhadap kovariat lainnya dan variabel usia dan jenis kelamin tidak signifikan dan test global juga menunjukan signifikanan. Oleh karena itu, asumsi proportional hazard tidak terpenuhi.
Selain itu, kita juga dapat menggambarkan Skala Scoenfeld residual terhadap transformasi waktu
ggcoxzph(test.ph)Dari uji skala residual schoenfeld tidak ditemukan pola residual terhadap waktu oleh karena itu asumsi proporsional hazard dapat terpenuhi dengan covariat jenis kelamin, wt.loss dan usia.
Kita dapat memvisualisaikan testing influential observation dengan menggunakan fungsi gg cox diagnostics
ggcoxdiagnostics(fit, type=, linear.predictions=TRUE)
fit : Objek type: tipe residual yang akan divisualisasikan ( martingale, deviance, score, schoenfeld, df beta, df betas, scaledsch, partial) linear. predictions : nilai logikal apakah ingin menampilkan prediksi linear
ggcoxdiagnostics(res.cox,type = "dfbeta",
linear.predictions = FALSE, ggtheme = theme_bw())## `geom_smooth()` using formula 'y ~ x'
Grafik diatas menunjukan residual dengan nilai df beta terhadap koefisien regresi. dan dapat diketahui bahwa tidak ada observasi yang saling mempengaruhi.
Selain itu, terdapat cata lain untuk menguji outliers dengan menggunakan deviance residuals. Deviance residuals merupakan transformasi dari martingale residual. Deviance residuals :
Positif : individu yang terlalu cepat meninggal
Negatif : individu terlalu bertahan lebih lama
Outlier : tidak terprediksi model dengan baik.
ggcoxdiagnostics(res.cox, type="deviance",
linear.predictions = FALSE, ggtheme = theme_bw())## `geom_smooth()` using formula 'y ~ x'
Uji nonlinearitas menguji bahwa continous kovariat memiliki bentuk yang linear. Dengan menggambarkan martingale residuals terhadap continous kovariat dapat mendeteksi nonlinearitas. Non linearitas tidak memiliki masalah dengan variable kategorikal, jadi kita akan memeriksa martingale residuals dan partian residual terhadap variabel kontinyu
ggcoxfunctional(Surv(time,status)~ age + log(age)+sqrt(age), data=colon)## Warning: arguments formula is deprecated; will be removed in the next version;
## please use fit instead.
Terdapat sedikit nonlinearitas