Notes Theme, silakan gunakan salah satu theme berikut: - cayman (package prettydoc) - architect (package prettydoc) - united (default di RMarkdown)

Library:

> # install.packages("knitr")
> # install.packages("rmarkdown")
> # install.packages("prettydoc")
> # install.packages("equatiomatic")

1 PENDAHULUAN

1.1 Latar Belakang

Keberhasilan proyek menjadi salah satu hal paling krusial dalam suatu perusahaan. Keberhasilan suatu proyek dalam perusahaan membantu perusahaan dalam mencapai visi dan misi serta menentukan keberlangsungan suatu perusahaan. Keberhasilan suatu proyek sangat dipengaruhi oleh kompetensi manajer proyek dalam mengelola seluruh proses pelaksanaan proyek. Namun, saat ini masih banyak perusahaan yang sulit dalam menjaga  konsistensi kinerja proyek. Project Management Institute (PMI) menyatakan bahwa persentase proyek yang berakhir gagal atau mengalami hambatan signifikan masih cukup tinggi pada berbagai sektor industri.

Kompetensi manajer proyek sendirimencakup kemampuan untuk mengelola diri, memahami konteks bisnis proyek, serta memastikan seluruh aktivitas berjalan secara terkoordinasi. Variabel seperti komunikasi, manajemen risiko, kontrol proyek, manajemen tim, manajemen diri, dan pemahaman bisnis proyek menjadi faktor yang sering digunakan untuk mengevaluasi kualitas seorang manajer proyek. Faktor-faktor tersebut diyakini berkontribusi langsung terhadap status akhir proyek, apakah proyek tersebut berhasil, menantang, atau bahkan gagal.

Dalam hal ini, diperlukan analisis yang mampu mengidentifikasi variabel kompetensi mana yang paling membedakan proyek berhasil dan proyek gagal. Pada kasus ini, penggunaan analisis diskriminan sangat tepat digunakan. Analisis diskriminan merupakan salah satu metode analisis multivariat yang digunakan untuk mengelompokkan suatu nilai pengamatan ke dalam suatu kelompok berdasarkan sekumpulan variabel yang mempengaruhinya (Johnson & Wichern, 2007). Tujuan utama dari analisis ini adalah untuk menganalisis sejauh mana variabel prediktor dalam membedakan setiap kelompok.

Penggunaan analisis diskriminan  dapat membantu organisasi mendeteksi kelemahan kompetensi yang berpotensi mengakibatkan kegagalan. Selain itu, hasil analisis dapat digunakan untuk merancang pelatihan yang lebih tepat sasaran, meningkatkan proses rekrutmen manajer proyek, serta menyusun strategi mitigasi risiko yang lebih akurat.

1.2 Tinjauan Pustaka

  1. Analisis Diskriminan

    Analisis diskriminan merupakan salah satu metode analisis multivariat yang digunakan untuk mengelompokkan suatu nilai pengamatan ke dalam suatu kelompok berdasarkan sekumpulan variabel yang mempengaruhinya (Johnson & Wichern, 2007). Tujuan utama dari analisis ini adalah untuk menganalisis sejauh mana variabel prediktor dalam membedakan setiap kelompok. Proses pengelompokkan dilakukan dengan membentuk kombinasi linear dari variabel prediktor yang disebut dengan fungsi diskriminan. Fungsi diskriminan dibentuk melalui kombinasi linear variabel independen dengan bobot tertentu yang dipilih untuk memaksimalkan rasio variasi antar kelompok terhadap variasi dalam kelompok, sehingga menghasilkan pemisahan yang optimal. Fungsi diskriminan dapat dituliskan dalam bentuk berikut : 

    $$D=b0+b1X1+b2X2+…+bkXk$$

    Keterangan:

    D = Skor diskriminan

    k   = Banyaknya variabel prediktor

    b0  = Intersep atau koefisien persamaan fungsi diskriminan

    bk = Bobot diskriminan untuk peubah prediktor ke-i, di mana i = 1,2, … ,k

    Xk  = Variabel prediktor ke-i, di mana i = 1,2, … ,p dan k= 1,2, … ,n

    Menurut Hair et al. (2019), analisis diskriminan sangat bermanfaat ketika peneliti ingin mengetahui variabel mana yang paling berpengaruh dalam membedakan kategori tertentu serta ingin mengklasifikasikan objek baru berdasarkan pola yang terbentuk. Selain berfungsi untuk membedakan kelompok, analisis diskriminan juga dapat menghasilkan matriks klasifikasi (classification matrix) yang menunjukkan tingkat akurasi model dalam memprediksi kategori observasi.

    Terdapat dua bentuk utama analisis diskriminan, yaitu Linear Discriminant Analysis (LDA) yang menghasilkan garis pemisah linear, dan Quadratic Discriminant Analysis (QDA) yang menghasilkan pemisah berbentuk kurva ketika asumsi kesamaan matriks kovarians antar kelompok tidak terpenuhi.

  2. Asumsi Linear Discriminant Analysis

    Pada proses analisis menggunakan Linear Discriminant Analysis, diperlukan beberapa asumsi yang perlu dipenuhi fungsi diskriminan yang dihasilkan valid dan mampu mengklasifikasikan data secara akurat. Asumsi pertama yang perlu dipenuhi adalah normalitas multivariat. Menurut Hair et al. (2019), LDA mengharuskan bahwa kombinasi variabel prediktor dalam masing-masing kelompok mengikuti distribusi normal multivariat. Pelanggaran terhadap asumsi ini dapat mengurangi akurasi model dan menyebabkan koefisien diskriminan menjadi tidak stabil. Normalitas ini penting karena fungsi diskriminan dibangun berdasarkan perbandingan variasi antar dan dalam kelompok yang sensitif terhadap distribusi data.


    Selain normalitas multivariat, asumsi kedua yang perlu dipenuhi adalah homogenitas matriks varians kovarians anta kelompok. Menurut Tabachnick dan Fidell (2019), LDA hanya dapat digunakan jika setiap kelompok memiliki pola varians dan kovarians yang relatif sama, karena fungsi diskriminan linear menganggap bentuk penyebaran data (ellipsoid) antar kelompok identik. Asumsi ini dapat diuji menggunakan uji yang disebut Box’M Test. Jika asumsi ini tidak terpenuhi, Rencher (2002) menyarankan penggunaan Quadratic Discriminant Analysis (QDA) karena tidak mengharuskan kesamaan matriks kovarians.

1.3 Data

Dalam analisis kali ini, data yang digunakan adalah vinayak oak dataset yang merupakan data hasil penelitian oleh Jamnalal Bajaj Institute of Management Studies. Penelitian ini mengukur kompetensi manajer proyek dalam melakukan project management. Beberapa variabel yang diukur antara lain Bussiness Project Definition Competency, Communication Management, Human Resource Management, Project Control, Risk Management, dan Self-Management. Seluruh variabel ini diukur melalui skor sehingga dapat diasumsikan sebagai variabel numerik. Sementara itu, variabel respons berupa variabel kategorik yaitu status keberhasilan proyek yang terdiri atas dua kategori yaitu sukses dan gagal.

1.4 Tujuan

Tujuan dari penelitian ini adalah sebagai berikut : 

  1. Mengetahui variabel yang paling berpengaruh dalam mengklasifikasikan keberhasilan suatu proyek.

  2. Mengetahui seberapa baik analisis diskriminan dalam mengklasifikasikan keberhasilan suatu  proyek berdasarkan variabel yang diukur?

2 SOURCE CODE

2.1 Library

> # Library
> library(MVN)
> library(biotools) 
> library(MASS) 
> library(candisc)
> library(readxl)
> library(rgl)

2.2 Impor Data

> data_UAP <- read_excel("C:/Users/Lenov/OneDrive/Documents/kuliah/Semester 5/Anmul 1/Praktikum/Dataset_Vinayak Oak.xls")
> data_UAP
# A tibble: 50 × 7
       s  S_BD  S_CM  S_HR  S_PC  S_RM  S_SM
   <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
 1     1    33    12    21    23    22    28
 2     1    35    13    19    13    22    27
 3     1    47    17    15    24    22    31
 4     1    27    18    18    17    21    28
 5     1    43    18    20    24    26    30
 6     1    35    16    22    20    23    24
 7     1    35    19    22    20    23    24
 8     1    44    20    13    21    20    26
 9     1    39    15    17    24    28    29
10     1    34    18    21    13    19    25
# ℹ 40 more rows

2.3 Uji Asumsi Normalitas Multivariat

> datacek<- data_UAP
> numerik_vars <- c("S_BD", "S_CM", "S_HR", "S_PC", "S_RM", "S_SM")
> hasildata<-mvn(data_UAP[numerik_vars], multivariate_outlier_method = "adj", show_new_data = TRUE, mvn_test = "mardia")

2.4 Uji Asumsi Normalitas Multivariat Setelah Penanganan Outlier dan Penggunaan Metode Bootstrap

> databaru <- hasildata$new_data
> databaru <- as.data.frame(databaru)
> data_boostrap <- mvn(databaru, mvn_test = 'mardia',  alpha = 0.05, bootstrap = TRUE)

2.5 Data Frame Baru Setelah Penanganan Outlier dan Penggunaan Metode Bootstrap

> data_analisis <- data_boostrap$data
> data_respon <- data_UAP[1]
> data_hasil_akhir <- data.frame(data_analisis,data_respon[c(1:2,4:16,18:29,32:35,37:38,44,47:48),])
> data_hasil_akhir
   S_BD S_CM S_HR S_PC S_RM S_SM s
1    33   12   21   23   22   28 1
2    35   13   19   13   22   27 1
4    27   18   18   17   21   28 1
5    43   18   20   24   26   30 1
6    35   16   22   20   23   24 1
7    35   19   22   20   23   24 1
8    44   20   13   21   20   26 1
9    39   15   17   24   28   29 1
10   34   18   21   13   19   25 1
11   42   16   12   20   23   27 1
12   43   17   19   14   23   31 1
13   44   17   13   17   23   27 1
14   44   16   22   21   27   31 1
15   41   20   20   24   28   29 1
16   36   20   18   18   22   24 1
18   48   19   21   19   22   30 1
19   48   19   24   20   27   31 1
20   37   15   20   20   24   30 1
21   31   15   19    9   15   25 1
22   32   19   22   18   26   28 1
23   40   17   16   20   26   27 1
24   38   19   20    7   19   28 1
25   43   16   23   24   28   31 1
26   31   16   18   23   22   16 2
27   39   13   19   20   22   21 2
28   31   20   13   21   16   15 2
29   21   16   12   20   17   14 2
32   26   16   18   18   19   19 2
33   30   15   12   21   19   25 2
34   23   17   13   23   22   23 2
35   23   16   16   15   17   26 2
37   41   20   20   14   23   31 2
38   26   15    8   16   20   24 2
44   36   17    9   19   19   16 2
47   24   12   15   17   20   19 2
48   37   12   14    9   18   23 2

2.6 Uji Asumsi Homogenitas Matriks Varians Kovarians

> uji_bart <- function(x){
+   method <- "Bartlett's test of sphericity"
+   data.name <- deparse(substitute(x))
+   x <- subset(x, complete.cases(x))
+   n <- nrow(x)
+   p <- ncol(x)
+   chisq <- (1-n+(2*p+5)/6)*log(det(cor(x)))
+   df <- p*(p-1)/2
+   p.value <- pchisq(chisq, df, lower.tail=FALSE)
+   names(chisq) <- "Khi-squared"
+   names(df) <- "df"
+   return(structure(list(statistic=chisq, parameter=df, p.value=p.value,
+                         method=method, data.name=data.name), class="htest"))}

2.7 MANOVA untuk Mengetahui Perbedaan Rata-Rata Antar Kelompok Variabel Respons

> X<-as.matrix(data_hasil_akhir [1:6])
> X.manova<-manova(X~data_hasil_akhir$s, data=data_hasil_akhir )
> X.wilks<-summary(X.manova, test="Wilks")

2.8 Kontribusi Variabel Prediktor terhadap Variabel Respon

> cc<-candisc(X.manova)

2.9 Fungsi Diskriminan

> modellda<-lda(data_hasil_akhir$s~., data = data_hasil_akhir )

2.10 Tabel Klasifikasi (Confusion Matrix)

> pred_LDA1<- predict(modellda,as.vector(data_hasil_akhir))

3 HASIL DAN PEMBAHASAN

3.1 Uji Asumsi Normalitas Multivariat

H0 = Data berdistribusi normal multivariat

H1 = Data tidak berdistribusi normal multivariat 

α = 0.05

> hasildata
$multivariate_normality
             Test Statistic p.value     Method          MVN
1 Mardia Skewness   122.010  <0.001 asymptotic ✗ Not normal
2 Mardia Kurtosis     2.413   0.016 asymptotic ✗ Not normal

$univariate_normality
              Test Variable Statistic p.value    Normality
1 Anderson-Darling     S_BD     0.833   0.029 ✗ Not normal
2 Anderson-Darling     S_CM     1.590  <0.001 ✗ Not normal
3 Anderson-Darling     S_HR     0.592   0.118     ✓ Normal
4 Anderson-Darling     S_PC     1.681  <0.001 ✗ Not normal
5 Anderson-Darling     S_RM     2.653  <0.001 ✗ Not normal
6 Anderson-Darling     S_SM     1.325   0.002 ✗ Not normal

$descriptives
  Variable  n  Mean Std.Dev Median Min Max  25th  75th   Skew Kurtosis
1     S_BD 50 31.52  10.516   33.5  12  48 23.25 39.75 -0.384    2.086
2     S_CM 50 15.28   4.066   16.0   0  20 13.00 18.00 -1.416    5.591
3     S_HR 50 16.36   4.444   16.5   6  24 13.00 20.00 -0.391    2.295
4     S_PC 50 16.18   6.229   18.0   5  24 12.25 20.75 -0.534    1.984
5     S_RM 50 19.48   7.223   22.0   1  28 17.25 23.00 -1.375    4.315
6     S_SM 50 22.72   7.140   24.0   1  31 19.00 28.00 -0.958    3.404

$multivariate_outliers
   Observation Mahalanobis.Distance
1           31              131.003
2           39               76.233
3           30               65.277
4           43               60.078
5           42               58.314
6           45               39.967
7           41               36.564
8           36               35.142
9           17               29.397
10          49               28.979
11          46               26.914
12          50               26.717
13          40               24.197
14           3               18.536

$new_data
   S_BD S_CM S_HR S_PC S_RM S_SM
1    33   12   21   23   22   28
2    35   13   19   13   22   27
4    27   18   18   17   21   28
5    43   18   20   24   26   30
6    35   16   22   20   23   24
7    35   19   22   20   23   24
8    44   20   13   21   20   26
9    39   15   17   24   28   29
10   34   18   21   13   19   25
11   42   16   12   20   23   27
12   43   17   19   14   23   31
13   44   17   13   17   23   27
14   44   16   22   21   27   31
15   41   20   20   24   28   29
16   36   20   18   18   22   24
18   48   19   21   19   22   30
19   48   19   24   20   27   31
20   37   15   20   20   24   30
21   31   15   19    9   15   25
22   32   19   22   18   26   28
23   40   17   16   20   26   27
24   38   19   20    7   19   28
25   43   16   23   24   28   31
26   31   16   18   23   22   16
27   39   13   19   20   22   21
28   31   20   13   21   16   15
29   21   16   12   20   17   14
32   26   16   18   18   19   19
33   30   15   12   21   19   25
34   23   17   13   23   22   23
35   23   16   16   15   17   26
37   41   20   20   14   23   31
38   26   15    8   16   20   24
44   36   17    9   19   19   16
47   24   12   15   17   20   19
48   37   12   14    9   18   23

$data
# A tibble: 50 × 6
    S_BD  S_CM  S_HR  S_PC  S_RM  S_SM
   <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
 1    33    12    21    23    22    28
 2    35    13    19    13    22    27
 3    47    17    15    24    22    31
 4    27    18    18    17    21    28
 5    43    18    20    24    26    30
 6    35    16    22    20    23    24
 7    35    19    22    20    23    24
 8    44    20    13    21    20    26
 9    39    15    17    24    28    29
10    34    18    21    13    19    25
# ℹ 40 more rows

$subset
NULL

$outlierMethod
[1] "adj"

attr(,"class")
[1] "mvn"

Keputusan : Karena pada hasil perhitungan terdapat hasil uji yang memiliki p-value kurang dari 0.05 (Uji Mardia Skewness dan Uji Mardia Kurtosis) maka tolak H0.

Kesimpulan : Dengan taraf nyata 5% dapat disimpulkan bahwa dataset Vinayak Oak tidak berdistribusi normal multivariat. Oleh karena itu, dilakukan penanganan yaitu membuang outlier pada data serta menerapkan bootstrap resampling agar data berdistribusi normal multivariat.

3.2 Uji Asumsi Normalitas Multivariat Setelah Penanganan Outlier dan Penggunaan Metode Bootstrap

H0 = Data berdistribusi normal multivariat

H1 = Data tidak berdistribusi normal multivariat 

α = 0.05

> data_boostrap
$multivariate_normality
             Test Statistic p.value    Method N.Boot      MVN
1 Mardia Skewness    47.256   0.591 bootstrap   1000 ✓ Normal
2 Mardia Kurtosis    -1.630   0.100 bootstrap   1000 ✓ Normal

$univariate_normality
              Test Variable Statistic p.value    Normality
1 Anderson-Darling     S_BD     0.366   0.417     ✓ Normal
2 Anderson-Darling     S_CM     0.712   0.058     ✓ Normal
3 Anderson-Darling     S_HR     0.852   0.026 ✗ Not normal
4 Anderson-Darling     S_PC     0.990   0.011 ✗ Not normal
5 Anderson-Darling     S_RM     0.516   0.179     ✓ Normal
6 Anderson-Darling     S_SM     1.091   0.006 ✗ Not normal

$descriptives
  Variable  n   Mean Std.Dev Median Min Max  25th  75th   Skew Kurtosis
1     S_BD 36 35.556   7.323   36.0  21  48 31.00 41.25 -0.280    2.182
2     S_CM 36 16.639   2.380   16.5  12  20 15.00 19.00 -0.336    2.363
3     S_HR 36 17.472   4.102   18.5   8  24 13.75 20.25 -0.556    2.367
4     S_PC 36 18.389   4.357   20.0   7  24 16.75 21.00 -0.900    3.304
5     S_RM 36 21.972   3.485   22.0  15  28 19.00 23.25  0.073    2.311
6     S_SM 36 25.333   4.840   26.5  14  31 23.75 29.00 -0.869    2.885

$data
   S_BD S_CM S_HR S_PC S_RM S_SM
1    33   12   21   23   22   28
2    35   13   19   13   22   27
4    27   18   18   17   21   28
5    43   18   20   24   26   30
6    35   16   22   20   23   24
7    35   19   22   20   23   24
8    44   20   13   21   20   26
9    39   15   17   24   28   29
10   34   18   21   13   19   25
11   42   16   12   20   23   27
12   43   17   19   14   23   31
13   44   17   13   17   23   27
14   44   16   22   21   27   31
15   41   20   20   24   28   29
16   36   20   18   18   22   24
18   48   19   21   19   22   30
19   48   19   24   20   27   31
20   37   15   20   20   24   30
21   31   15   19    9   15   25
22   32   19   22   18   26   28
23   40   17   16   20   26   27
24   38   19   20    7   19   28
25   43   16   23   24   28   31
26   31   16   18   23   22   16
27   39   13   19   20   22   21
28   31   20   13   21   16   15
29   21   16   12   20   17   14
32   26   16   18   18   19   19
33   30   15   12   21   19   25
34   23   17   13   23   22   23
35   23   16   16   15   17   26
37   41   20   20   14   23   31
38   26   15    8   16   20   24
44   36   17    9   19   19   16
47   24   12   15   17   20   19
48   37   12   14    9   18   23

$subset
NULL

$outlierMethod
[1] "none"

attr(,"class")
[1] "mvn"

Keputusan : Karena pada hasil perhitungan Uji Mardia Skewness dan Uji Mardia Skewness memiliki p-value lebih dari 0.05  maka terima H0

Kesimpulan : Dengan taraf nyata 5% dapat disimpulkan bahwa dataset Vinayak Oak yang telah dibuang outlier nya serta diterapkan metode bootstrap resampling berdistribusi normal multivariat sehingga asumsi normalitas multivariat terpenuhi.

3.3 Uji Asumsi Homogenitas Matriks Varians Kovarians

H0 :  Matriks varians kovarians homogen

H1 :  Matriks varians kovarians tidak homogen

α = 0.05

> uji_bart(data_hasil_akhir )

    Bartlett's test of sphericity

data:  data_hasil_akhir
Khi-squared = 105.28, df = 21, p-value = 3.327e-13

Keputusan : Karena nilai p-value kurang dari 0.05 maka tolak H0.

Kesimpulan : Dengan taraf nyata 5% dapat disimpulkan bahwa matriks varians kovarians dari dataset Vinayak Oak tidak homogen sehingga asumsi homogenitas tidak terpenuhi. Pelanggaran asumsi ini dapat ditangani dengan metode Quadratic Discriminant Analysis. Namun, pada praktikum ini metode tersebut tidak dilakukan karena saat ini penelitian berfokus hanya pada Linear Discriminant Analysis sehingga tidak dilakukan penanganan pada pelanggaran asumsi ini.

3.4 MANOVA untuk Mengetahui Perbedaan Rata-Rata Antar Kelompok Variabel Respons

H0 :  Tidak ada perbedaan signifikan pada rata-rata pada dua kelompok respons

H1 :  Ada perbedaan si$$gnifikan pada rata-rata pada dua kelompok respons

α = 0.05

> X.wilks
                   Df   Wilks approx F num Df den Df    Pr(>F)    
data_hasil_akhir$s  1 0.42061    6.658      6     29 0.0001657 ***
Residuals          34                                             
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Keputusan : Karena nilai p-value kurang dari 0.05 maka tolak H0.

Kesimpulan : Dengan taraf nyata 5% dapat disimpulkan bahwa terdapat perbedaan signifikan pada rata-rata kedua kelompok variabel respons, yaitu proyek berhasil dan proyek gagal.

3.5 Kontribusi Variabel Prediktor terhadap Variabel Respon

Kontribusi variabel prediktor terhadap variabel respons dapat diketahui menggunakan Canonical Discriminant Analysis.

> cc

Canonical Discriminant Analysis for data_hasil_akhir$s:

   CanRsq Eigenvalue Difference Percent Cumulative
1 0.57939     1.3775                100        100

Test of H0: The canonical correlations in the 
current row and all that follow are zero

  LR test stat approx F numDF denDF   Pr(> F)    
1      0.42061    6.658     6    29 0.0001657 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Interpretasi : 

  1. Berdasarkan hasil di atas, diketahui bahwa nilai Canonical R-Square sebesar 0.57939 yang menunjukkan bahwa kombinasi linear dari variabel prediktor dapat menjelaskan sekitar 57.94% variansi pada variabel respons, yaitu status keberhasilan proyek.

  2. Berdasarkan hasil di atas, diketahui bahwa nilai Eigen sebesar 1.3775 yang menunjukkan bahwa kemampuan fungsi diskriminan cukup kuat dalam memisahkan kelompok pada variabel respons.

3.6 Fungsi Diskriminan

Pada analisis ini, dihasilkan satu fungsi diskriminan karena data memiliki dua kelompok pada variabel respons.

> modellda
Call:
lda(data_hasil_akhir$s ~ ., data = data_hasil_akhir)

Prior probabilities of groups:
        1         2 
0.6388889 0.3611111 

Group means:
      S_BD     S_CM     S_HR     S_PC     S_RM     S_SM
1 38.78261 17.13043 19.21739 18.52174 23.34783 27.82609
2 29.84615 15.76923 14.38462 18.15385 19.53846 20.92308

Coefficients of linear discriminants:
              LD1
S_BD -0.055636531
S_CM -0.080141358
S_HR -0.120057009
S_PC -0.002232294
S_RM -0.007834781
S_SM -0.167683588

Fungsi diskriminan yang terbentuk : 

$$D=-0.055636531X1-0.080141358X2-0.120057009X3-0.002232294X4-0.007834781X5 -0.167683588X6$$

Berdasarkan fungsi diskriminan yang terbentuk, diketahui bahwa seluruh variabel memiliki kontribusi negatif terhadap status keberhasilan proyek. Variabel yang memiliki kontribusi negatif terbesar adalah variabel Self management dengan koefisien sebesar -0.167683588, sedangkan variabel dengan kontribusi negatif terkecil adalah variabel Project Control dengan koefisien sebesar -0.002232294.

3.7 Tabel Klasifikasi (Confusion Matrix)

> table(actual=data_hasil_akhir$s, predicted=pred_LDA1$class)
      predicted
actual  1  2
     1 23  0
     2  1 12

Dari tabel di atas, dapat dilihat bahwa fungsi diskriminan berhasil mengklasifikasikan status proyek berhasil sebanyak 23 dari 23 data sebenarnya serta berhasil mengklasifikasikan status proyek gagal sebanyak 12 dari 13 data sebenarnya. Hal ini menunjukkan bahwa fungsi diskriminan yang terbentuk memiliki akurasi yang sangat tinggi, yaitu sebesar 97.2 % sehingga fungsi diskriminan yang terbentuk sangat efektif dalam memisahkan kedua kelompok berdasarkan variabel yang digunakan.

4 KESIMPULAN

Berdasarkan hasil analisis, dapat diketahui bahwa seluruh variabel prediktor yang diteliti berkontribusi secara negatif terhadap status keberhasilan proyek dimana variabel dengan kontribusi negatif terbesar yaitu  Self management sedangkan variabel Project Control memberikan kontribusi negatif terkecil daripada variabel lain.

Fungsi diskriminan yang telah terbentuk memiliki akurasi yang sangat tinggi dalam mengklasifikasikan status keberhasilan suatu  proyek berdasarkan variabel yang diukur. Dari hasil klasifikasi, fungsi diskriminan terbukti mampu mengklasifikasikan sebesar 97.2% data ke dalam kelompok statusnya dengan benar.

Namun, hasil analisis ini kekurangan dimana asumsi homogenitas matriks varians kovarians tidak terpenuhi pada praktikum ini. Hal ini dapat menyebabkan analisis yang dihasilkan menjadi kurang tepat. Pelanggaran asumsi ini dapat ditangani dengan metode Quadratic Discriminant Analysis (QDA). Namun, pada praktikum ini peneliti hanya berfokus hanya Linear Discriminant Analysis sehingga penggunaan metode QDA tidak digunakan pada penelitian ini. Oleh karena itu, disarankan untuk penelitian selanjutnya menggunakan Quadratic Discriminant Analysis pada studi kasus ini  agar hasil analisis yang diberikan menjadi lebih tepat.

5 DAFTAR PUSTAKA

Hair, J. F., Black, W. C., Babin, B. J., & Anderson, R. E. (2019). Multivariate Data Analysis (8th ed.). Cengage Learning.

Oak, Vinayak (2018), “Dataset for discriminant analysis”, Mendeley Data, V1, doi: 10.17632/pd6gsm2m9r.1

Rencher, A. C. (2002). Methods of Multivariate Analysis. John Wiley & Sons.

Tabachnick, B. G., & Fidell, L. S. (2019). Using Multivariate Statistics (7th ed.). Pearson.