1 Pendahuluan

1.1 Latar Belakang

Salah satu masalah pokok yang dihadapi oleh Bangsa Indonesia adalah kemiskinan wilayah. Masalah kemiskinan ini kerap menjadi perhatian dan pemerintah selalu berupaya membuat strategi penanggulannya agar angka kemiskinan di Indonesia dapat terus menurun. Menurut Hakim (2018), masalah kemiskinan harus dipahami kondisi di masing-masing daerah. Kemiskinan tidak hanya berkaitan dengan rendahnya tingkat pendapatan dan konsumsi, akan tetapi juga berhubungan dengan tingkat pendidikan, kesehatan serta berbagai hal yang berkaitan dengan pembangunan manusia.

Salah satu daerah yang termasuk adalah Jawa Tengah. Provinsi Jawa Tengah ini memiliki jumlah penduduk terbesar ketiga di Indonesia. Berdasarkan data Badan Pusat Statistik (BPS), per Maret 2021 tingkat kemiskinan sebesar 11,79% atau setara dengan jumlah penduduk miskin sebanyak 4,11 juta jiwa. Kemiskinan di suatu wilayah dapat dijelaskan melalui beberapa indikator atau faktor-faktor, berdasarkan infrastruktur pelayanan dasar, tingkat pendidikan, status kesehatan, dan lainnya.

Berdasarkan kondisi tersebut, penelitian ini bertujuan mereduksi dimensi dari suatu dataset yang kompleks dengan mentransformasikan variabel-variabel tersebut ke dalam bentuk komponen utama yang saling bebas secara linear, dengan menggunakan metode analisis komponen utama (Principal Component Analysis).

2 Tinjauan Pustaka

2.1 Analisis Multivariat

Analisis multivariat adalah analisis statistika yang digunakan pada data yang memiliki lebih dari dua variabel secara bersamaan. Secara umum, Analisis multivariat berhubungan dengan metode-metode statistik yang melakukan analisis terhadap lebih dari dua variabel secara bersama-sama (simultan) pada setiap objek. Teknik analisis multivariat diklasifikasikan menjadi menjadi dua yaitu analisis dependensi dan analisis interdependensi. Analisis dependensi merupakan analisis untuk mengetahui hubungan antara variabel terikat dengan dua atau lebih variabel bebas. Contoh analisis dependensi, yaitu analisis varians (ANOVA), analisis varians multivariat (MANOVA), analisis kovarians (ANCOVA), analisis regresi berganda, dan analisis diskriman. Sedangkan analisis interdependensi adalah analisis untuk mengetahui hubungan antar variabel bebas. Contoh analisis interdependensi, yaitu analisis faktor, analisis cluster, Principal Component Analysis (PCA), dan Multidimensional Scalling (MSD). (Kania, 2018)

2.2 Principal Component Analysis (PCA)

Principal Component Analysis (PCA) atau Analisis Komponen Utama (AKU) adalah sebuah metode analisis statistik yang digunakan untuk mengidentifikasi pola dalam data multivariat. PCA adalah teknik yang sangat berguna untuk mengurangi dimensi data, yaitu mengubah banyak variabel menjadi beberapa variabel yang saling independen. Teknik ini juga dapat membantu dalam mengidentifikasi variabel yang paling penting dalam menjelaskan variabilitas dalam data. PCA berfungsi dengan cara mencari kombinasi linier dari variabel yang ada dalam dataset yang mampu menjelaskan varian terbesar dari dataset. Dalam konteks PCA, kombinasi linier yang dimaksud adalah komponen utama. Komponen utama merupakan variabel baru yang dihasilkan dari transformasi data asli dan terurut berdasarkan tingkat signifikansinya dalam menjelaskan variabilitas dalam data. Komponen utama pertama memiliki varian terbesar dalam data, sedangkan komponen utama terakhir memiliki varian terkecil. Pereduksian dimensi dilakukan dengan kriteria persentase keragaman data yang diterangkan oleh beberapa komponen utama pertama. Jika beberapa komponen utama telah menerangkan lebih dari 75% keragaman data asli, maka analisis cukup dilakukan sampai komponen utama tersebut.

Langkah -langkah ketika melakukan Analisis Komponen Utama adalah sebagai berikut :

  1. Memilih variabel yang berskala numerik dan tidak memasukkan variabel respons
  2. Menstandardisasikan data ke dalam normal baku, jika variabel yang digunakan memiliki satuan dan rentang yang berbeda.
  3. Menghitung matriks varian-kovarian dari data yang sudah distandarisasi, atau dapat juga menghitung matriks korelasi,dan dilanjut ke langkah selanjutnya.
  4. Menghitung vektor eigen dan nilai eigen dari matriks varian-kovarian atau matriks korelasi.
  5. Maka nantinya akan terbentuk komponen utama sebanyak (p) variabel, yang bersifat saling tegak lurus dan saling bebas. Persamaan utama yang dapat terbentuk, yaitu:

\[ Y_1 = u^{'}_1X = u^{'}_{11}X_1 + u^{'}_{12}X_2 + ... + u^{'}_{1p}X_p \]

\[Y_2 = u^{'}_2X = u^{'}_{21}X_1 + u^{'}_{22}X_2 + ... + u^{'}_{2p}X_p\] \[...\] \[ Y_p = u^{'}_pX = u^{'}_{p1}X_1 + u^{'}_{p2}X_2 + ... + u^{'}_{pp}X_p \]

3 Studi Kasus

3.1 Data

Data tersebut adalah data-data faktor kemiskinan pada Kabupaten/Kota di provinsi Jawa Tengah yang diambil dari publikasi Badan Pusat Statistik (BPS) pada tahun 2020. Data terdiri atas 29 Kabupaten dan 6 Kota, sehingga total 35 Kab/Kota dengan 10 variabel yang merupakan faktor-faktor kemiskinan. Data keseluruhan dapat diakses: (https://bit.ly/DataFaktorFaktorKemiskinanJateng2020)

Berikut adalah preview datanya:

## # A tibble: 35 × 11
##    `Kota/Kab`      X1    X2    X3    X4    X5    X6    X7    X8    X9   X10
##    <chr>        <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
##  1 Cilacap       42.5  49.4  31.2  35.2  95.2  1285   198  94.2  75.5  8.12
##  2 Banyumas      25.9  56.9  38.2  42.7  90.3  1027   166  92.1  67.1  6.91
##  3 Purbalingga   28.7  62.3  43.8  48.7  96.6   803    96  90.8  64.9  6.83
##  4 Banjarnegara  35.3  56.5  34.9  29.7  92.4   984    93  85.0  24.1  5.82
##  5 Kebumen       25.1  60.4  41.8  47.2  91.2   967   140  93.0  85.2  5.69
##  6 Purworejo     26.2  57.8  40.6  36.4  84.6   620   116  91.1  66.8 10.4 
##  7 Wonosobo      32.4  60.5  43.5  39.0  92.6   677    87  89.9  17.3  9.93
##  8 Magelang      30.6  57.8  37.1  39.2  90.5  1068   113  90.6  63.2 11.2 
##  9 Boyolali      44.4  45.4  38.6  27.8  92.8   854    92  93.0  79.5 16.0 
## 10 Klaten        33.2  41.1  38.5  43.8  88.6  1175   203 100    92.8  2.44
## # ℹ 25 more rows

3.2 Variabel

Variabel Keterangan
X1 Pendidikan tertinggi < SD (%)
X2 Pendidikan tertinggi SMP (%)
X3 Penduduk dengan keluhan kesehatan (%)
X4 Jumlah kepemilikan jamkesmas (%)
X5 Rumah dengan status kepemilikan pribadi (%)
X6 Banyaknya sekolah negeri
X7 Banyaknya fasilitas kesehatan
X8 Air bersih (TPAK) (%)
X9 Sanitasi (%)
X10 Rumah tidak layak huni (%)

4 Source Code

4.1 Library

library(readxl)
library(corrplot)
library(factoextra)
library(FactoMineR)
library(heatmaply)

library(readxl) digunakan untuk membaca data dari file Excel (.xls atau .xlsx).

library(corrplot) menyediakan fungsi untuk membuat visualisasi matriks korelasi. Fungsi yang paling umum digunakan dari pustaka ini adalah corrplot(), yang menghasilkan plot matriks korelasi dengan berbagai opsi penyesuaian.

library(factoextra) mendukung visualisasi hasil analisis faktor dan komponen utama (PCA). Beberapa fungsi yang berguna termasuk fviz_pca_biplot() untuk membuat biplot PCA dan fviz_screeplot() untuk membuat plot kumulatif variabilitas.

library(FactoMineR) menyediakan berbagai alat untuk analisis faktor dan analisis komponen utama. Fungsi utamanya termasuk PCA() untuk melakukan analisis komponen utama dan factoextra() untuk menghasilkan visualisasi hasil analisis tersebut.

library(heatmaply) digunakan untuk membuat heatmap interaktif dari matriks atau data frame.

4.2 Import Data

data <- read_excel("D:/KULIAH/Semester 5/AnMul/PRAKTIKUM/datapca.xlsx")
data

Syntax ini digunakan untuk membaca file Excel dengan format .xlsx dan menyimpan datanya dalam sebuah objek bernama data.

4.3 Statistika Deskriptif

dat4 <- data[,-1]
summary(dat4)

Syntax tersebut artinya membuat subset dataset baru dat4 tanpa kolom pertama dari dataset asli data, dan kemudian menampilkan ringkasan statistik dari subset dataset tersebut menggunakan fungsi summary().

4.4 Eksplorasi Korelasi

  1. Plot Korelasi.
korelasi <- cor(dat4)
corrplot(korelasi, method="number")

Syntax ini menghitung korelasi antar variabel dalam dataset dat4 dan kemudian membuat visualisasi matriks korelasi dengan menampilkan angka-angka korelasi di dalamnya menggunakan paket corrplot.

  1. Heatmap Korelasi
heatmaply(korelasi,method="number",main = "Heatmap of Correlation")

Fungsi heatmaply dapat membuat heatmap interaktif yang memvisualisasikan matriks korelasi dengan menampilkan angka-angka korelasi di dalamnya. Interaktifitasnya dapat mencakup berbagai fitur seperti zooming, panning, dan informasi tambahan saat mouse diarahkan ke sel-sel pada heatmap.

4.5 Matriks Varian-Kovarian

-> Melakukan Standarisasi data

stdata <- scale(dat4)
stdata

Syntax ini dapat diartikan sebagai melakukan standardisasi pada dataset dat4 dan menyimpan hasilnya dalam variabel baru stdata. Kemudian, perintah terakhir menampilkan isi dari variabel tersebut, yang akan berisi dataset yang telah di-standardisasi. Standardisasi dapat membantu dalam membandingkan variabel dengan unit yang berbeda atau dalam konteks analisis statistik tertentu.

-> Dekomposisi Eigen

scov <- cov(stdata)
scov
eigscv <- eigen(scov)
eigscv

Syntax ini menghitung matriks kovarian dari dataset yang telah di-standardisasi (stdata) dan menyimpannya dalam variabel scov. Selanjutnya, nilai eigen dari matriks kovarian dihitung menggunakan fungsi eigen dan disimpan dalam variabel eigscv.

-> Scree Plot

plot(eigscv$values, xlab="PC", ylab = "Nilai Eigen",
     main = "Scree Plot", type = "b", col = "blue")
abline(h = 1, col = "red",lty = 10)

Syntax ini menghasilkan “Scree Plot” dengan nilai eigen pada sumbu y dan nomor komponen utama (principal component) pada sumbu x. Garis horizontal pada nilai eigen 1 membantu dalam menentukan berapa banyak komponen utama yang sebaiknya dipertahankan dalam analisis komponen utama.

-> Nilai Kumulatif Eigen

for (eg in eigscv$values){
  print(eg / sum(eigscv$values))
}

Perulangan ini digunakan untuk mencetak proporsi kontribusi masing-masing nilai eigen terhadap total variasi. Proporsi ini memberikan informasi tentang seberapa banyak variabilitas dalam dataset yang dapat dijelaskan oleh setiap komponen principal (nilai eigen).

-> Persamaan Komponen Utama

eigscv$vectors[,1:4]

Hasil dari syntax ini adalah matriks eigenvectors yang terkait dengan komponen utama pertama hingga keempat dari analisis komponen utama pada dataset.

4.6 Matriks Korelasi

-> Dekomposisi Eigen

eigcor <- eigen(korelasi)
eigcor

Syntax ini digunakan untuk menghitung nilai eigen dari matriks korelasi (korelasi) menggunakan fungsi eigen dalam R. Nilai eigen dan vektor eigen dari matriks korelasi, akan disimpan pada variabel eigcor.

-> Scree Plot

plot(eigcor$values, xlab="PC", ylab = "Nilai Eigen",
     main = "Scree Plot", type = "o", col = "red")
abline(h = 1, col = "blue",lty = 10)

Syntax ini menghasilkan “Scree Plot” dengan nilai eigen pada sumbu y dan nomor komponen utama (principal component) pada sumbu x. Garis horizontal pada nilai eigen 1 membantu dalam menentukan berapa banyak komponen utama yang sebaiknya dipertahankan dalam analisis komponen utama. Garis ini dapat digunakan sebagai kriteria untuk memilih jumlah komponen utama yang signifikan.

-> Nilai Kumulatif Eigen

for (eg in eigcor$values){
  print(eg / sum(eigcor$values))
}

Perulangan ini menghitung dan mencetak proporsi kontribusi masing-masing nilai eigen terhadap total variasi dalam matriks korelasi. Proporsi ini memberikan gambaran tentang seberapa banyak variasi dalam data yang dapat dijelaskan oleh setiap komponen utama. Proporsi ini biasanya digunakan untuk memutuskan berapa banyak komponen utama yang harus dipertahankan dalam analisis faktor atau analisis komponen utama.

-> Persamaan Komponen Utama

eigcor$vectors[,1:4]

Hasil dari syntax ini adalah matriks eigenvectors yang terkait dengan komponen utama pertama hingga keempat dari analisis komponen utama pada matriks korelasi.

4.7 Fungsi PCA

  1. fungsi prcomp()
pca1 <- prcomp(dat4, scale=TRUE, center=TRUE)
pca1
summary(pca1)

Syntax ini melakukan analisis komponen utama pada dataset dat4, termasuk proses scaling dan centering, dan kemudian menampilkan hasil PCA serta ringkasan statistik yang relevan.

  1. princomp()
pca <- princomp(dat4, cor=TRUE)
summary(pca)
pca

Syntax ini melakukan analisis komponen utama pada dataset dat4 dengan menggunakan korelasi antar variabel, dan kemudian menampilkan hasil PCA serta ringkasan statistik yang relevan. Perbedaan antara prcomp dan princomp terletak pada cara mereka memperlakukan data (misalnya, scaling dan centering) dan perhitungan nilai eigen.

-> Persamaan Komponen Utama

round(pca1$rotation[,1:4],4)

Syntax digunakan untuk membulatkan nilai-nilai dalam matriks rotasi dari PCA ke empat desimal dan hanya menampilkan kolom pertama hingga keempat. Lalu, dari rotasi tersebut kita dapat menentukan variabel mana saja yang masuk ke masing-masing komponen utama.

4.8 Rekonstruksi Data

Setelah didapatkan persamaan komponen utamanya, maka kita dapat ‘merekonstruksi’ data dengan memasukkan nilai variabel pada komponen utama yang dibuat. Kita perlu mereduksi data yang berawal dari 10 dimensi/variabel menjadi 4 dimensi/variabel namun tetap menggambarkan keragaman data.

4.8.1 Hasil PCA dengan mempertimbangkan nilai variabel

var <- get_pca_var(pca1)
var

var yang berisi informasi tambahan terkait hasil PCA, yang didapatkan dari fungsi get_pca_var(). Fungsi tersebut digunakan untuk menyediakan daftar matriks yang berisi semua hasil untuk variabel yang aktif (koordinat, korelasi antara variabel dan sumbu, kosinus kuadrat, dan kontribusi).

-> Nilai kontribusi variabel

var <- get_pca_var(pca1)
var$contrib

Syntax ini menghasilkan variabel var yang mengakses dan menampilkan kontribusi setiap variabel terhadap masing-masing komponen utama menggunakan $contrib. Kontribusi variabel ini dapat memberikan wawasan tentang variabilitas yang dijelaskan oleh masing-masing variabel dalam pembentukan komponen utama.

-> Plot Kontribusi Variabel

 fviz_pca_var(pca1, col.var = "contrib", 
             gradient.cols = c("#0033FF", "#FFF999", "#CC0000"), repel = T)

Syntax ini digunakan untuk membuat visualisasi variabilitas dan kontribusi variabel terhadap masing-masing komponen utama yang dihasilkan dari analisis komponen utama (PCA). Warna variabel pada grafik menggambarkan kontribusi relatif variabel tersebut, dan gradasi warna mencerminkan tingkat kontribusinya. Teknik repel juga membantu mempertahankan kejelasan label variabel pada grafik, terutama saat ada tumpang tindih.

-> Nilai kosinus kuadrat (cos2) variabel.

var <- get_pca_var(pca1)
var$cos2

Syntax ini menghasilkan variabel var yang berisi informasi tambahan terkait hasil PCA, dan kemudian mengakses dan menampilkan cosinus kuadrat setiap variabel terhadap masing-masing komponen utama menggunakan $cos2. Cosinus kuadrat ini memberikan informasi tentang seberapa baik variabel-variabel tersebut direpresentasikan oleh komponen utama yang terkait. Semakin tinggi nilai cosinus kuadrat, semakin baik variabel direpresentasikan oleh komponen utama tersebut.

-> Plot cos2 Variabel

fviz_pca_var(pca1, col.var = "cos2",
             gradient.cols = c("#00FF00", "#FFFF66", "#FF6633"), repel = T)

Syntax plot ini merepresentasikan dengan ruang dua dimensi, maka visualisasi kosinus kuadrat setiap variabel hanya bisa terhadap 2 komponen utama yang dihasilkan dari analisis komponen utama (PCA). Warna variabel pada grafik menggambarkan cosinus kuadrat relatif variabel tersebut, dan gradasi warna mencerminkan tingkat cosinus kuadratnya. Teknik repel membantu mempertahankan kejelasan label variabel pada grafik, terutama saat ada tumpang tindih. Semakin tinggi nilai cosinus kuadrat, semakin baik variabel direpresentasikan oleh komponen utama tersebut.

-> Diagram Batang cos2 Variabel

fviz_cos2(pca1, choice = "var", axes = 1:4)

Syntax ini digunakan untuk membuat visualisasi berbentuk diagram batang untuk kosinus kuadrat dari variabel terhadap empat komponen utama pertama yang dihasilkan dari analisis komponen utama (PCA).

4.8.2 Hasil PCA dengan mempertimbangkan nilai individu

ind <- get_pca_ind(pca1)
ind

Fungsi get_pca_ind() ini memberikan daftar matriks yang berisi semua hasil untuk individu (koordinat, korelasi antara individu dan sumbu, kosinus persegi, dan kontribusi). Untuk individu, analisis akan difokuskan pada cos2 dan kontribusi individu ke komponen utama yang terpilih.

-> Nilai kosinus kuadrat (cos2) variabel.

ind <- get_pca_var(pca1)
ind$cos2

Syntax ini menghasilkan variabel ind yang berisi informasi tambahan terkait hasil PCA, dan kemudian mengakses dan menampilkan cosinus kuadrat setiap individu terhadap masing-masing komponen utama menggunakan $cos2. Cosinus kuadrat ini memberikan informasi tentang seberapa baik individu-individu tersebut direpresentasikan oleh komponen utama yang terkait. Semakin tinggi nilai cosinus kuadrat, semakin baik individu direpresentasikan oleh komponen utama tersebut.

-> Plot cos2 Individu

fviz_pca_ind(pca, col.ind = "cos2", 
             gradient.cols = c("#FF66FF", "#FFFF00", "#FF3300"),
             repel = TRUE)

Syntax ini digunakan untuk membuat visualisasi hasil dari analisis komponen utama (PCA) untuk individu atau observasi dalam dataset. Plot ini hanya dapat menginterpretasikan representasi terhadap 2 komponen utama karena plot ini merupakan plot dengan dua dimensi.

-> Nilai Kontribusi Individu

ind <- get_pca_var(pca1)
ind$contrib

Syntax ini menghasilkan variabel ind yang mengakses dan menampilkan kontribusi setiap individu terhadap masing-masing komponen utama menggunakan $contrib.

-> Diagram Batang Kontribusi Individu

fviz_contrib(pca1, choice = "ind", axes = 1:4)

Syntax ini digunakan untuk membuat visualisasi kontribusi setiap individu terhadap empat komponen utama pertama yang dihasilkan dari analisis komponen utama (PCA), dengan bentuk diagram batang.

5 Hasil dan Pembahasan

5.1 Statistika Deskriptif

##        X1              X2              X3              X4       
##  Min.   : 7.56   Min.   :41.11   Min.   :22.86   Min.   :23.44  
##  1st Qu.:21.57   1st Qu.:52.42   1st Qu.:33.17   1st Qu.:33.36  
##  Median :30.48   Median :57.78   Median :38.52   Median :38.95  
##  Mean   :27.96   Mean   :56.49   Mean   :37.40   Mean   :38.54  
##  3rd Qu.:33.07   3rd Qu.:61.15   3rd Qu.:41.45   3rd Qu.:43.24  
##  Max.   :45.48   Max.   :76.44   Max.   :53.07   Max.   :56.14  
##        X5              X6               X7              X8        
##  Min.   :55.73   Min.   : 102.0   Min.   : 25.0   Min.   : 70.04  
##  1st Qu.:84.72   1st Qu.: 626.0   1st Qu.: 92.5   1st Qu.: 92.16  
##  Median :91.27   Median : 726.0   Median :125.0   Median : 95.60  
##  Mean   :87.11   Mean   : 725.5   Mean   :120.2   Mean   : 94.48  
##  3rd Qu.:93.53   3rd Qu.: 944.0   3rd Qu.:142.5   3rd Qu.: 97.80  
##  Max.   :97.33   Max.   :1285.0   Max.   :223.0   Max.   :100.00  
##        X9             X10       
##  Min.   :17.34   Min.   : 1.13  
##  1st Qu.:68.83   1st Qu.: 3.50  
##  Median :82.64   Median : 8.12  
##  Mean   :75.88   Mean   :10.15  
##  3rd Qu.:89.16   3rd Qu.:11.39  
##  Max.   :95.35   Max.   :43.82

Pada output tersebut dapat terlihat bahwa setiap variabel memiliki rentang yang cukup jauh, sehingga diperlukan standarisasi pada data.

5.2 Eksplorasi Korelasi

  1. Plot Korelasi

Berdasarkan plot tersebut, dapat dilihat bahwa terdapat korelasi yang cukup tinggi pada X6 dan X7, serta X5 dan X6. Begitu pula dengan variabel lain yang juga memiliki korelasi, sehingga dapat diasumsikan bahwa data ini memiliki multikolinieritas. Dengan adanya multikolinieritas pada data, maka artinya data ini perlu dilakukan analisis komponen utama.

  1. Heatmap Korelasi

Pada gambar tersebut terlihat bahwa terdapat korelasi antar variabel, khususnya variabel X6 dan X7, serta X5 dan X6. Maka diasumsikan data memiliki masalah multikolinieiritas dan perlu analisis komponen utama untuk penanganannya.

5.3 Matriks Varian-Kovarian

-> Melakukan Standarisasi data

##                X1           X2          X3           X4         X5           X6
##  [1,]  1.55358454 -0.888157845 -0.97647445 -0.407242315  0.7689479  1.860626061
##  [2,] -0.22150777  0.046075719  0.11902990  0.504633089  0.3028570  1.002621091
##  [3,]  0.08380382  0.730762330  1.00012840  1.225931358  0.9062016  0.257686543
##  [4,]  0.79084119 -0.001576463 -0.38490210 -1.064612811  0.5077845  0.859620262
##  [5,] -0.30720927  0.492501421  0.69182218  1.051034620  0.3876874  0.803085051
##  [6,] -0.18829844  0.161444159  0.50871645 -0.261294003 -0.2423455 -0.350898378
##  [7,]  0.47588818  0.507549479  0.95943824  0.049901572  0.5192223 -0.161339141
##  [8,]  0.27984600  0.167714183 -0.04373075  0.080056182  0.3228731  1.138970718
##  [9,]  1.75926814 -1.394775777  0.18789018 -1.293787846  0.5420979  0.427292176
## [10,]  0.56266095 -1.928981815  0.17537013  0.630076266  0.1389150  1.494809988
## [11,] -0.73464550 -1.683196877 -1.71046237 -0.003170542 -0.5416349 -0.078199124
## [12,]  0.45339154  0.032281666 -2.27542962 -1.161107562  0.9738754  0.699991430
## [13,] -1.30563173  0.202826316 -1.11576001 -1.115272555  0.2513868 -0.310991170
## [14,]  0.37733146 -1.169054916 -0.80275876 -0.615912215  0.5554420  0.001615292
## [15,] -0.43790405  1.201014124  0.29744061  0.089705657  0.8413874  0.936109077
## [16,]  1.87710770 -1.890107667  1.41172504 -0.173242542  0.5258943  0.021568896
## [17,]  0.27020458  0.734524345  0.71842728  2.123332549  0.6993678 -0.769924061
## [18,]  0.97188561 -1.127672758  0.09398980  0.399695047  0.7994487  0.753201041
## [19,] -0.92747387  0.938927124  0.54001658 -1.820890427  0.4210477 -0.483922405
## [20,]  0.84547590 -0.073054736 -1.13610509 -0.263706371  0.4410639  0.277640147
## [21,] -0.39291077  0.660538062  0.67304210  0.285107529  0.6783985 -0.114780731
## [22,] -0.07795776  0.363338929 -0.31604183 -1.813653321  0.3962658  0.041522500
## [23,]  0.44375012  0.303146699  0.38195095  0.131922111  0.6688670 -0.214548751
## [24,]  0.87332889 -0.466812238  0.20823526 -1.231066257  0.4744242 -0.134734335
## [25,]  0.28520235  1.149599928 -0.78867371 -0.632798797  0.6946021 -0.237827956
## [26,] -1.24349815  2.501417084  0.09085979  1.217488067  0.1484465 -0.177967144
## [27,]  0.36233370  0.438579216  0.59322679  0.437086763 -0.2137510  0.497129790
## [28,]  1.35111475 -0.553338568 -0.53514270 -0.508561804 -0.4472730  0.543688199
## [29,]  0.53266543  0.458643292  0.77633251  1.458724946  0.3476551  1.468205183
## [30,] -1.77484744 -0.308807635 -1.45536636  0.921972890 -2.1524604 -2.073559520
## [31,] -1.41382988 -0.094372817  1.36477485  2.002714109 -2.9912334 -1.578045022
## [32,] -0.63287497 -1.587892514  0.28179055 -0.489262854 -1.5090834 -1.980442702
## [33,] -2.18514337 -0.219773295 -1.80436274 -1.088736498 -1.8036071 -0.583690424
## [34,] -1.45882317  1.253682325 -0.18145129  0.876137883 -1.4337844 -1.980442702
## [35,] -0.84712871  1.043009521  2.45245418  0.458798082 -1.9789869 -1.854069877
##                 X7          X8          X9         X10
##  [1,]  1.555912139 -0.05124678 -0.01977776 -0.20610547
##  [2,]  0.915948277 -0.43572716 -0.46731191 -0.32895651
##  [3,] -0.483972671 -0.67693419 -0.58330005 -0.33707889
##  [4,] -0.543969283 -1.72700088 -2.74417501 -0.43962398
##  [5,]  0.395977640 -0.26525001  0.49237079 -0.45282285
##  [6,] -0.083995257 -0.61527224 -0.48373032  0.03045894
##  [7,] -0.663962507 -0.83471623 -3.10061345 -0.02233655
##  [8,] -0.143991869 -0.70595157 -0.67439576  0.10559098
##  [9,] -0.563968153 -0.27613153  0.19048385  0.59090336
## [10,]  1.655906493  1.00063350  0.89859410 -0.78279465
## [11,]  0.195988933  0.73766343  1.00875635 -0.71680029
## [12,]  2.055883906  0.73584985  0.51620397 -0.51983251
## [13,]  0.475973122  0.51821944  0.77942820 -0.74725923
## [14,]  1.895892941  0.19721460  0.72699521  0.65385182
## [15,]  0.315982157 -4.43287223  0.54215566  3.18194351
## [16,] -0.363979446 -0.40670977  0.40286396  3.41850791
## [17,] -0.483972671  0.38401403  0.75188764  1.67422618
## [18,]  0.235986674  0.46743902  0.69098062  0.57871978
## [19,]  0.095994579  0.50371075  0.45529696 -0.66806599
## [20,] -0.123992998 -0.23985979 -1.29776581  0.31575764
## [21,]  0.415976510  0.05756842  0.53050388 -0.10051449
## [22,]  0.335981027  0.68506942 -0.18502114 -0.17564653
## [23,] -0.823953472 -0.61345865 -1.59753425 -0.17869242
## [24,]  0.215987803  0.56174552  0.35784574  0.83660544
## [25,] -0.743957989  0.62340747 -1.35602470  0.14721819
## [26,] -0.003999774 -0.53547443 -0.03672579 -0.48226649
## [27,]  0.895949407  0.20265536 -0.21415058 -0.05584138
## [28,]  0.235986674  0.57988139  0.23867984 -0.54115376
## [29,]  0.695960700  0.16275645 -0.27982423 -0.04467311
## [30,] -1.903892489  1.00063350  0.29111283 -0.74928982
## [31,] -1.223930886  0.64517051  0.71534343 -0.91579867
## [32,] -1.743901524  0.80476614  1.03100065 -0.82340657
## [33,]  0.815953924  0.46925260  1.02941178 -0.68228016
## [34,] -1.783899265  0.47832054  0.75930241 -0.84675842
## [35,] -1.723902653  1.00063350  0.63113286 -0.71578499
## attr(,"scaled:center")
##        X1        X2        X3        X4        X5        X6        X7        X8 
##  27.95771  56.49257  37.39943  38.53629  87.11257 725.51429 120.20000  94.48257 
##        X9       X10 
##  75.88343  10.15000 
## attr(,"scaled:scale")
##         X1         X2         X3         X4         X5         X6         X7 
##   9.334726   7.974451   6.389751   8.290606  10.491515 300.697559  50.002823 
##         X8         X9        X10 
##   5.513935  18.881241   9.849326
##        X1                X2                X3                X4         
##  Min.   :-2.1851   Min.   :-1.9290   Min.   :-2.2754   Min.   :-1.8209  
##  1st Qu.:-0.6838   1st Qu.:-0.5101   1st Qu.:-0.6619   1st Qu.:-0.6244  
##  Median : 0.2702   Median : 0.1614   Median : 0.1754   Median : 0.0499  
##  Mean   : 0.0000   Mean   : 0.0000   Mean   : 0.0000   Mean   : 0.0000  
##  3rd Qu.: 0.5477   3rd Qu.: 0.5840   3rd Qu.: 0.6331   3rd Qu.: 0.5674  
##  Max.   : 1.8771   Max.   : 2.5014   Max.   : 2.4525   Max.   : 2.1233  
##        X5                X6                  X7                 X8         
##  Min.   :-2.9912   Min.   :-2.073559   Min.   :-1.90389   Min.   :-4.4329  
##  1st Qu.:-0.2280   1st Qu.:-0.330945   1st Qu.:-0.55397   1st Qu.:-0.4212  
##  Median : 0.3963   Median : 0.001615   Median : 0.09599   Median : 0.2027  
##  Mean   : 0.0000   Mean   : 0.000000   Mean   : 0.00000   Mean   : 0.0000  
##  3rd Qu.: 0.6122   3rd Qu.: 0.726596   3rd Qu.: 0.44597   3rd Qu.: 0.6016  
##  Max.   : 0.9739   Max.   : 1.860626   Max.   : 2.05588   Max.   : 1.0006  
##        X9               X10         
##  Min.   :-3.1006   Min.   :-0.9158  
##  1st Qu.:-0.3736   1st Qu.:-0.6752  
##  Median : 0.3578   Median :-0.2061  
##  Mean   : 0.0000   Mean   : 0.0000  
##  3rd Qu.: 0.7032   3rd Qu.: 0.1264  
##  Max.   : 1.0310   Max.   : 3.4185

Pada statistik deskriptif sebelumnya, terlihat bahwa rentang data pada setiap variabel cukup jauh. Selain itu, terdapat beberapa variabel yang memiliki satuan yang berbeda, sehingga dilakukan standarisasi data untuk mengatasi hal tersebut. Standarisasi data ini berfungsi untuk menyamaratakan satuan pada variabel. Data yang telah distandarisasi kemudian dapat dianalisis lebih lanjut.

-> Dekomposisi Eigen

##             X1          X2          X3           X4          X5         X6
## X1   1.0000000 -0.42220486  0.11199985 -0.198498085  0.64214939  0.6242001
## X2  -0.4222049  1.00000000  0.21488910  0.247786024  0.05026097 -0.1680254
## X3   0.1119999  0.21488910  1.00000000  0.431300418 -0.06318290 -0.1421450
## X4  -0.1984981  0.24778602  0.43130042  1.000000000 -0.25302482 -0.1283230
## X5   0.6421494  0.05026097 -0.06318290 -0.253024818  1.00000000  0.7172464
## X6   0.6242001 -0.16802542 -0.14214504 -0.128323016  0.71724636  1.0000000
## X7   0.2976350 -0.20873044 -0.37795123 -0.258751958  0.52140434  0.7427943
## X8  -0.1561520 -0.27899039 -0.16428371 -0.028810002 -0.39594404 -0.3729171
## X9  -0.3327742 -0.26232878 -0.07791312  0.095148443 -0.34361557 -0.2428226
## X10  0.4592840 -0.10097912  0.23722374  0.005290862  0.44567239  0.2298422
##              X7          X8          X9          X10
## X1   0.29763496 -0.15615200 -0.33277415  0.459283969
## X2  -0.20873044 -0.27899039 -0.26232878 -0.100979117
## X3  -0.37795123 -0.16428371 -0.07791312  0.237223736
## X4  -0.25875196 -0.02881000  0.09514844  0.005290862
## X5   0.52140434 -0.39594404 -0.34361557  0.445672387
## X6   0.74279434 -0.37291714 -0.24282258  0.229842231
## X7   1.00000000 -0.03562835  0.16251118  0.079686230
## X8  -0.03562835  1.00000000  0.38358395 -0.555798143
## X9   0.16251118  0.38358395  1.00000000  0.012854808
## X10  0.07968623 -0.55579814  0.01285481  1.000000000
## eigen() decomposition
## $values
##  [1] 3.37948374 2.09549898 1.30790620 1.04970385 0.89885076 0.53863505
##  [7] 0.38487152 0.15821245 0.13022990 0.05660755
## 
## $vectors
##              [,1]        [,2]        [,3]        [,4]        [,5]        [,6]
##  [1,]  0.42934499  0.01273735 -0.29769670 -0.35835200  0.26367633 -0.06637578
##  [2,] -0.11512136  0.40462517  0.52397079  0.31951305 -0.01278285 -0.43407612
##  [3,] -0.06556127  0.48464611 -0.38068996 -0.03027072  0.29345531 -0.44686775
##  [4,] -0.17780032  0.33861862 -0.24784758  0.43851096  0.47484509  0.44537592
##  [5,]  0.47920840  0.07365645  0.12032858  0.05951025  0.04126816 -0.35616834
##  [6,]  0.47599424 -0.07103977  0.07197772  0.23469018  0.29387678  0.18198977
##  [7,]  0.34799545 -0.34594853  0.07856418  0.47800659  0.11954105 -0.10091336
##  [8,] -0.26532380 -0.42737898 -0.14359485 -0.14342520  0.42120850 -0.42212106
##  [9,] -0.18753386 -0.31088170 -0.45113603  0.51432931 -0.26407424 -0.24400579
## [10,]  0.28917300  0.27770360 -0.42485613  0.06379967 -0.51885357 -0.03517101
##              [,7]          [,8]        [,9]       [,10]
##  [1,] -0.18045873 -9.144951e-05 -0.53073002  0.45857442
##  [2,] -0.20115476  1.289456e-01 -0.44665753  0.03482737
##  [3,]  0.54266606  4.054863e-02  0.17803314 -0.03668057
##  [4,] -0.39146894 -1.237320e-02  0.10988672  0.10339491
##  [5,] -0.35797724 -4.980469e-01  0.49138712  0.02636207
##  [6,]  0.24980723 -1.453830e-01 -0.32379393 -0.63265816
##  [7,]  0.19727451  5.350315e-01  0.21905881  0.35625810
##  [8,] -0.38673350  2.503806e-01  0.02591654 -0.37044910
##  [9,]  0.04012481 -4.238694e-01 -0.28267323  0.09834556
## [10,] -0.31399942  4.286892e-01  0.01361691 -0.31888094

Kemudian dihitung matriks varian-kovarian, untuk mencari vektor eigen dan nilai eigen. Nilai vektor tersebut nantinya akan digunakan untuk membuat persamaan komponen utama, dan nilai eigen untuk mengetahui PC mana saja yang akan menjadi komponen utama. Pada output tersebut terlihat bahwa terdapat 4 PC yang memiliki nilai eigen lebih dari 1, sehingga 4 PC tersebut lah yang akan dipilih sebagai komponen utama.

-> Scree Plot

Pada plot tersebut terlihat bahwa setelah komponen utama (PC) ke 4, bentuk grafik tersebut mulai melandai atau nilai eigen kurang dari 1. Maka, dapat disimpulkan bahwa 4 komponen utama tersebut yang terpilih.

-> Nilai Kumulatif Eigen

## [1] 0.3379484
## [1] 0.2095499
## [1] 0.1307906
## [1] 0.1049704
## [1] 0.08988508
## [1] 0.0538635
## [1] 0.03848715
## [1] 0.01582124
## [1] 0.01302299
## [1] 0.005660755

Berdasarkan kumulatif nilai eigen, maka diketahui 4 komponen utama (PC) yang akan dipilih karena telah menangkap sekitar 75% keragaman.

-> Persamaan Komponen Utama

##              [,1]        [,2]        [,3]        [,4]
##  [1,]  0.42934499  0.01273735 -0.29769670 -0.35835200
##  [2,] -0.11512136  0.40462517  0.52397079  0.31951305
##  [3,] -0.06556127  0.48464611 -0.38068996 -0.03027072
##  [4,] -0.17780032  0.33861862 -0.24784758  0.43851096
##  [5,]  0.47920840  0.07365645  0.12032858  0.05951025
##  [6,]  0.47599424 -0.07103977  0.07197772  0.23469018
##  [7,]  0.34799545 -0.34594853  0.07856418  0.47800659
##  [8,] -0.26532380 -0.42737898 -0.14359485 -0.14342520
##  [9,] -0.18753386 -0.31088170 -0.45113603  0.51432931
## [10,]  0.28917300  0.27770360 -0.42485613  0.06379967

Dengan 4 komponen utama yang terpilih maka dapat dibentuk persamaan sebagai berikut: \[ PC_1 = 0.4293X_1 - 0.1151X_2 - 0.0656X_3 - 0.1778X_4 + 0.4792X_5 + 0.4760X_6 + 0.3480X_7 - 0.2653X_8 - 0.18753X_9 + 0.2892X_{10} \] \[ PC_2 = 0.0127X_1 + 0.4046X_2 + 0.4846X_3 + 0.3386X_4 + 0.0736X_5 - 0.0710X_6 - 0.3459X_7 - 0.4274X_8 - 0.3109X_9 + 0.2777X_{10} \] \[ PC_3 = -0.2977X_1 + 0.5240X_2 - 0.3807X_3 - 0.2478X_4 + 0.1203X_5 + 0.0720X_6 + 0.0786X_7 - 0.1436X_8 - 0.4511X_9 - 0.4249X_{10} \] \[ PC_4 = -0.3583X_1 + 0.3195X_2 - 0.0303X_3 + 0.4385X_4 + 0.0595X_5 + 0.2347X_6 + 0.4780X_7 - 0.1434X_8 + 0.5143X_9 + 0.0638X_{10} \] \[ \]

5.4 Matriks Korelasi

-> Dekomposisi Eigen

## eigen() decomposition
## $values
##  [1] 3.37948374 2.09549898 1.30790620 1.04970385 0.89885076 0.53863505
##  [7] 0.38487152 0.15821245 0.13022990 0.05660755
## 
## $vectors
##              [,1]        [,2]        [,3]        [,4]        [,5]        [,6]
##  [1,]  0.42934499  0.01273735 -0.29769670 -0.35835200  0.26367633 -0.06637578
##  [2,] -0.11512136  0.40462517  0.52397079  0.31951305 -0.01278285 -0.43407612
##  [3,] -0.06556127  0.48464611 -0.38068996 -0.03027072  0.29345531 -0.44686775
##  [4,] -0.17780032  0.33861862 -0.24784758  0.43851096  0.47484509  0.44537592
##  [5,]  0.47920840  0.07365645  0.12032858  0.05951025  0.04126816 -0.35616834
##  [6,]  0.47599424 -0.07103977  0.07197772  0.23469018  0.29387678  0.18198977
##  [7,]  0.34799545 -0.34594853  0.07856418  0.47800659  0.11954105 -0.10091336
##  [8,] -0.26532380 -0.42737898 -0.14359485 -0.14342520  0.42120850 -0.42212106
##  [9,] -0.18753386 -0.31088170 -0.45113603  0.51432931 -0.26407424 -0.24400579
## [10,]  0.28917300  0.27770360 -0.42485613  0.06379967 -0.51885357 -0.03517101
##              [,7]          [,8]        [,9]       [,10]
##  [1,] -0.18045873 -9.144951e-05  0.53073002  0.45857442
##  [2,] -0.20115476  1.289456e-01  0.44665753  0.03482737
##  [3,]  0.54266606  4.054863e-02 -0.17803314 -0.03668057
##  [4,] -0.39146894 -1.237320e-02 -0.10988672  0.10339491
##  [5,] -0.35797724 -4.980469e-01 -0.49138712  0.02636207
##  [6,]  0.24980723 -1.453830e-01  0.32379393 -0.63265816
##  [7,]  0.19727451  5.350315e-01 -0.21905881  0.35625810
##  [8,] -0.38673350  2.503806e-01 -0.02591654 -0.37044910
##  [9,]  0.04012481 -4.238694e-01  0.28267323  0.09834556
## [10,] -0.31399942  4.286892e-01 -0.01361691 -0.31888094

Hasil tersebut merupakan vektor eigen dan nilai eigen. Nilai vektor tersebut nantinya akan digunakan untuk membuat persamaan komponen utama, dan nilai eigen berfungsi mendapatkan komponen utama yang memenuhi syarat keragaman data. Pada output tersebut terlihat bahwa terdapat 4 PC yang memiliki nilai eigen lebih dari 1, sehingga 4 PC tersebut lah yang akan dipilih sebagai komponen utama.

-> Scree Plot

Sama seperti Scree Plot sebelumnya, Scree Plot ini juga terlihat bahwa setelah komponen utama (PC) ke 4, bentuk grafik tersebut mulai melandai atau pada PC ke 5 dan seterusnya memiliki nilai eigen yang kurang dari 1. Maka, dapat disimpulkan bahwa 4 PC tersebut yang terpilih.

-> Nilai Kumulatif Eigen

## [1] 0.3379484
## [1] 0.2095499
## [1] 0.1307906
## [1] 0.1049704
## [1] 0.08988508
## [1] 0.0538635
## [1] 0.03848715
## [1] 0.01582124
## [1] 0.01302299
## [1] 0.005660755

Berdasarkan nilai kumulatif eigen, maka juga terbukti bahwa 4 komponen utama (PC) telah menangkap sekitar 75% keragaman, sehingga 4 PC tersebut yang terpilih.

-> Persamaan Komponen Utama

##              [,1]        [,2]        [,3]        [,4]
##  [1,]  0.42934499  0.01273735 -0.29769670 -0.35835200
##  [2,] -0.11512136  0.40462517  0.52397079  0.31951305
##  [3,] -0.06556127  0.48464611 -0.38068996 -0.03027072
##  [4,] -0.17780032  0.33861862 -0.24784758  0.43851096
##  [5,]  0.47920840  0.07365645  0.12032858  0.05951025
##  [6,]  0.47599424 -0.07103977  0.07197772  0.23469018
##  [7,]  0.34799545 -0.34594853  0.07856418  0.47800659
##  [8,] -0.26532380 -0.42737898 -0.14359485 -0.14342520
##  [9,] -0.18753386 -0.31088170 -0.45113603  0.51432931
## [10,]  0.28917300  0.27770360 -0.42485613  0.06379967

Dengan 4 komponen utama yang terpilih maka dapat dibentuk persamaan sebagai berikut: \[ PC_1 = 0.4293X_1 - 0.1151X_2 - 0.0656X_3 - 0.1778X_4 + 0.4792X_5 + 0.4760X_6 + 0.3480X_7 - 0.2653X_8 - 0.18753X_9 + 0.2892X_{10} \] \[ PC_2 = 0.0127X_1 + 0.4046X_2 + 0.4846X_3 + 0.3386X_4 + 0.0736X_5 - 0.0710X_6 - 0.3459X_7 - 0.4274X_8 - 0.3109X_9 + 0.2777X_{10} \] \[ PC_3 = -0.2977X_1 + 0.5240X_2 - 0.3807X_3 - 0.2478X_4 + 0.1203X_5 + 0.0720X_6 + 0.0786X_7 - 0.1436X_8 - 0.4511X_9 - 0.4249X_{10} \] \[ PC_4 = -0.3583X_1 + 0.3195X_2 - 0.0303X_3 + 0.4385X_4 + 0.0595X_5 + 0.2347X_6 + 0.4780X_7 - 0.1434X_8 + 0.5143X_9 + 0.0638X_{10} \] \[ \]

5.5 Fungsi PCA

  1. Fungsi prcomp()
## Standard deviations (1, .., p=10):
##  [1] 1.8383372 1.4475838 1.1436373 1.0245506 0.9480774 0.7339176 0.6203801
##  [8] 0.3977593 0.3608738 0.2379234
## 
## Rotation (n x k) = (10 x 10):
##             PC1         PC2         PC3         PC4         PC5         PC6
## X1  -0.42934499  0.01273735 -0.29769670  0.35835200 -0.26367633  0.06637578
## X2   0.11512136  0.40462517  0.52397079 -0.31951305  0.01278285  0.43407612
## X3   0.06556127  0.48464611 -0.38068996  0.03027072 -0.29345531  0.44686775
## X4   0.17780032  0.33861862 -0.24784758 -0.43851096 -0.47484509 -0.44537592
## X5  -0.47920840  0.07365645  0.12032858 -0.05951025 -0.04126816  0.35616834
## X6  -0.47599424 -0.07103977  0.07197772 -0.23469018 -0.29387678 -0.18198977
## X7  -0.34799545 -0.34594853  0.07856418 -0.47800659 -0.11954105  0.10091336
## X8   0.26532380 -0.42737898 -0.14359485  0.14342520 -0.42120850  0.42212106
## X9   0.18753386 -0.31088170 -0.45113603 -0.51432931  0.26407424  0.24400579
## X10 -0.28917300  0.27770360 -0.42485613 -0.06379967  0.51885357  0.03517101
##             PC7           PC8         PC9        PC10
## X1  -0.18045873 -9.144951e-05  0.53073002  0.45857442
## X2  -0.20115476  1.289456e-01  0.44665753  0.03482737
## X3   0.54266606  4.054863e-02 -0.17803314 -0.03668057
## X4  -0.39146894 -1.237320e-02 -0.10988672  0.10339491
## X5  -0.35797724 -4.980469e-01 -0.49138712  0.02636207
## X6   0.24980723 -1.453830e-01  0.32379393 -0.63265816
## X7   0.19727451  5.350315e-01 -0.21905881  0.35625810
## X8  -0.38673350  2.503806e-01 -0.02591654 -0.37044910
## X9   0.04012481 -4.238694e-01  0.28267323  0.09834556
## X10 -0.31399942  4.286892e-01 -0.01361691 -0.31888094
## Importance of components:
##                           PC1    PC2    PC3    PC4     PC5     PC6     PC7
## Standard deviation     1.8383 1.4476 1.1436 1.0246 0.94808 0.73392 0.62038
## Proportion of Variance 0.3379 0.2095 0.1308 0.1050 0.08989 0.05386 0.03849
## Cumulative Proportion  0.3379 0.5475 0.6783 0.7833 0.87314 0.92701 0.96550
##                            PC8     PC9    PC10
## Standard deviation     0.39776 0.36087 0.23792
## Proportion of Variance 0.01582 0.01302 0.00566
## Cumulative Proportion  0.98132 0.99434 1.00000
  1. princomp()
## Importance of components:
##                           Comp.1    Comp.2    Comp.3    Comp.4     Comp.5
## Standard deviation     1.8383372 1.4475838 1.1436373 1.0245506 0.94807740
## Proportion of Variance 0.3379484 0.2095499 0.1307906 0.1049704 0.08988508
## Cumulative Proportion  0.3379484 0.5474983 0.6782889 0.7832593 0.87314435
##                           Comp.6     Comp.7     Comp.8     Comp.9     Comp.10
## Standard deviation     0.7339176 0.62038014 0.39775928 0.36087381 0.237923408
## Proportion of Variance 0.0538635 0.03848715 0.01582124 0.01302299 0.005660755
## Cumulative Proportion  0.9270079 0.96549501 0.98131625 0.99433925 1.000000000
## Call:
## princomp(x = dat4, cor = TRUE)
## 
## Standard deviations:
##    Comp.1    Comp.2    Comp.3    Comp.4    Comp.5    Comp.6    Comp.7    Comp.8 
## 1.8383372 1.4475838 1.1436373 1.0245506 0.9480774 0.7339176 0.6203801 0.3977593 
##    Comp.9   Comp.10 
## 0.3608738 0.2379234 
## 
##  10  variables and  35 observations.

Berdasarkan kedua fungsi tersebut, kita dapat menentukan komponen utama berdasarkan keragaman data yang dilihat dari proporsi kumulatifnya. Pada output summary() dapat terlihat bahwa proporsi kumulatif pada PC 4 sebesar 0.7833 atau 78.33%, sehingga hal tersebut telah mengindikasikan bahwa sampai komponen utama ke-4 telah cukup berkontribusi menjelaskan data dengan besar kontribusi 78.33% (>75%).

-> Persamaan Komponen Utama

##         PC1     PC2     PC3     PC4
## X1  -0.4293  0.0127 -0.2977  0.3584
## X2   0.1151  0.4046  0.5240 -0.3195
## X3   0.0656  0.4846 -0.3807  0.0303
## X4   0.1778  0.3386 -0.2478 -0.4385
## X5  -0.4792  0.0737  0.1203 -0.0595
## X6  -0.4760 -0.0710  0.0720 -0.2347
## X7  -0.3480 -0.3459  0.0786 -0.4780
## X8   0.2653 -0.4274 -0.1436  0.1434
## X9   0.1875 -0.3109 -0.4511 -0.5143
## X10 -0.2892  0.2777 -0.4249 -0.0638

Dengan 4 komponen utama yang terpilih maka dapat dibentuk persamaan sebagai berikut:

\[ PC_1 = -0.4293X_1 + 0.1151X_2 + 0.0656X_3 + 0.1778X_4 - 0.4792X_5 - 0.4760X_6 - 0.3480X_7 + 0.2653X_8 + 0.18753X_9 - 0.2892X_{10} \]

\[ PC_2 = 0.0127X_1 + 0.4046X_2 + 0.4846X_3 + 0.3386X_4 + 0.0736X_5 - 0.0710X_6 - 0.3459X_7 - 0.4274X_8 - 0.3109X_9 + 0.2777X_{10} \] \[ PC_3 = -0.2977X_1 + 0.5240X_2 - 0.3807X_3 - 0.2478X_4 + 0.1203X_5 + 0.0720X_6 + 0.0786X_7 - 0.1436X_8 - 0.4511X_9 - 0.4249X_{10} \] \[ PC_4 = 0.3583X_1 - 0.3195X_2 + 0.0303X_3 - 0.4385X_4 - 0.0595X_5 - 0.2347X_6 - 0.4780X_7 + 0.1434X_8 - 0.5143X_9 - 0.0638X_{10} \] \[ \]

5.6 Rekonstruksi Data

5.6.1 Hasil PCA dengan mempertimbangkan nilai variabel

## Principal Component Analysis Results for variables
##  ===================================================
##   Name       Description                                    
## 1 "$coord"   "Coordinates for the variables"                
## 2 "$cor"     "Correlations between variables and dimensions"
## 3 "$cos2"    "Cos2 for the variables"                       
## 4 "$contrib" "contributions of the variables"

-> Nilai kontribusi variabel

##         Dim.1       Dim.2      Dim.3       Dim.4       Dim.5      Dim.6
## X1  18.433712  0.01622401  8.8623327 12.84161574  6.95252074  0.4405744
## X2   1.325293 16.37215252 27.4545387 10.20885917  0.01634013 18.8422076
## X3   0.429828 23.48818493 14.4924849  0.09163166  8.61160183 19.9690783
## X4   3.161295 11.46625674  6.1428423 19.22918585 22.54778604 19.8359710
## X5  22.964069  0.54252729  1.4478968  0.35414703  0.17030610 12.6855888
## X6  22.657051  0.50466489  0.5180793  5.50794828  8.63635601  3.3120277
## X7  12.110084 11.96803863  0.6172330 22.84902979  1.42900623  1.0183506
## X8   7.039672 18.26527938  2.0619482  2.05707874 17.74165981 17.8186192
## X9   3.516895  9.66474284 20.3523714 26.45346389  6.97352058  5.9538825
## X10  8.362102  7.71192877 18.0502727  0.40703984 26.92090252  0.1237000
##          Dim.7        Dim.8       Dim.9      Dim.10
## X1   3.2565354 8.363013e-07 28.16743492 21.02904970
## X2   4.0463237 1.662696e+00 19.95029489  0.12129457
## X3  29.4486449 1.644191e-01  3.16957987  0.13454641
## X4  15.3247934 1.530962e-02  1.20750902  1.06905076
## X5  12.8147708 2.480507e+01 24.14612987  0.06949587
## X6   6.2403651 2.113621e+00 10.48425121 40.02563499
## X7   3.8917231 2.862588e+01  4.79867617 12.69198365
## X8  14.9562800 6.269042e+00  0.06716671 13.72325367
## X9   0.1610001 1.796652e+01  7.99041533  0.96718493
## X10  9.8595636 1.837744e+01  0.01854202 10.16850543

-> Plot Kontribusi Variabel

Notes : Plot ini merepresentasikan dengan ruang dua dimensi, sehingga hanya dapat menginterpretasikan representasi terhadap 2 komponen utama.

Interpretasi: Pada gambar tersebut terlihat bahwa variabel X5 dan X6 direpresentasikan dengan warna merah dan berada di dekat lingkaran pada lingkaran korelasi. Maka artinya, kedua variabel memiliki nilai kontribusi yang sangat tinggi bagi, yang menunjukkan representasi variabel yang baik pada 2 komponen utama. Sedangkan, variabel X9 memiliki nilai kontribusi terendah, yang artinya variabel tersebut tidak sepenuhnya direpresentasikan oleh 2 komponen utama. Hal tersebut dapat dilihat pada gambar plot, bahwa variabel X9 berada paling dekat dengan pusat lingkaran direpresentasikan dengan warna biru terang, maka variabel tersebut kurang penting untuk 2 komponen utama.

-> Nilai kosinus kuadrat (cos2) variabel.

##          Dim.1       Dim.2       Dim.3        Dim.4        Dim.5        Dim.6
## X1  0.62296429 0.000339974 0.115910998 0.1347989354 0.0624927858 0.0023730880
## X2  0.04478805 0.343078289 0.359079615 0.1071627883 0.0001468734 0.1014907337
## X3  0.01452597 0.492194676 0.189548109 0.0009618611 0.0774054489 0.1075604538
## X4  0.10683546 0.240275293 0.080342615 0.2018495052 0.2026709471 0.1068434915
## X5  0.77606696 0.011368654 0.018937132 0.0037174950 0.0015307977 0.0683290272
## X6  0.76569136 0.010575248 0.006775991 0.0578171454 0.0776279519 0.0178397417
## X7  0.40925831 0.250790127 0.008072829 0.2398471464 0.0128446334 0.0054851931
## X8  0.23790456 0.382748743 0.026968349 0.0215932349 0.1594710447 0.0959773276
## X9  0.11885288 0.202524587 0.266189927 0.2776830302 0.0626815430 0.0320696977
## X10 0.28259589 0.161603389 0.236080636 0.0042727129 0.2419787380 0.0006662913
##            Dim.7        Dim.8        Dim.9       Dim.10
## X1  0.0125334772 1.323133e-09 3.668242e-02 1.190403e-02
## X2  0.0155731474 2.630592e-03 2.598125e-02 6.866188e-05
## X3  0.1133394473 2.601315e-04 4.127741e-03 7.616343e-05
## X4  0.0589807652 2.422172e-05 1.572538e-03 6.051634e-04
## X5  0.0493204030 3.924471e-02 3.144548e-02 3.933991e-05
## X6  0.0240173879 3.344012e-03 1.365363e-02 2.265753e-02
## X7  0.0149781340 4.528970e-02 6.249311e-03 7.184621e-03
## X8  0.0575624623 9.918405e-03 8.747114e-05 7.768397e-03
## X9  0.0006196434 2.842528e-02 1.040591e-02 5.474997e-04
## X10 0.0379466521 2.907540e-02 2.414725e-05 5.756142e-03

-> Plot cos2 Variabel

Notes : Plot ini merepresentasikan dengan ruang dua dimensi, sehingga hanya dapat menginterpretasikan representasi terhadap 2 komponen utama.

Interpretasi: Pada gambar tersebut variabel X5 dan X6 memiliki nilai cos2 yang sangat tinggi, yang menunjukkan representasi variabel yang baik pada 2 komponen utama. Hal tersebut disimpulkan karena kedua variabel direpresentasikan dengan warna orange dan berada di dekat lingkaran pada lingkaran korelasi. Sedangkan, variabel X9 memiliki nilai cos2 terendah karena berada paling dekat dengan pusat lingkaran dan direpresentasikan dengan warna hijau terang, yang artinya variabel tersebut tidak sepenuhnya direpresentasikan atau kurang penting untuk 2 komponen utama.

-> Diagram Batang cos2 Variabel

Interpretasi: Diagram batang tersebut menunjukkan nilai cos2 pada masing-masing variabel. Variabel X7,X1, X9, memiliki nilai cos2 tertinggi sehingga artinya ketiga variabel tersebut merupakan variabel yang paling penting bagi 4 komponen utama. Sedangkan variabel X4 memiliki nilai cos2 terendah, sehingga variabel ini kurang penting bagi 4 komponen utama.

5.6.2 Hasil PCA dengan mempertimbangkan nilai individu

## Principal Component Analysis Results for individuals
##  ===================================================
##   Name       Description                       
## 1 "$coord"   "Coordinates for the individuals" 
## 2 "$cos2"    "Cos2 for the individuals"        
## 3 "$contrib" "contributions of the individuals"

-> Nilai kosinus kuadrat (cos2) variabel.

##          Dim.1       Dim.2       Dim.3        Dim.4        Dim.5        Dim.6
## X1  0.62296429 0.000339974 0.115910998 0.1347989354 0.0624927858 0.0023730880
## X2  0.04478805 0.343078289 0.359079615 0.1071627883 0.0001468734 0.1014907337
## X3  0.01452597 0.492194676 0.189548109 0.0009618611 0.0774054489 0.1075604538
## X4  0.10683546 0.240275293 0.080342615 0.2018495052 0.2026709471 0.1068434915
## X5  0.77606696 0.011368654 0.018937132 0.0037174950 0.0015307977 0.0683290272
## X6  0.76569136 0.010575248 0.006775991 0.0578171454 0.0776279519 0.0178397417
## X7  0.40925831 0.250790127 0.008072829 0.2398471464 0.0128446334 0.0054851931
## X8  0.23790456 0.382748743 0.026968349 0.0215932349 0.1594710447 0.0959773276
## X9  0.11885288 0.202524587 0.266189927 0.2776830302 0.0626815430 0.0320696977
## X10 0.28259589 0.161603389 0.236080636 0.0042727129 0.2419787380 0.0006662913
##            Dim.7        Dim.8        Dim.9       Dim.10
## X1  0.0125334772 1.323133e-09 3.668242e-02 1.190403e-02
## X2  0.0155731474 2.630592e-03 2.598125e-02 6.866188e-05
## X3  0.1133394473 2.601315e-04 4.127741e-03 7.616343e-05
## X4  0.0589807652 2.422172e-05 1.572538e-03 6.051634e-04
## X5  0.0493204030 3.924471e-02 3.144548e-02 3.933991e-05
## X6  0.0240173879 3.344012e-03 1.365363e-02 2.265753e-02
## X7  0.0149781340 4.528970e-02 6.249311e-03 7.184621e-03
## X8  0.0575624623 9.918405e-03 8.747114e-05 7.768397e-03
## X9  0.0006196434 2.842528e-02 1.040591e-02 5.474997e-04
## X10 0.0379466521 2.907540e-02 2.414725e-05 5.756142e-03

-> Plot cos2 Individu

Notes : Plot ini merepresentasikan dengan ruang dua dimensi, sehingga hanya dapat menginterpretasikan representasi terhadap 2 komponen utama.

Interpretasi: Pada gambar tersebut terlihat bahwa individu 30,31,34 dan 35 direpresentasikan dengan warna merah pada gambar. Maka artinya, keempat individu tersebut memiliki nilai cos2 yang sangat tinggi bagi 2 komponen utama, atau menunjukkan representasi individu yang baik pada 2 komponen utama. Sedangkan, individu 21 memiliki nilai cos2 terendah, yang artinya individu tersebut tidak sepenuhnya direpresentasikan oleh 2 komponen utama. Hal tersebut dapat dilihat pada gambar plot, bahwa individu 25 direpresentasikan dengan warna ungu terang, maka individu tersebut kurang penting untuk 2 komponen utama.

-> Nilai Kontribusi Individu

##         Dim.1       Dim.2      Dim.3       Dim.4       Dim.5      Dim.6
## X1  18.433712  0.01622401  8.8623327 12.84161574  6.95252074  0.4405744
## X2   1.325293 16.37215252 27.4545387 10.20885917  0.01634013 18.8422076
## X3   0.429828 23.48818493 14.4924849  0.09163166  8.61160183 19.9690783
## X4   3.161295 11.46625674  6.1428423 19.22918585 22.54778604 19.8359710
## X5  22.964069  0.54252729  1.4478968  0.35414703  0.17030610 12.6855888
## X6  22.657051  0.50466489  0.5180793  5.50794828  8.63635601  3.3120277
## X7  12.110084 11.96803863  0.6172330 22.84902979  1.42900623  1.0183506
## X8   7.039672 18.26527938  2.0619482  2.05707874 17.74165981 17.8186192
## X9   3.516895  9.66474284 20.3523714 26.45346389  6.97352058  5.9538825
## X10  8.362102  7.71192877 18.0502727  0.40703984 26.92090252  0.1237000
##          Dim.7        Dim.8       Dim.9      Dim.10
## X1   3.2565354 8.363013e-07 28.16743492 21.02904970
## X2   4.0463237 1.662696e+00 19.95029489  0.12129457
## X3  29.4486449 1.644191e-01  3.16957987  0.13454641
## X4  15.3247934 1.530962e-02  1.20750902  1.06905076
## X5  12.8147708 2.480507e+01 24.14612987  0.06949587
## X6   6.2403651 2.113621e+00 10.48425121 40.02563499
## X7   3.8917231 2.862588e+01  4.79867617 12.69198365
## X8  14.9562800 6.269042e+00  0.06716671 13.72325367
## X9   0.1610001 1.796652e+01  7.99041533  0.96718493
## X10  9.8595636 1.837744e+01  0.01854202 10.16850543

-> Diagram Batang Kontribusi Individu

Interpretasi: Diagram batang tersebut menunjukkan nilai kontribusi pada masing-masing individu. Individu 15,31, dan16, memiliki nilai kontribusi tertinggi sehingga artinya ketiga individu tersebut memiliki kontribusi yang paling penting bagi 4 komponen utama. Sedangkan individu 27 memiliki nilai kontribusi terendah, sehingga individu ini kurang penting bagi 4 komponen utama.

6 Kesimpulan

Berdasarkan hasil analisis komponen utama, diperoleh 4 komponen utama yang terpilih. Maka persamaan yang terbentuk sebagai berikut:

\[ PC_1 = -0.4293X_1 + 0.1151X_2 + 0.0656X_3 + 0.1778X_4 - 0.4792X_5 - 0.4760X_6 - 0.3480X_7 + 0.2653X_8 + 0.18753X_9 - 0.2892X_{10} \]

PC1 menggambarkan bahwa indikator terkuat pada komponen utama ini adalah air bersih (X8) dan sanitasi (X9), maka faktor yang terbentuk pada komponen utama (PC) pertama adalah faktor lingkungan.

\[ PC_2 = 0.0127X_1 + 0.4046X_2 + 0.4846X_3 + 0.3386X_4 + 0.0736X_5 - 0.0710X_6 - 0.3459X_7 - 0.4274X_8 - 0.3109X_9 + 0.2777X_{10} \]

PC2 menggambarkan bahwa indikator terkuat pada komponen utama ini adalah Penduduk dengan keluhan kesehatan (X3), Jumlah kepemilikan jamkesmas (X4), dan Rumah tidak layak huni (X10). Jadi, faktor yang terbentuk pada komponen utama (PC) kedua adalah faktor kesehatan.

\[ PC_3 = -0.2977X_1 + 0.5240X_2 - 0.3807X_3 - 0.2478X_4 + 0.1203X_5 + 0.0720X_6 + 0.0786X_7 - 0.1436X_8 - 0.4511X_9 - 0.4249X_{10} \] PC3 menggambarkan bahwa indikator terkuat pada komponen utama ini adalah Pendidikan tertinggi SMP (X2), Rumah dengan status kepemilikan pribadi (X5), Banyaknya sekolah negeri (X6), dan Banyaknya fasilitas kesehatan (X7). Jadi, faktor yang terbentuk pada komponen utama (PC) kedua adalah faktor infrastuktur.

\[ PC_4 = 0.3583X_1 - 0.3195X_2 + 0.0303X_3 - 0.4385X_4 - 0.0595X_5 - 0.2347X_6 - 0.4780X_7 + 0.1434X_8 - 0.5143X_9 - 0.0638X_{10} \] PC4 menggambarkan bahwa indikator terkuat pada komponen utama ini adalah Pendidikan tertinggi <SD (X1), maka faktor yang terbentuk pada komponen utama (PC) keempat adalah faktor pendidikan.

Maka, dapat disimpulkan bahwa dengan metode analisis komponen utama dapat diketahui bahwa data tentang faktor kemiskinan pada kabupaten/kota di Jawa Tengah yang terdiri dari 10 faktor dapat direduksi menjadi 4 faktor, yaitu: (1) Faktor Lingkungan, (2) Faktor Kesehatan, (3) Faktor Infrastruktur, dan (4) Faktor Pendidikan.

7 Daftar Pustaka

  1. Badan Pusat Statistik. (2020). Provinsi Jawa Tengah Dalam Angka. BPS Jawa Tengah. Semarang.
  2. Hakim, Abdul. (2018). Analisis Kemiskinan di Jawa Tengah. Skripsi. Fakultas Ekonomi, Universitas Islam Indonesia.
  3. Kania, Siti. (2018) PROGRAM APLIKASI PENGELOMPOKAN OBJEK DENGAN METODE SELF ORGANIZING MAP MENGGUNAKAN BAHASA R. Universitas Pendidikan Indonesia.
  4. Kaplale, Raihana. (2012). Faktor-faktor yang Mempengaruhi Tingkat Kemiskinan. Diunduh dari http://ejournal.unpatti.ac.id.