1 Pendahuluan

Praktikum 1 membahas operasi dasar matriks dan aplikasinya dalam Analisis Data Multivariat.
Materi meliputi: - Operasi Matriks (penjumlahan, pengurangan, perkalian, transpose, invers, determinan)
- Eigen Value dan Eigen Vector
- Singular Value Decomposition (SVD)
- Matriks jarak (Euclidean, Chebyshev, Manhattan, Mahalanobis, Minkowski)
- Vektor rata-rata, kovarians, korelasi, dan standardisasi


2 Operasi Matriks

2.1 Penjelasan Singkat

Operasi dasar matriks meliputi penjumlahan, pengurangan, perkalian, transpose, invers, dan determinan.
Operasi ini menjadi dasar untuk analisis regresi, PCA, maupun analisis diskriminan.

2.2 Rumus

  • Penjumlahan/Pengurangan:
    \[ C = A \pm B \]
  • Perkalian Matriks:
    \[ C = A \times B \]
  • Transpose:
    \[ A^T \]
  • Invers:
    \[ A^{-1}, \quad \text{jika } \det(A) \neq 0 \]
  • Determinan:
    \[ \det(A) = \sum_{j=1}^{n} (-1)^{1+j} a_{1j} M_{1j} \]

2.3 Contoh Implementasi

X <- matrix(c(6.5,8.2,7.9,
              5.4,7.0,6.7,
              8.1,6.9,9.2), 3, 3, byrow=TRUE)

Y <- matrix(c(7.3,6.8,8.5,
              8.9,7.6,6.1,
              9.4,8.0,7.2), 3, 3, byrow=TRUE)

X + Y
##      [,1] [,2] [,3]
## [1,] 13.8 15.0 16.4
## [2,] 14.3 14.6 12.8
## [3,] 17.5 14.9 16.4
X %*% Y
##        [,1]   [,2]   [,3]
## [1,] 194.69 169.72 162.15
## [2,] 164.70 143.52 136.84
## [3,] 207.02 181.12 177.18
t(X)
##      [,1] [,2] [,3]
## [1,]  6.5  5.4  8.1
## [2,]  8.2  7.0  6.9
## [3,]  7.9  6.7  9.2
solve(X)
##           [,1]      [,2]       [,3]
## [1,]  8.384864 -9.658514 -0.1661283
## [2,]  2.118136 -1.933549 -0.4107060
## [3,] -8.970928  9.953853  0.5629903
det(X)
## [1] 2.167

2.4 Interpretasi

Operasi matriks menjadi dasar untuk manipulasi data multivariat.


3 Eigen Value & Eigen Vector

3.1 Penjelasan Singkat

Eigenvalue mengukur jumlah variasi yang dijelaskan oleh komponen, sedangkan eigenvector menunjukkan arah dari komponen tersebut.

3.2 Rumus

Persamaan karakteristik:
\[ Av = \lambda v \]
Dengan \(\lambda\) eigenvalue dan \(v\) eigenvector.
Nilai \(\lambda\) diperoleh dari:
\[ \det(A - \lambda I) = 0 \]

3.3 Contoh Implementasi

eigX <- eigen(X)
eigX$values
## [1] 22.0140019  0.4816027  0.2043953
eigX$vectors
##            [,1]       [,2]       [,3]
## [1,] -0.5877156 -0.5263753 -0.6237168
## [2,] -0.4964624 -0.3570747 -0.2383316
## [3,] -0.6388392  0.7716390  0.7444296

3.4 Interpretasi

Eigenvalue yang besar menunjukkan dimensi yang lebih penting. Banyak digunakan dalam PCA.


4 Singular Value Decomposition (SVD)

4.1 Penjelasan Singkat

SVD memecah matriks \(A_{m \times n}\) menjadi tiga matriks:
\[ A = UDV^T \]

4.2 Rumus

  • \(U\): matriks ortogonal kolom
  • \(D\): matriks diagonal dengan singular values
  • \(V\): matriks ortogonal baris

4.3 Contoh Implementasi

A <- matrix(c(5,-3,6,2,-4,8,-2,5,-1,7,3,9), 4, 3, byrow=TRUE)
svd_res <- svd(A)
svd_res$d
## [1] 16.07076  7.41936  3.11187

4.4 Interpretasi

SVD digunakan untuk reduksi dimensi, kompresi data, dan sistem rekomendasi.


5 Matriks Jarak

5.1 Penjelasan Singkat

Matriks jarak digunakan untuk mengukur kedekatan antar objek.

5.2 Rumus

  • Euclidean:
    \[ d(x,y) = \sqrt{\sum_{i=1}^{p}(x_i - y_i)^2} \]
  • Manhattan:
    \[ d(x,y) = \sum_{i=1}^p |x_i - y_i| \]
  • Chebyshev:
    \[ d(x,y) = \max_i |x_i - y_i| \]
  • Mahalanobis:
    \[ d(x,y) = \sqrt{(x-\mu)^T \Sigma^{-1} (x-\mu)} \]
  • Minkowski:
    \[ d(x,y) = \left( \sum_{i=1}^p |x_i - y_i|^q \right)^{1/q} \]

5.3 Contoh Implementasi

set.seed(321)
ss <- sample(1:50, 15)
df <- USArrests[ss, ]
df.scaled <- scale(df)

dist.eucl <- dist(df.scaled, method="euclidean")
dist.man  <- dist(df.scaled, method="manhattan")
dist.cheb <- dist(df.scaled, method="maximum")
dist.eucl[1:5]
## [1] 2.4122476 2.6164146 0.7934567 2.7921742 1.0532156

5.4 Interpretasi

Pemilihan jenis jarak tergantung konteks analisis.


6 Vektor Rata-Rata, Kovarians, dan Korelasi

6.1 Penjelasan Singkat

Vektor rata-rata menggambarkan nilai tengah variabel. Kovarians menunjukkan seberapa besar hubungan linear antar variabel, sedangkan korelasi mengukur hubungan terstandarisasi.

6.2 Rumus

  • Vektor rata-rata:
    \[ \bar{x} = \frac{1}{n}\sum_{i=1}^n x_i \]
  • Kovarians:
    \[ S = \frac{1}{n-1}(X - \bar{X})^T(X - \bar{X}) \]
  • Korelasi:
    \[ R = D^{-1}SD^{-1}, \quad D = \sqrt{\text{diag}(S)} \]

6.3 Contoh Implementasi

BB <- c(6.2,11.5,8.7,10.1,7.8,6.9,12.0,3.1,14.8,9.4)
PM <- c(61,73,68,70,64,60,76,49,84,71)
RTB <- c(115,138,127,123,131,120,143,95,160,128)
lizard <- cbind(BB,PM,RTB)

colMeans(lizard)
##     BB     PM    RTB 
##   9.05  67.60 128.00
cov(lizard)
##           BB        PM       RTB
## BB  10.98056  31.80000  54.96667
## PM  31.80000  94.04444 160.22222
## RTB 54.96667 160.22222 300.66667
cor(lizard)
##            BB        PM       RTB
## BB  1.0000000 0.9895743 0.9566313
## PM  0.9895743 1.0000000 0.9528259
## RTB 0.9566313 0.9528259 1.0000000

6.4 Interpretasi

Kovarians dan korelasi adalah dasar dalam analisis multivariat seperti PCA dan analisis faktor.


7 Kesimpulan