Motivación

En Análisis de datos multivariantes, se presentaron los conceptos generales sobre el tema. Ahora corresponde entrar en la parte matemática (álgebra matricial).

El álgebra matricial es la parte importante y requisito para el estudio del análisis multivariado. Se presentan conceptos fundamentales de manera general y su aplicación en R para mayor facilidad. Los conceptos presentados han sido tomados principalemente de Peña (2013).

Vectores

Por ejemplo, si medimos las edades de tres personas en una clase y obtenemos los valores 20, 19 y 21 años, esta muestra se representa por el vector tridimensional

\[X = \begin{bmatrix} 20\\ 19\\ 21 \end{bmatrix} \]

X <- c(20, 19, 21)
cbind(X)
##       X
## [1,] 20
## [2,] 19
## [3,] 21

Suma y resta de vectores

La suma (o diferencia) de dos vectores x, y, ambos en \(\mathbb{R^n}\), se define como un nuevo vector con componentes iguales a la suma (diferencia ) de los componentes de los sumandos:

\[X + Y = \begin{bmatrix} x_{1}\\ \vdots\\ x_{n} \end{bmatrix} + \begin{bmatrix} y_{1}\\ \vdots\\ y_{n} \end{bmatrix} = \begin{bmatrix} x_{1} + y_{1}\\ \vdots\\ x_{n} + y_{n} \end{bmatrix} \]

X <- c(20, 19, 21)
Y <- c(18, 25, 34)

cbind(X + Y)
##      [,1]
## [1,]   38
## [2,]   44
## [3,]   55

La suma de vectores es asociativa (x + (y + z) = (x + y) + z) y conmutativa (x + y = y + x).

Producto de una constante por un vector

El producto de una constante por un vector, es un nuevo vector cuyos componentes son los del vector inicial multiplicados por la constante.

\[Z = kX = \begin{bmatrix} kx_{1}\\ \vdots\\ kx_{n} \end{bmatrix} \]

k <- 5
X <- c(20, 19, 21)

Z <- k*X
cbind(Z)
##        Z
## [1,] 100
## [2,]  95
## [3,] 105

Vector transpuesto

Llamaremos vector transpuesto \(X'\), de otro \(X\), a un vector con los mismos componentes, pero escritos ahora en fila:

\[X' = \begin{pmatrix} x_{1}, & \cdots, & x_{n}\\ \end{pmatrix} \]

X <- c(20, 19, 21)

# vector transpuesto de X
t(X)
##      [,1] [,2] [,3]
## [1,]   20   19   21

Producto escalar o interno de dos vectores

El producto escalar o interno de dos vectores X, Y, ambos en \(\mathbb{R^n}\), que escribiremos \(X'\) o \(Y'\), es el escalar obtenido al sumar los productos de sus componentes. \[ X'Y = Y'X = \sum_{i=1}^{n} x_{i}y_{i} \]

X <- c(20, 19, 21)
Y <- c(18, 25, 34)

# Opción 1
X%*%Y
##      [,1]
## [1,] 1549
# Opción 2
t(X)%*%Y
##      [,1]
## [1,] 1549
# Opción 3
t(Y)%*%X
##      [,1]
## [1,] 1549

Norma o longitud de un vector

Se llamará norma o longitud de un vector X, a la raíz cuadrada del producto escalar \(X'X\). Se escribe \(\|X\|\):

\[ \|X\| = \sqrt{X'X} = \sqrt{x_1^2 + \cdots +x_n^2} \]

X <- c(20, 19, 21)

# Opción 1
sqrt(t(X)%*%X)
##          [,1]
## [1,] 34.66987
# Opción 2
sqrt(sum(X^2))
## [1] 34.66987

Matrices

Una matriz es un conjunto de números dispuestos en Þlas y columnas y puede verse como un conjunto de vectores columna o un conjunto de vectores fila.

\[X = \begin{bmatrix} x_{11} & \cdots & x_{1j}\\ \vdots & \ddots & \vdots \\ x_{i1} & \cdots & x_{ij} \end{bmatrix} \]

\[X = \begin{bmatrix} 20 & 19 & 21\\ 18 & 25 & 34 \\ 17 & 23 & 27 \end{bmatrix} \]

X <- matrix(c(20, 19, 21,
             18, 25, 34, 
             17, 23, 27), nrow = 3, byrow = T)
X
##      [,1] [,2] [,3]
## [1,]   20   19   21
## [2,]   18   25   34
## [3,]   17   23   27

Matriz traspuesta

La matriz traspuesta \(X'\), es la matriz obtenida a partir de \(X\) intercambiando filas por columnas. Si \(X\) es \(i × j\), \(X'\) será \(j × i\).

\[X' = \begin{bmatrix} 20 & 18 & 17\\ 19 & 25 & 23 \\ 21 & 34 & 27 \end{bmatrix} \]

t(X)
##      [,1] [,2] [,3]
## [1,]   20   18   17
## [2,]   19   25   23
## [3,]   21   34   27

Sumar dos matrices

La suma de dos matrices se define sólo cuando ambas tienen las mismas dimensiones. Cada elemento de la matriz suma se obtiene sumando los elementos correspondientes de los sumandos

\[Z = X + Y = \begin{bmatrix} x_{11} & \cdots & x_{1j}\\ \vdots & \ddots & \vdots \\ x_{i1} & \cdots & x_{ij} \end{bmatrix} + \begin{bmatrix} y_{11} & \cdots & y_{1j}\\ \vdots & \ddots & \vdots \\ y_{i1} & \cdots & y_{ij} \end{bmatrix} = \begin{bmatrix} z_{11} & \cdots & z_{1j}\\ \vdots & \ddots & \vdots \\ z_{i1} & \cdots & z_{ij} \end{bmatrix} \]

X <- matrix(c(20, 19, 21,
             18, 25, 34, 
             17, 23, 27), nrow = 3, byrow = T)

Y <- matrix(c(18, 17, 19,
             16, 23, 32, 
             15, 21, 25), nrow = 3, byrow = T)

Z <- X + Y
Z
##      [,1] [,2] [,3]
## [1,]   38   36   40
## [2,]   34   48   66
## [3,]   32   44   52

Productos entre matrices

  • Producto matricial: se representa por \(AB\) y sólo es posible cuando el número de columnas de \(X\) es igual al número de filas de \(Y\). Entonces, si \(X(n × p)\) y \(Y(p × h)\), el producto es una matriz \(Z(n × h)\) con términos:

\[ z_{ij} = \sum_{m=1}^{p} x_{im}y_{mj} \]

X <- matrix(c(20, 19, 21,
             18, 25, 34, 
             17, 23, 27), nrow = 3, byrow = T)

Y <- matrix(c(18, 17,
             16, 23, 
             15, 21), nrow = 3, byrow = T)

Z <- X %*% Y
Z
##      [,1] [,2]
## [1,]  979 1218
## [2,] 1234 1595
## [3,] 1079 1385

Matriz identidad

La matriz identidad de dimensión \(n\), \(I_{n}\) , como la matriz de dimensiones \(n×n\) que tiene unos en las posiciones \(ii\) y ceros fuera de ella.

\[I = \begin{bmatrix} 1 & \cdots & 0\\ \vdots & 1 & \vdots \\ 0 & \cdots & 1 \end{bmatrix} \]

Determinante de una matriz

Dada una matriz \(X\) cuadrada de orden \(n\) con términos \(x_{ij}\), se denomina determinante de la matriz, y lo representaremos por \(|X|\), al escalar obtenido mediante la suma de todos los productos de \(n\) elementos de la matriz, \(x_{1_{i1}}x_{2_{i2}}, ..., x_{n_{in}}\), que podemos formar de manera que en cada producto aparezca una vez un elemento de cada fila y uno de cada columna.

\[ |X| = \sum (-1)^r x_{1_{i1}}x_{2_{i2}}, ..., x_{n_{in}} \]

X <- matrix(c(2,0,0,4),2,2)

# Matriz cuadrada  2 x 2
X
##      [,1] [,2]
## [1,]    2    0
## [2,]    0    4
# Determinante de la matriz
det(X)
## [1] 8
  • Adjunto

Se denomina adjunto del elemento \(x_{ij}\) al escalar \((−1)^{i+j} m_{ij}\).

Para matrices mayores de 3, Se demuestra que el determinante de una matriz puede calcularse multiplicando cada elemento de una fila por sus adjuntos.

\[ |X| = \sum_{j=1}^{n} x_{ij} (−1)^{i+j} m_{ij} \]

Traza de una matriz

La traza de una matriz cuadrada es la suma de los elementos de la diagonal principal de la matriz.

\[ tr(X) = \sum_{i=1}^{n} x_{ii} \]

X <- matrix(c(20, 19, 21,
             18, 25, 34, 
             17, 23, 27), nrow = 3, byrow = T)
X
##      [,1] [,2] [,3]
## [1,]   20   19   21
## [2,]   18   25   34
## [3,]   17   23   27
# Traza de la matriz
sum(diag(X))
## [1] 72

Matriz Inversa

Dada una matriz \(X\) cuadrada \(n×n\), no singular, se define su inversa, \(X^{−1}\), como una matriz \(n × n\) tal que:

\[ XX^{−1} = X^{−1}X = I \]

Se demuestra que la inversa de una matriz puede calcularse por las tres operaciones siguientes:

  • Se sustituye cada elemento por su adjunto.
  • Se transpone la matriz resultante. Se obtiene una matriz que llamaremos adjunta de la matriz X.
  • Se divide cada término de la matriz adjunta por el determinante de la matriz original.
X <- matrix(c(1, 1, 0,
              −1, 2, 1,
              0, 0, 3), nrow = 3, byrow = T)
X
##      [,1] [,2] [,3]
## [1,]    1    1    0
## [2,]   -1    2    1
## [3,]    0    0    3
# Inversa de la matriz
solve(X)
##           [,1]       [,2]       [,3]
## [1,] 0.6666667 -0.3333333  0.1111111
## [2,] 0.3333333  0.3333333 -0.1111111
## [3,] 0.0000000  0.0000000  0.3333333

Matrices ortogonales

Se llama matriz ortogonal, C, a una matriz cuadrada, que representa un giro en el espacio.

Vectores y valores propios

  • Los valores propios son las medidas básicas de tamaño de una matriz, que no se ven alteradas si hacemos un cambio de coordenadas que equivale a una rotación de los ejes.

  • Los vectores propios representan las direcciones características de la matriz y no son invariantes.

Vectores propios

Se llaman vectores propios de una matriz cuadrada de orden \(n\) a aquellos vectores cuya dirección no se modifica al transformarlos mediante la matriz. Por tanto \(u\) es un vector propio de la matriz \(X\) si verifica que:

\[ Xu = λu. \]

donde λ es un escalar, que se denomina valor propio de la matriz.

Para calcular el vector propio podemos escribir la ecuación anterior como:

\[ (X−λI)u = 0 \]

  • Ecuación característica

Se denomina la ecuación característica de la matriz, a:

\[ |X − λI| = 0 \]

Es una ecuación polinómica en \(λ\) de orden \(n\) y sus \(n\) raíces se denominan valores propios de la matriz. Si una matriz es diagonal los valores propios son los elementos de la diagonal principal.

\[|X − λI| = \left| \begin{bmatrix} x_{1} & \cdots & 0\\ \vdots & x_{2} & \vdots \\ 0 & \cdots & x_{n} \end{bmatrix} - \begin{bmatrix} λ & \cdots & 0 \\ \vdots & λ & \vdots \\ 0 & \cdots & λ \end{bmatrix} \right| = \left| \begin{bmatrix} x_{1}-λ & \cdots & 0\\ \vdots & x_{2}-λ & \vdots \\ 0 & \cdots & x_{n}-λ \end{bmatrix} \right| \]

\[|X − λI| = (x_{1}-λ) \cdots (x_{n}-λ) \]

y las soluciones de esta ecuación polinómica son \(a_{1}, ..., a_{n}\).

Los valores propios de una matriz tienen las propiedades siguientes:

  1. Si \(λ\) es un valor propio de \(X\), \(λ^r\) es un valor propio de \(X^r\). En particular , si \(X^{−1}\) existe, \(λ^{−1}\) es un valor propio de \(X^{−1}\).

  2. Los valores propios de una matriz y su transpuesta son los mismos.

  3. La suma de los valores propios de \(X\) es igual a la traza.

\[ tr(X) = \sum λ_{i} \]

  1. El producto de los valores propios de \(X\) es igual al determinante

\[ |X| = \prod λ_{i} \]

  1. Las matrices \(X\) y \(P^{−1}XP\) tiene los mismos valores propios.

  2. Las matrices \(X\) y \(X ± I\) tienen los mismos vectores propios y si \(λ\) es un valor propio de \(X\), \(λ ± 1\) es un valor propio de \(X ± I\).

  3. Las matrices cuadradas \(XYZ\), \(YZX\) y \(ZXY\), donde las matrices \(X,Y, y \ Z\) son generales con la condición de que los productos existan, tienen los mismos valores propios no nulos.

  4. Si \(X\) es triangular los valores propios son los elementos diagonales.

  5. Si \(X\) y \(Y\) son cuadradas de órdenes \(n\) y \(p\) los \(np\) vectores propios de su producto de Kronecker, \(A ⊕ B,\) son el producto de Kronecker de los vectores propios de \(A\) y \(B\).

En R los cálculos matemáticos de los vectores y valores propios se reducen a lo sigiente:

X <- matrix(c(20, 19, 21,
             18, 25, 34, 
             17, 23, 27), nrow = 3, byrow = T)
X
##      [,1] [,2] [,3]
## [1,]   20   19   21
## [2,]   18   25   34
## [3,]   17   23   27
lambda <- eigen(X)

# Valores propios
lambda$values
## [1] 68.448394  5.276549 -1.724943
# Vectores propios
lambda$vectors
##            [,1]       [,2]       [,3]
## [1,] -0.5019720 -0.8673498  0.1923837
## [2,] -0.6523395  0.4587200 -0.8184234
## [3,] -0.5678708  0.1930810  0.5414533
# Primer valor propio
lambda$values[1]
## [1] 68.44839
# Primer vector propio
lambda$vectors[,1]
## [1] -0.5019720 -0.6523395 -0.5678708

Valores y vectores propios de matrices simétricas

En estas matrices:

  1. Los valores propios son siempre reales;

  2. Los vectores propios son ortogonales.

X <- matrix(c(4, 1,
              1, 2), nrow = 2, byrow = T)
X
##      [,1] [,2]
## [1,]    4    1
## [2,]    1    2
lambda <- eigen(X)

# Valores propios
lambda$values
## [1] 4.414214 1.585786
# Vectores propios
lambda$vectors
##            [,1]       [,2]
## [1,] -0.9238795  0.3826834
## [2,] -0.3826834 -0.9238795

Generalizando este ejemplo, los valores propios de una matriz simétrica representan las magnitudes de los ejes del elipsoide con centro el origen y determinado por los extremos de los vectores. Los vectores propios indican las direcciones de estos ejes principales.

Datos multivariantes

Teniendo los conocimientos matemáticos necesarios para el análisis multivariado, ya podemos iniciar con estudio ensí de la materia( Datos multivariantes ).

Bibliografía

Peña, D. (2013). Análisis de datos multivariantes. McGraw-Hill España.