logo

Matrices

Conceptos básicos

Para trabajar conjuntamente con \(p\) variables o vectores definimos el concepto de matriz. Una matriz es un conjunto de números dispuestos en filas y columnas y puede verse como un conjunto de vectores columna o un conjunto de vectores fila.

Definición de matriz:

Llamaremos matriz \(A\), de dimensión \(n\times p\) si el arreglo tiene \(n\) filas y \(p\) columnas. Las matrices son representadas por letras mayúsculas.

\[ A = \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1p} \\ a_{21} & a_{22} & \cdots & a_{2p} \\ \vdots & \vdots & \ddots & \vdots \\ a_{n1} & a_{n2} & \cdots & a_{np} \end{pmatrix} \]

donde los elementos \(a_{ij}\) de la matriz, especifican la ubicación del elemento en la matriz. Es decir, será el elemento ubicado en la fila \(i\), columna \(j\).

Una matriz es se puede ver como un arreglo rectangular de datos. Por ejemplo, si tomamos una muestra de \(n\) individuos de una población y a estos se calcula \(p\) variables. Podemos representar cada variable por un vector columna de dimensión \(n\) y el conjunto de datos será una matriz de dimensión \(n \times p\). Es decir, una matriz \((n \times p)\), puede verse como un conjunto de \(p\) vectores columna en \(\mathbb{R}^n\). En particular, cada vector columna se puede ver como una matriz \((n \times 1)\).

Un ejemplo de una matriz en R, sería:

A <- matrix(c(20,19,21,18,25,34,17,23,27),nrow=3,byrow=T)
A
##      [,1] [,2] [,3]
## [1,]   20   19   21
## [2,]   18   25   34
## [3,]   17   23   27

Matriz transpuesta:

Si tenemos una matriz \(A\) y le intercambiamos las filas por las columnas, se obtiene una nueva matriz que se denomina la matriz transpuesta de \(A\) y se denota por \(A^t\). Si \(A\) es de dimensión \(n \times p\), \(A^t\) será de dimensión \(p \times n\).

Para calcular la transpuesta de una matriz, en R sería:

t(A)
##      [,1] [,2] [,3]
## [1,]   20   18   17
## [2,]   19   25   23
## [3,]   21   34   27

Las matriz transpuesta cumple las siguientes propiedades. Sea \(A\) y \(B\) dos matrices y \(k\) un número real:

  1. \((A^t)^t =A\)
  2. \((A+B)^t=A^t+B^t\)
  3. \((A\cdot B)^t = B^t \cdot A^t\)
  4. \((k \cdot A)^t = k \cdot A^t\)

Nota importante: para poder probar estas propiedades es necesario leer la siguiente sección de operaciones entre matrices.

Matriz cuadrada:

Una matriz es cuadrada si el número de filas es igual al número de columnas \(n = p\).

\[ A = \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{n1} & a_{n2} & \cdots & a_{nn} \end{pmatrix} \]

El orden de una matriz indica el número de filas o columnas que tiene la matriz. Por ejemplo, si \(A\) es de dimensión \(3\times 3\), se dice que es de orden 3. Por otra parte, las diagonales de las matrices cuadradas tienen nombres especiales, estos son:

  • La diagonal principal de una matriz cuadrada son los elementos que van desde la esquina superior izquierda hasta la esquina inferior derecha.

  • La diagonal secundaria de una matriz cuadrada son los elementos que van desde la esquina inferior izquierda hasta la esquina superior derecha.

Traza de una matriz cuadrada:

La traza de una matriz cuadrada es la suma de los elementos de la diagonal principal de la matriz.

\[ tr(A) = a_{11}+a_{22}+ \cdots + a_{nn} = \sum_{i=1}^n a_{ii} \]

Un ejemplo de como calcular la traza de una matriz en R, sería:

A <- matrix(c(20,19,21,18,25,34,17,23,27),nrow=3,byrow=T)

trA <- sum(diag(A))
trA
## [1] 72

La traza de una matriz cumple las siguientes propiedades. Sea \(A\) y \(B\) dos matrices cuadradas y \(k\) un número real:

  1. \(tr(A+B)=tr(A)+tr(B)\)

  2. \(tr(k\cdot A) = k \cdot tr(A)\)

  3. \(tr(A\cdot B) = tr(B\cdot A)\)

Nota importante: para poder probar estas propiedades es necesario leer la siguiente sección de operaciones entre matrices.

Matrices cuadradas especiales:

Dentro de las matrices cuadradas, existen algunos casos especiales.

  • matriz simétrica: es aquella que tiene cada fila igual a su correspondiente columna, es decir \(a_{ij} = a_{ji}\). Una matriz simétrica es, por tanto, idéntica a su traspuesta.

\[ A^t= A \] En particular, siendo \(A\) cualquier matriz, los productos \(A \cdot A^t\) y \(A^t\cdot A\) producen matrices simétricas.

  • matriz triangular: es aquella en la que todos los elementos por encima o por debajo de la diagonal principal son cero. Las matrices triangulares son muy utilizadas en cálculos de álgebra lineal, por ejemplo para resolver sistemas de ecuaciones. Existen dos tipos de matrices triangulares: matriz triangular superior, cuando todos los elementos por debajo de la diagonal principal son nulos:
    y matriz triangular inferior, cuando todos los elementos por encima de la diagonal principal son nulos:
  • matriz diagonal: es aquella matriz que es a la vez triangular superior e inferior. Es decir, solo tiene elementos en la diagonal principal.
  • matriz identidad: es un caso particular importante de matriz diagonal. Esta matriz tiene 1’s en la diagonal principal y 0’s en las demás posiciones. Se denota por \(I\) y se suele representar por \(I_n\), donde \(n\) es el orden de la matriz. Algunos ejemplos de matrices identidad son:

\[ I_2 = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}, \quad I_3 = \begin{pmatrix} 1 & 0 & 0\\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}, \quad I_4 = \begin{pmatrix} 1 & 0 & 0 & 0\\ 0 & 1 & 0 & 0\\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix} \]

Operaciones entre matrices

Suma de matrices:

Se define sólo cuando ambas tienen las mismas dimensiones. Cada elemento de la matriz suma se obtiene sumando los elementos correspondientes de los sumandos.

\[ \underbrace{ \begin{pmatrix} a_{11} & \cdots & a_{1p} \\ \vdots & \ddots & \vdots \\ a_{n1} & \cdots & a_{np} \end{pmatrix}}_A + \underbrace{ \begin{pmatrix} b_{11} & \cdots & b_{1p} \\ \vdots & \ddots & \vdots \\ b_{n1} & \cdots & b_{np} \end{pmatrix}}_B = \underbrace{ \begin{pmatrix} c_{11} & \cdots & c_{1p} \\ \vdots & \ddots & \vdots \\ c_{n1} & \cdots & c_{np} \end{pmatrix}}_C \]

donde \(c_{ij} =a_{ij} + b_{ij}\).

Un ejemplo en R:

A <- matrix(c(20, 19, 21,18, 25, 34,17, 23, 27), nrow = 3, byrow = T)

B <- matrix(c(18, 17, 19,16, 23, 32,15, 21, 25), nrow = 3, byrow = T)

C <- A + B
C
##      [,1] [,2] [,3]
## [1,]   38   36   40
## [2,]   34   48   66
## [3,]   32   44   52

Producto de escalar por matriz:

Dada una matriz cualquiera \(A\) y un número real \(k\), el producto \(kA\) se realiza multiplicando todos los elementos de \(A\) por \(k\), resultando otra matriz de igual tamaño.

\[ k \underbrace{ \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1p} \\ a_{21} & a_{22} & \cdots & a_{2p} \\ \vdots & \vdots & \ddots & \vdots \\ a_{n1} & a_{n2} & \cdots & a_{np} \end{pmatrix}}_A = \underbrace{ \begin{pmatrix} ka_{11} & ka_{12} & \cdots & ka_{1p} \\ ka_{21} & ka_{22} & \cdots & ka_{2p} \\ \vdots & \vdots & \ddots & \vdots \\ ka_{n1} & ka_{n2} & \cdots & ka_{np} \end{pmatrix}}_{kA} \] Un ejemplo numérico, sería:

\[ 5 \begin{pmatrix} 2 & 3 & -1 \\ -4 & 2 & 1 \end{pmatrix} = \begin{pmatrix} 10 & 15 & -5 \\ -20 & 10 & 5 \end{pmatrix} \]

En R:

k <- 5
A <- matrix(c(2,3,-1,-4,2,1),nrow=2,byrow=T)
k*A
##      [,1] [,2] [,3]
## [1,]   10   15   -5
## [2,]  -20   10    5

Producto de matrices:

El producto entre dos matrices \(A\) y \(B\) se representa por \(A\cdot B\), sólo es posible cuando el número de columnas de \(A\) es igual al número de filas de \(B\). Entonces, si \(A_{n \times p}\) y \(B_{p \times h}\), el producto es una matriz será \(C_{n \times h}\) con términos:

\[ C_{ij} = \sum_{m=1}^p a_{im} b_{mj} \]

Es decir, el término \(c_{ij}\) representa el producto escalar del vector \(a_i^t\) (\(i\)-ésima fila de \(A\)), por el vector \(b_j\) (\(i\)-ésima columna de \(B\)). El algoritmo de la multiplicación puede entenderse mejor observando el siguiente esquema:

\[ {\text{fila } i} \left\{ \begin{pmatrix} \cdots & \cdots & \cdots & \cdots \\ a_{i1} & a_{i2} & \cdots & a_{ip} \\ \cdots & \cdots & \cdots & \cdots \\ \end{pmatrix}_{n \times p} \right. \cdot \overbrace{ \begin{pmatrix} \vdots & b_{1j} & \vdots \\ \vdots & b_{2j} & \vdots \\ \vdots & \vdots & \vdots \\ \vdots & b_{pj} & \vdots \\ \end{pmatrix}}_{p \times h}^{\text{Columna } j}= \begin{pmatrix} \cdots & \cdots & \cdots \\ \cdots & c_{ij} = a_{i1}b_{1j}+a_{i2}b_{2j}+\cdots a_{ip}b_{pj} & \cdots\\ \cdots & \cdots & \cdots \end{pmatrix}_{n \times h} \]

Un ejemplo numérico, sería:

\[ A \cdot B = \begin{pmatrix} 1 & 1 & 2 \\ 3 & 2 & 1 \\ \end{pmatrix}_{2 \times 3} \begin{pmatrix} 1 \\ 0 \\ 2 \\ \end{pmatrix}_{3\times 1}= \begin{pmatrix} (1)(1)+(1)(0)+(2)(2) \\ (3)(1)+(2)(0)+(1)(2) \\ \end{pmatrix}= \begin{pmatrix} 5 \\ 5 \\ \end{pmatrix}_{2 \times 1} \] En R:

A <- matrix(c(1,1,2,3,2,1),nrow=2,byrow=T)
A
##      [,1] [,2] [,3]
## [1,]    1    1    2
## [2,]    3    2    1
B <- matrix(c(1,0,2),nrow=3,byrow=F)
B
##      [,1]
## [1,]    1
## [2,]    0
## [3,]    2
C <- A %*% B
C
##      [,1]
## [1,]    5
## [2,]    5

Observemos que el producto de dos matrices no es en general conmutativo, ya que si \(A\cdot B\) existe (el número de columnas de \(A\) es igual al número de filas de \(B\)), el producto \(B\cdot A\) puede no existir. Además, aún cuando exista, el producto \(A\cdot B\) es, en general, distinto de \(B\cdot A\).

El producto matricial tiene las siguientes propiedades, donde suponemos que las matrices tienen las dimensiones adecuadas para que los productos esten definidos:

  1. \(A(B + C) = AB + AC\)
  2. \((A\cdot B)^t= B^t \cdot A^t\)
  3. \(A\cdot I = I\cdot A = A\)

Determinante de una matriz

Dada una matriz \(A\) cuadrada de orden \(n\), le asociamos un número llamado determinante de la matriz, y lo representaremos por \(|A|\). Dicho número es un resultado que se puede obtener de diferentes maneras. Trabajaremos con uno de los métodos más usado.

Si tenemos una matriz \(A\) de dimensión \(2\times 2\):

\[ A = \begin{pmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{pmatrix} \]

El determinante de una matriz de dimensión \(2\times 2\) se calcula como la diferencia entre el producto de los elementos de la diagonal principal y el producto de los elementos de la diagonal secundaria.

\[|A| = \left|\begin{matrix} a_{11}& a_{12} \\ a_{21} & a_{22} \end{matrix}\right| = a_{11}a_{22}-a_{12}a_{21}\]

Para matrices de mayor dimensión, se usa la siguiente fórmula:

\[ |A| = \sum_{j=1}^n a_{ij} \left[(-1)^{i+j}m_{ij} \right], \] donde al elemento \((-1)^{i+j} m_{ij}\) se denomina adjunto, el cual es el determinante de la matriz de dimensión \(n-1\) al eliminar la fila \(i\) y la columna \(j\). Por lo tanto, por ejemplo, si tenemos una matriz \(A\) de dimensión \(3\times 3\):

\[ A= \begin{pmatrix} {\color{blue} {a_{11}}} & {\color{green} {a_{12}}} & {\color{red} {a_{13}}} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \end{pmatrix} \] El determinante de una matriz de dimensión \(3\times 3\) es:

\[\begin{align*} |A| & = {\color{blue} {a_{11}}} \left|\begin{matrix} a_{22}& a_{23} \\ a_{32} & a_{33} \end{matrix}\right| - {\color{green} {a_{12}}}\left|\begin{matrix} a_{21}& a_{23} \\ a_{31}& a_{33}\end{matrix} \right| + {\color{red} {a_{13}}} \left| \begin{matrix} a_{21}& a_{22}\\ a_{31} & a_{33} \end{matrix}\right| \\ & \\ & = a_{11}(a_{22}a_{33}-a_{23}a_{32})-a_{12}(a_{21}a_{33}-a_{23}a_{31})+a_{13}(a_{21}a_{32}-a_{22}a_{31}) \end{align*}\]

Hagamos un ejemplo del calculo del determinante de una matriz. Sea la matriz \[A = \begin{pmatrix} {\color{blue} 3} & {\color{green} 2} & {\color{red} 1} \\ 0 & -2 & 3 \\ 1 & 0 & 4 \end{pmatrix} \] Entonces, su determinante es:

\[\begin{align*} |A| & = {\color{blue} 3} \left|\begin{matrix} -2 & 3 \\ 0 & 4 \end{matrix}\right| - {\color{green} 2} \left|\begin{matrix} 0 & 3 \\ 1 & 4 \end{matrix} \right| + {\color{red} 1} \left| \begin{matrix} 0 & -2 \\ 1 & 0 \end{matrix}\right| \\ & = {\color{blue} 3}((-2)(4)-(0)(3))-{\color{green} 2}((0)(4)-(1)(3))+{\color{red} 1}((0)(0)-(1)(-2))\\ & = {\color{blue} 3}(-8)-{\color{green} 2}(-3)+{\color{red} 1}(2) \\ & = -24+6+2=-16 \end{align*}\]

En R sería:

A <- matrix(c(3,2,1,0,-2,3,1,0,4),ncol=3,byrow=T)
A
##      [,1] [,2] [,3]
## [1,]    3    2    1
## [2,]    0   -2    3
## [3,]    1    0    4
# determinante de la matriz A
det(A)
## [1] -16

Matriz inversa

Dada una matriz \(A\) cuadrada de dimensión \(n\times n\), definimos \(A^{-1}\) como la matriz inversa de A, si cumple que:

\[A \cdot A^{-1} = A^{-1} \cdot A = I \] Es decir, si escribimos \(A\) con vectores fila \({\bf a}_i^t\), la matriz \(A^{-1}\) tendrá vectores columna \({\bf b}_i\) tales que:

\[ \begin{pmatrix} {\bf a}_1^t \\ \vdots \\ {\bf a}_n^t \end{pmatrix} \cdot \begin{pmatrix} {\bf b}_1 & \cdots & {\bf b}_n \end{pmatrix} = \begin{pmatrix} {\bf a}_1^t \cdot {\bf b}_1 & \cdots & {\bf a}_1^t \cdot {\bf b}_n \\ \vdots & \ddots & \vdots \\ {\bf a}_n^t \cdot {\bf b}_1 & \cdots & {\bf a}_n^t \cdot {\bf b}_n \\ \end{pmatrix} = \begin{pmatrix} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & 1 \end{pmatrix} \] En consecuencia la matriz \(A^{-1}\) debe tener por columnas vectores \({\bf b}\) tales que:

  1. \({\bf b}_i\) es ortogonal a \({\bf a}_j\), es decir, el producto escalar \({\bf a}_i^t \cdot {\bf b}_j=0, \forall \, i \not = j\).
  2. El producto escalar de los vectores \({\bf a}_i^t \cdot {\bf b}_i=1\).

Es importante resaltar que no todas las matrices tienen matriz inversa. Se dice que si \(A\) tiene inversa la matriz es invertible, y esto sucede cuando el determinante es diferente de cero \(\left(|A| \not =0\right)\). De lo contrario, si la matriz no tiene inversa, \(\left(|A| =0\right)\) y se denomina matriz singular.

Existen diferentes métodos matemáticos para calcular la inversa de una matriz, pero por cuestiones de los objetivos de la clase, solo se trabajará por medio computacional.

Un ejemplo del cálculo de la inversa de una matriz en R sería:

A = matrix(c(1,1,0,-1,2,1,0,0,3),ncol=3,byrow=T)
A
##      [,1] [,2] [,3]
## [1,]    1    1    0
## [2,]   -1    2    1
## [3,]    0    0    3
# Inversa de A
Inv_A <- round(solve(A),1)
Inv_A
##      [,1] [,2] [,3]
## [1,]  0.7 -0.3  0.1
## [2,]  0.3  0.3 -0.1
## [3,]  0.0  0.0  0.3
# Comprobamos:
round(A %*% Inv_A)
##      [,1] [,2] [,3]
## [1,]    1    0    0
## [2,]    0    1    0
## [3,]    0    0    1

La necesidad de calcular la inversa de una matriz aparece de manera natural al resolver sistemas de ecuaciones lineales:

\[ A \cdot {\bf x} = {\bf b} \] donde \(A\) es una matriz cuadrada conocida, \({\bf b}\) un vector de constantes conocidas y \({\bf x}\) un vector de \(n\) incognitas. Para este sistema tenga solución única la matriz \(A\) debe tener inversa y la solución de este sistema, sería:

\[ {\bf x} = A^{-1} \cdot {\bf b} \] Definimos que \(A\) es matriz ortogonal si se cumple que:

\[ A^t = A^{-1} \]

La inversa de \(A\) tiene las siguientes propiedades:

  1. \((A\cdot B)^{-1}= B^{-1} \cdot A^{-1}\)
  2. \((A^t)^{-1}=(A^{-1})^t\)
  3. \(|A^{-1}|=|A|^{-1}\)
  4. Si \(A\) es simetétrica lo es \(A^{-1}\)

La matriz inversa de una matriz de varianzas y covarianzas tiene una interesante interpretación en Estadística, como veremos en el siguiente tema.

Vectores y valores propios

Dada una matriz cuadrada hay determinadas propiedades que esperamos sean invariantes ante ciertas transformaciones lineales que preservan la información existente en la matriz. Por ejemplo, si transponemos la matriz las propiedades básicas de los vectores que la forman no varían y ni la traza ni el determinante se modifican. Es decir, al transponer la matriz, simplemente estamos girando los vectores que la forman, no se alteran ni sus magnitudes ni sus posiciones relativas, por lo que esperamos que las propiedades básicas de la matriz se mantengan.

Vectores propios

Se denominan vectores propios de una matriz a aquellos vectores cuya dirección no se modifica al transformarlos mediante la matriz. Es decir, \({\bf u}\) es un vector propio de la matriz \(A\) si se verifica que:

\[ A\cdot {\bf u}= \lambda \cdot {\bf u}, \]

donde \(\lambda\) es un escalar, que se denomina valor propio de la matriz. Para calcular los vectores propios, podemos escribir la ecuación anterior como: \[ (A−\lambda I){\bf u} = 0, \] y este es un sistema homogéneo de ecuaciones que tendrá solución no nula si y solo si la matriz del sistema, \((A−\lambda I)\), es singular (no invertible). En efecto, si esta matriz fuese invertible multiplicando por la inversa tendríamos que la única solución es \({\bf u} = {\bf 0}\). Por lo tanto, este sistema tiene solución no nula si se verifica que: \[ |A − \lambda I| = 0 \] Esta ecuación se denomina la ecuación característica de la matriz. Es una ecuación polinómica en \(\lambda\) de orden \(n\) y sus \(n\) soluciones se denominan valores propios de la matriz.

Los valores propios de una matriz tienen las siguientes propiedades:

  • Si \(\lambda\) es un valor propio de \(A\), \(\lambda^r\) es un valor propio de \(A^r\).

  • Los valores propios de una matriz y su transpuesta son los mismos.

  • La suma de los valores propios de \(A\) es igual a la traza.

\[ tr(A)=\sum \lambda_i\]

  • El producto de los valores propios de \(A\) es igual al determinante.

\[ |A|=\prod \lambda_i \]

  • Las matrices \(A\) y \(A\pm I\) tienen los mismos vectores propios y si \(\lambda\) es un valor propio de \(A\), \(\lambda \pm 1\) es un valor propio de \(A\pm I\).

En R el cálculo de valores y vectores propios de una matriz se reduce a lo siguiente:

# Ejemplo de matriz 2x2
A = matrix(c(4,1,1,2),ncol=2,byrow=T)
A
##      [,1] [,2]
## [1,]    4    1
## [2,]    1    2
lambda_A <- eigen(A)
# Vectores propios de A
lambda_A$vectors
##            [,1]       [,2]
## [1,] -0.9238795  0.3826834
## [2,] -0.3826834 -0.9238795
# Valores propios de A
lambda_A$values
## [1] 4.414214 1.585786
# Ejemplo de matriz 3x3
B = matrix(c(20, 19, 21,18, 25, 34,17, 23, 27),ncol=3,byrow=T)
B
##      [,1] [,2] [,3]
## [1,]   20   19   21
## [2,]   18   25   34
## [3,]   17   23   27
lambda_B <- eigen(B)
# Vectores propios de B
lambda_B$vectors
##            [,1]       [,2]       [,3]
## [1,] -0.5019720 -0.8673498  0.1923837
## [2,] -0.6523395  0.4587200 -0.8184234
## [3,] -0.5678708  0.1930810  0.5414533
# Valores propios de B
lambda_B$values
## [1] 68.448394  5.276549 -1.724943

Los valores y vectores propios de una matriz simétrica cumplen las siguientes propiedades:

  • Los valores propios son siempre números reales \((\lambda_i \in \mathbb{R})\).
  • Los vectores propios son ortogonales entre sí \(({\bf u}_i^t \cdot {\bf u}_j=0)\).

Un ejemplo en R:

# Matriz simétrica
A <- matrix(c(4,1,1,2),ncol=2,byrow=T)
A
##      [,1] [,2]
## [1,]    4    1
## [2,]    1    2
lambda_A <- eigen(A)

# Los valores propios serán números reales
lambda_A$values
## [1] 4.414214 1.585786
# Los vectores propios son ortogonales
lambda_A$vectors
##            [,1]       [,2]
## [1,] -0.9238795  0.3826834
## [2,] -0.3826834 -0.9238795
# Prueba
lambda_A$vectors[,1]%*%lambda_A$vectors[,2]
##      [,1]
## [1,]    0

Diagonalización de matrices simétricas:

Una propiedad muy importante de las matrices simétricas es que pueden convertirse en una matriz diagonal mediante una transformación ortogonal. Sea \(A\) una matriz cuadrada y simétrica de orden \(n\). Hemos visto que esta matriz tiene valores propios reales y vectores propios ortogonales. Entonces los vectores propios, \(u_1,\cdots , u_n\), son linealmente independientes. Podemos escribir:

\[ A \left[{\bf u}_1, \cdots , {\bf u}_n \right] = \left[\lambda_1\cdot {\bf u}_1, \cdots , \lambda_n \cdot {\bf u}_n \right] \] donde \(\lambda_1,\cdots,\lambda_n\) son los valores propios que son números reales. En particular. Esta ecuación puede escribirse, llamando \(D\) a la matriz diagonal con términos \(\lambda_i\), como:

\[ AU = UD \] donde la matriz \(U\) es ortogonal. Entonces \(A^t = A^{-1}\). Despejando, podemos obtener:

\[ U^t A U = D \] y se logra transformar la matriz original es una matriz diagonal \(D\), mediante una matriz \(U\) ortogonal.

Teorema de descomposición espectral:

Es interesante poder descomponer una matriz cuadrada simétrica en sus fuentes de variación intrínsecas, es decir en las direcciones de los vectores propios con coficientes que dependen de los valores propios. Esto es lo que consigue la descomposión espectral. Despejando la diagonalización anterior, obtenemos:

\[ A = U D U^t \] Por lo tanto, una matriz cuadrada simétrica se puede descomponer:

\[ A = \begin{pmatrix} {\bf u}_1 \cdots, {\bf u}_n \end{pmatrix} \begin{pmatrix} \lambda_1 \cdot {\bf u}_1^t\\ \vdots \\ \lambda_n \cdot {\bf u}_n^t \end{pmatrix}, \]

de donde resulta:

\[ A = \sum_{i=1}^n \lambda_i \cdot {\bf u}_i \cdot {\bf u}_i^t \] que descompone la matriz \(A\) como la suma de \(n\) matrices \({\bf u}_i \cdot {\bf u}_i^t\) con coeficientes \(\lambda_i\). Observemos que la descomposición espectral de \(A^{-1}\) es:

\[ A^{-1} = \sum_{i=1}^n \lambda_i^{-1} \cdot {\bf u}_i \cdot {\bf u}_i^t \] ya que \(A^{-1}\) tiene los mismos vectores propios de \(A\) y los valores propios \(\lambda_i^{-1}\).

Un ejemplos en R:

A <- matrix(c(13,4,1,4,1,-2,1,-2,10),ncol=3,byrow=T)
A
##      [,1] [,2] [,3]
## [1,]   13    4    1
## [2,]    4    1   -2
## [3,]    1   -2   10
lambda_A <- eigen(A)

# Los valores propios 
lambda_A$values
## [1] 14.2475390 10.4193517 -0.6668907
# Vectores propios son ortogonales
lambda_A$vectors
##            [,1]        [,2]       [,3]
## [1,] 0.95680625 -0.03431669  0.2886939
## [2,] 0.27439887 -0.22149930 -0.9357582
## [3,] 0.09605762  0.97455653 -0.2025155
# Descomposición de A
lambda_A$vectors%*%diag(lambda_A$values)%*%t(lambda_A$vectors)
##      [,1] [,2] [,3]
## [1,]   13    4    1
## [2,]    4    1   -2
## [3,]    1   -2   10
# Inversa de A
round(solve(A),1)
##      [,1] [,2] [,3]
## [1,] -0.1  0.4  0.1
## [2,]  0.4 -1.3 -0.3
## [3,]  0.1 -0.3  0.0
# Descomposición inversa de A
round(lambda_A$vectors%*%diag(1/lambda_A$values)%*%t(lambda_A$vectors),1)
##      [,1] [,2] [,3]
## [1,] -0.1  0.4  0.1
## [2,]  0.4 -1.3 -0.3
## [3,]  0.1 -0.3  0.0

Ejercicios

  1. Revisa todas las propiedades sobre matrices que se comentaron del tema.

  2. Sea la matriz \(A\) \[ A = \begin{pmatrix} 1 & 1 \\ 0 & 1 \\ 2 & 2 \end{pmatrix} \]

  1. Calcula la matriz \(A^tA\), su determinante y su traza.
  2. Calcula la matriz \(AA^t\), su determinante y su traza.
  3. Calcula la inversa de \(A^tA\).
  1. Sea la matriz \(B\)

\[ B = \begin{pmatrix} 2 & 1 \\ 1 & 2 \end{pmatrix} \]

  1. Calcula los valores y vectores propios de la matriz \(B\).
  2. Escriba la representación espectral de la matriz \(B\).
  3. Calcula los valores y vectores propios de la matriz \(B^{-1}\) y su representación espectral.