require(matrixcalc)
require(Matrix)
require(ibd)
require(pracma)
require(matlib)
require(MASS)
Matrizes são denotadas por letras maiúsculas em negrito e formada por números reais:
\[ \boldsymbol{A}=\begin{pmatrix} 2 & 3 & 1\\ 0 & -2 & 3 \end{pmatrix}; \boldsymbol{B}=\begin{pmatrix} 1 & 2 \\ 3 & 5 \end{pmatrix}; \boldsymbol{C}=\begin{pmatrix} 1 & 1 \\ 1 & -1\\ 1 & 0 \end{pmatrix} \]
Exemplos: Criando matrizes de vários tipos:
A=matrix(-8:7,byrow=T,nrow=4)
lower.triangle(A)
## [,1] [,2] [,3] [,4]
## [1,] -8 0 0 0
## [2,] -4 -3 0 0
## [3,] 0 1 2 0
## [4,] 4 5 6 7
upper.triangle(A)
## [,1] [,2] [,3] [,4]
## [1,] -8 -7 -6 -5
## [2,] 0 -3 -2 -1
## [3,] 0 0 2 3
## [4,] 0 0 0 7
diag(1:5)
## [,1] [,2] [,3] [,4] [,5]
## [1,] 1 0 0 0 0
## [2,] 0 2 0 0 0
## [3,] 0 0 3 0 0
## [4,] 0 0 0 4 0
## [5,] 0 0 0 0 5
diag(1:5)[5:1,]
## [,1] [,2] [,3] [,4] [,5]
## [1,] 0 0 0 0 5
## [2,] 0 0 0 4 0
## [3,] 0 0 3 0 0
## [4,] 0 2 0 0 0
## [5,] 1 0 0 0 0
dim=5
diag(1,dim)
## [,1] [,2] [,3] [,4] [,5]
## [1,] 1 0 0 0 0
## [2,] 0 1 0 0 0
## [3,] 0 0 1 0 0
## [4,] 0 0 0 1 0
## [5,] 0 0 0 0 1
t(A)
## [,1] [,2] [,3] [,4]
## [1,] -8 -4 0 4
## [2,] -7 -3 1 5
## [3,] -6 -2 2 6
## [4,] -5 -1 3 7
B=matrix(1:9,ncol=3,byrow=T)
bdiag(replicate(3,B,simplify=FALSE))
## 9 x 9 sparse Matrix of class "dgCMatrix"
##
## [1,] 1 2 3 . . . . . .
## [2,] 4 5 6 . . . . . .
## [3,] 7 8 9 . . . . . .
## [4,] . . . 1 2 3 . . .
## [5,] . . . 4 5 6 . . .
## [6,] . . . 7 8 9 . . .
## [7,] . . . . . . 1 2 3
## [8,] . . . . . . 4 5 6
## [9,] . . . . . . 7 8 9
Exemplo: Lição do geogebra: https://www.geogebra.org/m/mxwkjnxe:
knitr::include_graphics("fig1_un1.png")
A=matrix(c(1:8,-9),byrow=T,nrow=3)
B=matrix(c(4,8,9,5,6,2,3,2,2),byrow=T,nrow=3)
A+B
A-B
A %*% B
det(A)
det(B)
t(A)
round(solve(A),2)
Dadas as matrizes \(\boldsymbol{A}_{m\times n}\) e \(\boldsymbol{B}_{r\times s}\), definimos sua soma direta como \[ \begin{array}{l} \boldsymbol{A}\bigoplus \boldsymbol{B} = \begin{pmatrix} \boldsymbol{A} & \boldsymbol{\emptyset} \\ \boldsymbol{\emptyset} & \boldsymbol{B} \end{pmatrix} \end{array} \]
Exemplo: Sejam \[ \begin{array}{l} \boldsymbol{A}=\begin{pmatrix} 1 & 2 & 3 \end{pmatrix} \mbox{ e } \boldsymbol{B}=\begin{pmatrix} 6 & 7 \\ 4 & -1 \end{pmatrix}\\ \Downarrow \\ \boldsymbol{A}\bigoplus \boldsymbol{B} = \begin{pmatrix} 1 & 2 & 3 & 0 & 0\\ 0 & 0 & 0 & 6 & 7\\ 0 & 0 & 0 & 4 & -1 \end{pmatrix} \mbox{ e } \boldsymbol{B}\bigoplus \boldsymbol{A} = \begin{pmatrix} 6 & 7 & 0 & 0 & 0\\ 4 & -1 & 0 & 0 & 0\\ 0 & 0 & 1 & 2 & 3 \end{pmatrix} \end{array} \]
Conferindo os resultados com o comando direct.sum(matrixcalc)
A=matrix(1:3,byrow=T,ncol=3)
B=matrix(c(6,7,4,-1),byrow=T,ncol=2)
direct.sum(A,B)
## [,1] [,2] [,3] [,4] [,5]
## [1,] 1 2 3 0 0
## [2,] 0 0 0 6 7
## [3,] 0 0 0 4 -1
direct.sum(B,A)
## [,1] [,2] [,3] [,4] [,5]
## [1,] 6 7 0 0 0
## [2,] 4 -1 0 0 0
## [3,] 0 0 1 2 3
Dadas as matrizes \(\boldsymbol{A}_{m\times n}\) e \(\boldsymbol{B}_{r\times s}\), define-se o produto direto de \(\boldsymbol{A}\) por \(\boldsymbol{B}\) como a matriz \(\boldsymbol{C}_{mr\times ns}\), tal que \[ \boldsymbol{C}=\boldsymbol{A} \bigotimes \boldsymbol{B} = \begin{pmatrix} a_{11} \boldsymbol{B} & a_{12} \boldsymbol{B} & \dots & a_{1n} \boldsymbol{B}\\ a_{21} \boldsymbol{B} & a_{22} \boldsymbol{B} & \dots & a_{2n} \boldsymbol{B}\\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} \boldsymbol{B} & a_{m2} \boldsymbol{B} & \dots & a_{mn} \boldsymbol{B}\\ \end{pmatrix} \]
Exemplo: Sejam \[ \begin{array}{l} \boldsymbol{A}=\begin{pmatrix} 1 & 0\\ 0 & 1 \end{pmatrix}, \boldsymbol{B}=\begin{pmatrix} 2 & 3\\ 4 & 5 \end{pmatrix} \mbox{ e } \boldsymbol{v}=\begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix} \\ \boldsymbol{A} \bigotimes \boldsymbol{B}=\begin{pmatrix} 2 & 3 & 0 & 0\\ 4 & 5 & 0 & 0\\ 0 & 0 & 2 & 3\\ 0 & 0 & 4 & 5 \end{pmatrix} \mbox{ e } \boldsymbol{B} \bigotimes \boldsymbol{A}=\begin{pmatrix} 2 & 0 & 3 & 0\\ 0 & 2 & 0 & 3\\ 4 & 0 & 5 & 0\\ 0 & 4 & 0 & 5 \end{pmatrix}\\ \boldsymbol{B} \bigotimes \boldsymbol{v}=\begin{pmatrix} 2 & 3\\ 4 & 6\\ 6 & 9\\ 4 & 5\\ 8 & 10\\ 12 & 15 \end{pmatrix} \mbox{ e } \boldsymbol{v} \bigotimes \boldsymbol{B}=\begin{pmatrix} 2 & 3\\ 4 & 5\\ 4 & 6\\ 8 & 10\\ 6 & 9\\ 12 & 15 \end{pmatrix} \end{array} \]
A=matrix(c(1,0,0,1),ncol=2,byrow=T)
B=matrix(c(2,3,4,5),ncol=2,byrow=T)
v=matrix(c(1,2,3),ncol=1)
Conferindo os resultados com o comando direct.prod(matrixcalc)
direct.prod(A,B)
## [,1] [,2] [,3] [,4]
## [1,] 2 3 0 0
## [2,] 4 5 0 0
## [3,] 0 0 2 3
## [4,] 0 0 4 5
direct.prod(B,A)
## [,1] [,2] [,3] [,4]
## [1,] 2 0 3 0
## [2,] 0 2 0 3
## [3,] 4 0 5 0
## [4,] 0 4 0 5
direct.prod(B,v)
## [,1] [,2]
## [1,] 2 3
## [2,] 4 6
## [3,] 6 9
## [4,] 4 5
## [5,] 8 10
## [6,] 12 15
direct.prod(v,B)
## [,1] [,2]
## [1,] 2 3
## [2,] 4 5
## [3,] 4 6
## [4,] 8 10
## [5,] 6 9
## [6,] 12 15
Dada a matriz quadrada \(\boldsymbol{A}_n\), a k-´esima potência de A é dada por: \[ \boldsymbol{A}^n=\underbrace{\boldsymbol{A}.\boldsymbol{A}\dots \boldsymbol{A}}_{\mbox{n vezes}} \]
Exemplo: Seja \[ \boldsymbol{A}=\begin{pmatrix} 1 & 2 & 3\\ 4 & 5 & 6\\ 7 & 8 & 9 \end{pmatrix} \Rightarrow \boldsymbol{A}^2=\begin{pmatrix} 30 & 36 & 42\\ 66 & 81 & 96\\ 102 & 126 & 150 \end{pmatrix} \mbox{ e } \boldsymbol{A}^3=\begin{pmatrix} 468 & 576 & 684\\ 1062 & 1305 & 1548\\ 1656 & 2034 & 2412 \end{pmatrix} \]
A=matrix(1:9,byrow=T,ncol=3)
A %*% A
## [,1] [,2] [,3]
## [1,] 30 36 42
## [2,] 66 81 96
## [3,] 102 126 150
Simplificando as tarefas com o comando matrix.power(matrixcalc)
matrix.power(A,2)
## [,1] [,2] [,3]
## [1,] 30 36 42
## [2,] 66 81 96
## [3,] 102 126 150
matrix.power(A,3)
## [,1] [,2] [,3]
## [1,] 468 576 684
## [2,] 1062 1305 1548
## [3,] 1656 2034 2412
A partição de matrizes pode facilitar os cálculos de multiplicação entre matrizes, como vemos a seguir. Seja: \[ \begin{array}{l} \boldsymbol{X}=\begin{pmatrix} 1 & 1 & 0 & 1 & 0 & 0\\ 1 & 1 & 0 & 0 & 1 & 0\\ 1 & 1 & 0 & 0 & 0 & 1\\ 1 & 0 & 1 & 1 & 0 & 0\\ 1 & 0 & 1 & 0 & 1 & 0\\ 1 & 0 & 1 & 0 & 0 & 1 \end{pmatrix}\\ \mbox{Temos a seguinte partição: } \boldsymbol{X}=(\boldsymbol{X}_1 | \boldsymbol{X}_2 | \boldsymbol{X}_3)= \left(\begin{array}{c | c c | c c c} 1 & 1 & 0 & 1 & 0 & 0\\ 1 & 1 & 0 & 0 & 1 & 0\\ 1 & 1 & 0 & 0 & 0 & 1\\ 1 & 0 & 1 & 1 & 0 & 0\\ 1 & 0 & 1 & 0 & 1 & 0\\ 1 & 0 & 1 & 0 & 0 & 1 \end{array} \right) \\ \mbox{ de modo que } \boldsymbol{X^tX}=\begin{pmatrix} \boldsymbol{X_1}^t \\ \boldsymbol{X_2}^t \\ \boldsymbol{X_3}^t \end{pmatrix}. \begin{pmatrix} \boldsymbol{X_1}^t & \boldsymbol{X_2}^t & \boldsymbol{X_3}^t \end{pmatrix}= \begin{pmatrix} \boldsymbol{X_1^t X_1} & \boldsymbol{X_1^t X_2} & \boldsymbol{X_1^t X_3}\\ \boldsymbol{X_2^t X_1} & \boldsymbol{X_2^t X_2} & \boldsymbol{X_2^t X_3}\\ \boldsymbol{X_3^t X_1} & \boldsymbol{X_3^t X_2} & \boldsymbol{X_3^t X_3} \end{pmatrix}\\ \Rightarrow \boldsymbol{X^tX}=\left(\begin{array}{c | c c | c c c} 6 & 3 & 3 & 2 & 2 & 2 \\ \hline 3 & 3 & 0 & 1 & 1 & 1\\ 3 & 0 & 3 & 1 & 1 & 1\\ \hline 2 & 1 & 1 & 2 & 0 & 0\\ 2 & 1 & 1 & 0 & 2 & 0\\ 2 & 1 & 1 & 0 & 0 & 2 \end{array} \right) \end{array} \]
Implementação no R:
X=matrix(c(1,1,0,1,0,0,1,1,0,0,1,0,1,1,0,0,0,1,1,0,1,1,0,0,1,0,1,0,1,0,1,0,1,0,0,1),
byrow=T,ncol=6)
X1=as.matrix(X[,1])
X2=as.matrix(X[,2:3])
X3=as.matrix(X[,4:6])
t(X)%*%X
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 6 3 3 2 2 2
## [2,] 3 3 0 1 1 1
## [3,] 3 0 3 1 1 1
## [4,] 2 1 1 2 0 0
## [5,] 2 1 1 0 2 0
## [6,] 2 1 1 0 0 2
aux1=cbind(t(X1)%*%X1,t(X1)%*%X2,t(X1)%*%X3)
aux2=cbind(t(X2)%*%X1,t(X2)%*%X2,t(X2)%*%X3)
aux3=cbind(t(X3)%*%X1,t(X3)%*%X2,t(X3)%*%X3)
rbind(aux1,aux2,aux3)
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 6 3 3 2 2 2
## [2,] 3 3 0 1 1 1
## [3,] 3 0 3 1 1 1
## [4,] 2 1 1 2 0 0
## [5,] 2 1 1 0 2 0
## [6,] 2 1 1 0 0 2
Uma matriz de forma escalonada reduzida (ou forma escalonada canônica) por linhas tem as seguintes características:
O posto ou rank de uma matriz \(\boldsymbol{A}\) é igual ao número de linhas não nulas de sua forma escalonada canônica.
Exemplo: Seja a matriz \[ \boldsymbol{A}=\begin{pmatrix} 4 & 2 & 2\\ 2 & 2 & 0\\ 2 & 0 & 2 \end{pmatrix} \Rightarrow \boldsymbol{R}=\begin{pmatrix} 1 & 0 & 1\\ 0 & 1 & -1\\ 0 & 0 & 0 \end{pmatrix} \mbox{ e } r(\boldsymbol{A})=2 \]
O método de eliminação de Gauss mostra o passo-a-passo para encontrar a matriz escalonada, com gaussianElimination(matlib)
A=matrix(c(4,2,2,2,2,0,2,0,2),byrow=T,nrow=3)
gaussianElimination(A,verbose=T)
##
## Initial matrix:
## [,1] [,2] [,3]
## [1,] 4 2 2
## [2,] 2 2 0
## [3,] 2 0 2
##
## row: 1
##
## multiply row 1 by 0.25
## [,1] [,2] [,3]
## [1,] 1 0.5 0.5
## [2,] 2 2.0 0.0
## [3,] 2 0.0 2.0
##
## multiply row 1 by 2 and subtract from row 2
## [,1] [,2] [,3]
## [1,] 1 0.5 0.5
## [2,] 0 1.0 -1.0
## [3,] 2 0.0 2.0
##
## multiply row 1 by 2 and subtract from row 3
## [,1] [,2] [,3]
## [1,] 1 0.5 0.5
## [2,] 0 1.0 -1.0
## [3,] 0 -1.0 1.0
##
## row: 2
##
## multiply row 2 by 0.5 and subtract from row 1
## [,1] [,2] [,3]
## [1,] 1 0 1
## [2,] 0 1 -1
## [3,] 0 -1 1
##
## multiply row 2 by 1 and add to row 3
## [,1] [,2] [,3]
## [1,] 1 0 1
## [2,] 0 1 -1
## [3,] 0 0 0
##
## row: 3
Outra alternativa é utilizar o comando rref(pracma) que traz a forma reduzida sem mostrar detalhes:
rref(A)
## [,1] [,2] [,3]
## [1,] 1 0 1
## [2,] 0 1 -1
## [3,] 0 0 0
E também podemos pedir o posto de \(\boldsymbol{A}\) igual a 2, significa que uma linha da matriz é combinação linear de outras duas linhas! Utilizamos o comando Rank(pracma)
Rank(A)
## [1] 2
Com relação ao posto, temos a classificação das matrizes:
Exemplo: Sejam as matrizes \(\boldsymbol{A}\),\(\boldsymbol{B}\),\(\boldsymbol{C}\) com suas respectivas formas escalonadas \(\boldsymbol{A}_1\),\(\boldsymbol{B}_1\),\(\boldsymbol{C}_1\) \[ \begin{array}{l} \boldsymbol{A}_{3 \times 3}=\begin{pmatrix} 1 & 2 & 3\\ 4 & 5 & 6\\ 7 & 8 & 9 \end{pmatrix} \Rightarrow \boldsymbol{A_1}=\begin{pmatrix} 1 & 0 & -1\\ 0 & 1 & 2\\ 0 & 0 & 0 \end{pmatrix} \\ \Rightarrow R(\boldsymbol{A})=2 \mbox{ e } \boldsymbol{A} \mbox{ tem posto incompleto} \end{array} \]
\[ \begin{array}{l} \boldsymbol{B}=\begin{pmatrix} 1 & 2 & 3 & 4 & 5\\ 6 & 7 & 8 & 9 & 10 \end{pmatrix} \Rightarrow \boldsymbol{B_1}=\begin{pmatrix} 1 & 0 & -1 & -2 & -3\\ 0 & 1 & 2 & 3 & 4 \end{pmatrix} \\ \Rightarrow R(\boldsymbol{B})=2 \mbox{ e } \boldsymbol{B} \mbox{ tem posto linha completo} \end{array} \]
\[ \begin{array}{l} \boldsymbol{C}=\begin{pmatrix} -5 & -4\\ -3 & -2\\ -1 & 0\\ 1 & 2\\ 3 & 4 \end{pmatrix} \Rightarrow \boldsymbol{C_1}=\begin{pmatrix} 1 & 0\\ 0 & 1\\ 0 & 0\\ 0 & 0\\ 0 & 0 \end{pmatrix} \\ \Rightarrow R(\boldsymbol{C})=2 \mbox{ e } \boldsymbol{C} \mbox{ tem posto coluna completo} \end{array} \] \[ \begin{array}{l} \boldsymbol{D}=\begin{pmatrix} -5 & 1 & 3 & 2\\ 5 & 9 & 12 & -7\\ 9 & 13 & 11 & -10\\ -2 & 5 & 7 & 1 \end{pmatrix} \Rightarrow \boldsymbol{D_1}=\begin{pmatrix} 1 & 0 & 0 & 0\\ 0 & 1 & 0 & 0\\ 0 & 0 & 1 & 0\\ 0 & 0 & 0 & 1 \end{pmatrix}\\ \Rightarrow R(\boldsymbol{D})=4 \mbox{ e } \boldsymbol{D} \mbox{ tem posto completo} \end{array} \]
Implementação no R:
A=matrix(1:9,ncol=3,byrow=T)
rref(A)
## [,1] [,2] [,3]
## [1,] 1 0 -1
## [2,] 0 1 2
## [3,] 0 0 0
Rank(A)
## [1] 2
B=matrix(1:10,ncol=5,byrow=T)
rref(B)
## [,1] [,2] [,3] [,4] [,5]
## [1,] 1 0 -1 -2 -3
## [2,] 0 1 2 3 4
Rank(B)
## [1] 2
C=matrix(-5:4,ncol=2,byrow=T)
rref(C)
## [,1] [,2]
## [1,] 1 0
## [2,] 0 1
## [3,] 0 0
## [4,] 0 0
## [5,] 0 0
Rank(C)
## [1] 2
D=matrix(c(-5,1,3,2,5,9,12,-7,9,13,11,-10,-2,5,7,1),byrow=T,ncol=4)
rref(D)
## [,1] [,2] [,3] [,4]
## [1,] 1 0 0 0
## [2,] 0 1 0 0
## [3,] 0 0 1 0
## [4,] 0 0 0 1
Rank(D)
## [1] 4
Seja \(\boldsymbol{A}\) matriz quadrada, o determinante é representado por \(|\boldsymbol{A}|\) ou \(\mbox{det}(\boldsymbol{A})\):
Exemplo 4.1: (página 59 do Livro)
\[ \begin{array}{l} \mbox{ a) } \begin{vmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{vmatrix} =a_{11}.a_{22}-a_{12}-a_{21}\\ \mbox{ b) } \left| \begin{array}{ccc:cc} b_{11} & b_{12} & b_{13} & b_{11} & b_{12} \\ b_{21} & b_{22} & b_{23} & b_{21} & b_{22} \\ b_{31} & b_{32} & b_{33} & b_{31} & b_{32} \end{array} \right|=\\ b_{11}.b_{22}.b_{33}+b_{12}.b_{23}.b_{31}+b_{13}.b_{21}.b_{32}\\ -b_{12}.b_{21}.b_{33}-b_{11}.b_{23}.b_{32}-b_{13}.b_{22}.b_{31} \\ \rightarrow \mbox{ regra de Sarrus} \end{array} \]
Alternativamente: podemos utilizar o Teorema de Laplace: O determinante de uma matriz \(\boldsymbol{A}\), é igual à soma dos produtos dos elementos de uma fila (linha ou coluna) pelos seus respectivos cofatores.
Dada a matriz quadrada \(\boldsymbol{A}_n\) de posto igual a \(n\), então existe a inversa \(\boldsymbol{A}^{-1}\), tal que
\[ \boldsymbol{A}^{−1}\boldsymbol{A} = \boldsymbol{A}^{−1}\boldsymbol{A}= \boldsymbol{I}_n. \]
Sendo assim, \(\boldsymbol{A}_n\) é dita não singular e \(\boldsymbol{A}^{-1}_n\) é a sua inversa única. Há vários modos de obter a inversa:
Encontramos manualmente pela definição. Este método é válido para matrizes de dimensão 2. A partir de 3, fica inviável!
Exemplo: Seja a matriz \(\boldsymbol{A}\): \[ \begin{array}{l} \boldsymbol{A}=\begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}\\ \Rightarrow \boldsymbol{A}^{-1}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \mbox{é tal que} \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}. \begin{pmatrix} a & b \\ c & d \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} \Rightarrow \left\{ \begin{array}{l} a+2c=1\\ b+2d=0 \\ 3a+4c=0\\ 3b+4d=1 \end{array} \right.\\ \Rightarrow a=-2,b=1,c=1.5,d=-0.5 \end{array}\\ \]
Conferindo os resultados com o comando solve(base)
A=matrix(1:4,byrow=T,ncol=2)
solve(A)
## [,1] [,2]
## [1,] -2.0 1.0
## [2,] 1.5 -0.5
\[ \begin{array}{l} \boldsymbol{A}=\begin{pmatrix} 1 & 2 & 1 \\ 2 & 1 & 0 \\ 1 & 1 & 1 \end{pmatrix}\\ \Rightarrow (\boldsymbol{A | I})= \left(\begin{array}{c c c | c c c} 1 & 2 & 1 & 1 & 0 & 0 \\ 2 & 1 & 0 & 0 & 1 & 0 \\ 1 & 1 & 1 & 0 & 0 & 1 \end{array} \right) \sim \dots \sim \left(\begin{array}{c c c | c c c} 1 & 0 & 0 & -0.5 & 0.5 & 0.5 \\ 0 & 1 & 0 & 1 & 0 & 1 \\ 0 & 0 & 1 & -0.5 & -0.5 & 1.5 \end{array} \right) = (\boldsymbol{I | \boldsymbol{A}^{-1}})\\ \Rightarrow \boldsymbol{A}^{-1} = \begin{pmatrix} -0.5 & 0.5 & 0.5 \\ 1 & 0 & 1 \\ 1 & 0 & 1 \end{pmatrix} \end{array} \]
Implementação do algoritmo de Gauss com gaussianElimination(matlib)
A=matrix(c(1,2,1,2,1,0,1,1,1),byrow=T,ncol=3)
gaussianElimination(A,diag(3),verbose=T)
##
## Initial matrix:
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 1 2 1 1 0 0
## [2,] 2 1 0 0 1 0
## [3,] 1 1 1 0 0 1
##
## row: 1
##
## exchange rows 1 and 2
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 2 1 0 0 1 0
## [2,] 1 2 1 1 0 0
## [3,] 1 1 1 0 0 1
##
## multiply row 1 by 0.5
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 1 0.5 0 0 0.5 0
## [2,] 1 2.0 1 1 0.0 0
## [3,] 1 1.0 1 0 0.0 1
##
## subtract row 1 from row 2
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 1 0.5 0 0 0.5 0
## [2,] 0 1.5 1 1 -0.5 0
## [3,] 1 1.0 1 0 0.0 1
##
## subtract row 1 from row 3
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 1 0.5 0 0 0.5 0
## [2,] 0 1.5 1 1 -0.5 0
## [3,] 0 0.5 1 0 -0.5 1
##
## row: 2
##
## multiply row 2 by 0.6666667
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 1 0.5 0.0000000 0.0000000 0.5000000 0
## [2,] 0 1.0 0.6666667 0.6666667 -0.3333333 0
## [3,] 0 0.5 1.0000000 0.0000000 -0.5000000 1
##
## multiply row 2 by 0.5 and subtract from row 1
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 1 0.0 -0.3333333 -0.3333333 0.6666667 0
## [2,] 0 1.0 0.6666667 0.6666667 -0.3333333 0
## [3,] 0 0.5 1.0000000 0.0000000 -0.5000000 1
##
## multiply row 2 by 0.5 and subtract from row 3
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 1 0 -0.3333333 -0.3333333 0.6666667 0
## [2,] 0 1 0.6666667 0.6666667 -0.3333333 0
## [3,] 0 0 0.6666667 -0.3333333 -0.3333333 1
##
## row: 3
##
## multiply row 3 by 1.5
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 1 0 -0.3333333 -0.3333333 0.6666667 0.0
## [2,] 0 1 0.6666667 0.6666667 -0.3333333 0.0
## [3,] 0 0 1.0000000 -0.5000000 -0.5000000 1.5
##
## multiply row 3 by 0.3333333 and add to row 1
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 1 0 0.0000000 -0.5000000 0.5000000 0.5
## [2,] 0 1 0.6666667 0.6666667 -0.3333333 0.0
## [3,] 0 0 1.0000000 -0.5000000 -0.5000000 1.5
##
## multiply row 3 by 0.6666667 and subtract from row 2
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 1 0 0 -0.5 0.5 0.5
## [2,] 0 1 0 1.0 0.0 -1.0
## [3,] 0 0 1 -0.5 -0.5 1.5
A inversa é obtida da matriz adjunta: \[ \boldsymbol{A}^{-1} = \frac{1}{det(A)}.adj(A) \]
Utilizamos o comando adjoint(matlib)
A_adj=adjoint(A)
A_inv=1/det(A)*A_adj
A_inv
## [,1] [,2] [,3]
## [1,] -0.5 0.5 0.5
## [2,] 1.0 0.0 -1.0
## [3,] -0.5 -0.5 1.5
Seja o vetor \[ \boldsymbol{x}=\begin{pmatrix} 2 \\ 7 \\ 4 \end{pmatrix} \Rightarrow ||\boldsymbol{x}||=\sqrt{2^2+7^2+4^2}=\sqrt{69}\approx 8,31 \]
é o vetor dividido pela sua norma: abaixo o vetor \(\boldsymbol{v}\) é o vetor normalizdo do vetor \(\boldsymbol{x}\) \[ \boldsymbol{v}=\frac{\boldsymbol{x}}{||\boldsymbol{x}||} \]
Utilizamos o comando norm para calcular a norma, e com o tipo (type) “F” ou “2” para especificar a norma euclidiana (que eleva os termos ao quadrado, soma e extrai a raiz):
x=matrix(c(2,7,4),ncol=1)
norm(x,type="F")
## [1] 8.306624
Após calcular a norma, dividimos o vetor pela norma:
x/norm(x,type="F")
## [,1]
## [1,] 0.2407717
## [2,] 0.8427010
## [3,] 0.4815434
Dois vetores \(\boldsymbol{x}\) e \(\boldsymbol{y}\) são ortogonais se, e somente se: \[ \boldsymbol{x}^t \boldsymbol{y}=\boldsymbol{y}^t \boldsymbol{x}=0 \]
Exemplo: \[ \boldsymbol{x}=\begin{pmatrix} 1 \\ 1 \\ 2 \end{pmatrix} \mbox{ e } \boldsymbol{y}=\begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix} \Rightarrow \boldsymbol{x}^t \boldsymbol{y}=\boldsymbol{y}^t \boldsymbol{x}=0 \]
Implementação no R: Não foi encontrado um comando no R para verificar dois vetores ortogonais. No entanto, para matrizes, temos o comando check.orthogonality (ibd - Incomplete Block Designs) com operações com matrizes. Sendo assim, verificamos se a matriz inversa coincide com a matriz transposta.
Para a matriz B abaixo, verificamos que não é ortogonal, pois o resultado foi zero. E de fato a matriz inversa é diferente de sua transposta:
B= matrix(c(1,2,2,1),ncol=2,byrow=T)
solve(B)
## [,1] [,2]
## [1,] -0.3333333 0.6666667
## [2,] 0.6666667 -0.3333333
t(B)
## [,1] [,2]
## [1,] 1 2
## [2,] 2 1
check.orthogonality(B)
## [1] 0
Considerando que não encontramos o comando no R, então podemos criar uma função no R para checar a ortogonalidade de dois vetores:
\[ \boldsymbol{x}=\begin{pmatrix} 1 \\ 1 \\ -2 \end{pmatrix} \mbox{ e } \boldsymbol{y}=\begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix} \mbox{ vemos que } \\ \boldsymbol{x}^t \boldsymbol{y} =0 \mbox{ e } \boldsymbol{y}^t \boldsymbol{x} = 0 \]
x=matrix(c(1,1,-2),ncol=1)
y=matrix(c(1,-1,0),ncol=1)
f=function(vetor1,vetor2)
{
a=t(vetor1)%*%vetor2
b=t(vetor2)%*%vetor1
resultado=ifelse(a==0 & b==0,"são ortogonais",
"não são ortogonais")
return (resultado)
}
f(x,y)
## [,1]
## [1,] "são ortogonais"
Seja \(\boldsymbol{S}\) é uma matriz quadrada. Os autovalores são as raízes da equação característica \(det(\boldsymbol{S_{n\times n}}−\lambda I_n) = 0\). Exemplos:
\[ \begin{array}{l} \boldsymbol{S_1}=\begin{pmatrix} 1 & 4 \\ 9 & 1 \end{pmatrix}, \mbox{ então } \boldsymbol{S}_1−\lambda I_2 = \begin{pmatrix} 1 & 4 \\ 9 & 1 \end{pmatrix}-\lambda \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\\ \mbox {Fazendo } \begin{vmatrix} 1-\lambda & 4 \\ 9 & 1 - \lambda \end{vmatrix} = 0 \Rightarrow (1-\lambda)^2-36=0\\ \lambda^2-2\lambda-35 \Rightarrow \left\{ \begin{array}{l} \mbox{ Soma }=2\\ \mbox{ Produto }=-35 \end{array} \right. \Rightarrow \lambda_1=7 \mbox{ e } \lambda_2=-5 \mbox { (autovalores)}\\ \boldsymbol{S_2}=\begin{pmatrix} 6 & 3 \\ 3 & 2 \end{pmatrix}, \mbox{ então } \boldsymbol{S}_2−\lambda I_2 = \begin{pmatrix} 6 & 3 \\ 3 & 2 \end{pmatrix}-\lambda \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\\ \mbox {Fazendo } \begin{vmatrix} 6-\lambda & 3 \\ 3 & 2 - \lambda \end{vmatrix} = 0 \Rightarrow (6-\lambda)(2-\lambda)-9=0\\ \lambda^2-8\lambda+3 =0 \Rightarrow \Delta =64-12=52 \Rightarrow \lambda=\frac{8\pm 2\sqrt{19}}{2} \Rightarrow \left\{ \begin{array}{l} \lambda_1=4+\sqrt{13}\approx 7.6056\\ \lambda_2=4-\sqrt{13} \approx 0.3944 \end{array} \right.\\ \hline \boldsymbol{S_3}=\begin{pmatrix} 2 & 1 & 1 \\ 1 & 2 & 1 \\ 1 & 1 & 2 \end{pmatrix}, \mbox{ então } \boldsymbol{S}_3−\lambda I_3 = \begin{pmatrix} 2 & 1 & 1 \\ 1 & 2 & 1 \\ 1 & 1 & 2 \end{pmatrix}-\lambda \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1\end{pmatrix}\\ \mbox {Fazendo } \begin{vmatrix} 2-\lambda & 1 & 1 \\ 1 & 2-\lambda & 1 \\ 1 & 1 & 2-\lambda \end{vmatrix} = \left| \begin{array}{ccc:cc} 2-\lambda & 1 & 1 & 2-\lambda & 1 \\ 1 & 2-\lambda & 1 & 1 & 2-\lambda \\ 1 & 1 & 2-\lambda & 1 & 1 \end{array} \right|\\ = (2-\lambda)^3+2-3.(2-\lambda)\\ = \binom{3}{0} 2^3.(-\lambda)^0 + \binom{3}{1} 2^2.(-\lambda)^1 + \binom{3}{2} 2^1.(-\lambda)^2 + \binom{3}{3} 2^0.(-\lambda)^3 + 3 \lambda - 4 \mbox{ (por Binômio de Newton)}\\ =-\lambda^3 +6\lambda^2-12\lambda+3\lambda + 8 -4\\ = -\lambda^3 +6\lambda^2-9\lambda + 4 = 0 \mbox{ , e testando para } \lambda =1:\\ \Rightarrow -1+6-9+4 = 0 \mbox{ (satisfaz!)}\\ \mbox{ Agora fatoramos a equação de 3º grau para encontrar as outras raízes: }\\ =(\lambda-1)(a\lambda^2+b\lambda + c) = -\lambda^3 +6\lambda^2-9\lambda + 4 \\ \left\{ \begin{array}{c} a.\lambda^3 = -\lambda^3 \Rightarrow a=-1\\ (b-a).\lambda^2 = 6\lambda^2 \Rightarrow b=5\\ -c=4 \Rightarrow c=-4 \end{array} \right. \Rightarrow \mbox{ a equação cúbica é fatorada da forma } (\lambda-1) (-\lambda^2+5\lambda -4) = 0\\ \Rightarrow \mbox{ para a equação do 2º grau: } \left\{ \begin{array}{c} \mbox{Soma} = \frac{-5}{-1}=5\\ \mbox{Produto} = \frac{-4}{-1}= 4 \end{array} \right. \Rightarrow \lambda=1 \mbox{ ou } \lambda =4\\ \mbox{ assim os autovalores são 1 e 4, sendo duas raízes iguais a 1} \end{array} \]
S_1=matrix(c(1,4,9,1),ncol=2,byrow=T)
eigen(S_1)$values
## [1] 7 -5
S_2=matrix(c(6,3,3,2),ncol=2,byrow=T)
eigen(S_2)$values
## [1] 7.6055513 0.3944487
S_3=matrix(c(2,1,1,1,2,1,1,1,2),ncol=3,byrow=T)
eigen(S_3)$values
## [1] 4 1 1
\[ \begin{array}{c} \boldsymbol{S}=\begin{pmatrix} 0 & 0 & 6 \\ \frac{1}{2} & 0 & 0 \\ 0 & \frac{1}{3} & 0 \end{pmatrix}, \mbox{ então } \boldsymbol{S}−\lambda I_3 = \begin{pmatrix} 0 & 0 & 6 \\ \frac{1}{2} & 0 & 0 \\ 0 & \frac{1}{3} & 0 \end{pmatrix} - \lambda \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}\\ \mbox {Fazendo } \begin{vmatrix} -\lambda & 0 & 6 \\ \frac{1}{2} & -\lambda & 0 \\ 0 & \frac{1}{3} & -\lambda \end{vmatrix} = \left| \begin{array}{ccc:cc} -\lambda & 0 & 6 & -\lambda & 0 \\ \frac{1}{2} & -\lambda & 0 & \frac{1}{2} & -\lambda \\ 0 & \frac{1}{3} & -\lambda & 0 & \frac{1}{3} \end{array} \right|\\ =-\lambda^3+1=0 \mbox{ e testando para }\lambda=1:\\ -1+1=0 \mbox{ (satisfaz)}\\ \mbox{ Agora fatoramos a equação de 3º grau para encontrar as outras raízes: }\\ =(\lambda-1)(a\lambda^2+b\lambda + c) = -\lambda^3 +1\\ \left\{ \begin{array}{c} a.\lambda^3 = -\lambda^3 \Rightarrow a=-1\\ (b-a).\lambda^2 = 0 \Rightarrow b=-1\\ (c-b)\lambda = 0 \Rightarrow c=-1 \end{array} \right.\\ \Rightarrow \mbox{ a equação cúbica é fatorada da forma } (\lambda-1) (-\lambda^2-\lambda -1) = 0\\ \mbox{ para a equação do 2º grau: } \\ \Rightarrow \Delta =1-4=-3 \Rightarrow \lambda=\frac{1\pm \sqrt{3}i}{-2} \Rightarrow \\ \left\{ \begin{array}{l} \lambda_1=-\frac{1+\sqrt{3}i}{2}\approx -0.5+0.8660i\\ \lambda_2=-\frac{1-\sqrt{3}i}{2} \approx -0.5+0.8660i \end{array} \right. \mbox{, com } i \mbox { número imaginário}\\ \hline \mbox{ E os autovetores? Devem satisfazer a equação } \\ \left(\boldsymbol{S}-\lambda \boldsymbol{I}\right)\boldsymbol{x}= \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}\\ \hline \mbox{ Tome }\lambda=1 \mbox{ e com auxílio do R:} \\ \begin{pmatrix} -1 & 0 & 6 \\ \frac{1}{2} & -1 & 0 \\ 0 & \frac{1}{3} & -1 \end{pmatrix}.\begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix}= \begin{pmatrix} -1 & 0 & 6 \\ \frac{1}{2} & -1 & 0 \\ 0 & \frac{1}{3} & -1 \end{pmatrix}.\begin{pmatrix} -0.8847 \\ -0.4423 \\ -0.1474 \end{pmatrix} = \begin{pmatrix} 0.8847+6.0.1474 \\ -\frac{0.8847}{2}+0.4423 \\ -\frac{0.4423}{3}+0.1474 \end{pmatrix}\approx \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}\\ \mbox{ Tome }\lambda=-0.5+0.8660i \\ \begin{pmatrix} 0.5-0.8660i & 0 & 6 \\ \frac{1}{2} & 0.5-0.8660i & 0 \\ 0 & \frac{1}{3} & 0.5-0.8660i \end{pmatrix}.\begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix}=\\ \begin{pmatrix} 0.5-0.8660i & 0 & 6 \\ \frac{1}{2} & 0.5-0.8660i & 0 \\ 0 & \frac{1}{3} & 0.5-0.8660i \end{pmatrix}.\begin{pmatrix} 0.8847 \\ -0.2212-0.3831i \\ -0.0737+0.1277i \end{pmatrix} =\\ \begin{pmatrix} (0.5-0.8660i) \times 0.8846 +6\times (-0.0737+0.1277i) \\ 0.5\times 0.8847+(0.5-0.8660i)\times (-0.2212-0.3831i) \\ \frac{1}{3}\times (-0.2212-0.3831i) +(0.5-0.8660i)\times(-0.0737+0.1277i) \end{pmatrix}\approx \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}\\ \hline \mbox{ Tome }\lambda=-0.5-0.8660i \\ \begin{pmatrix} 0.5+0.8660i & 0 & 6 \\ \frac{1}{2} & 0.5+0.8660i & 0 \\ 0 & \frac{1}{3} & 0.5+0.8660i \end{pmatrix}.\begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix}=\\ \begin{pmatrix} 0.5+0.8660i & 0 & 6 \\ \frac{1}{2} & 0.5+0.8660i & 0 \\ 0 & \frac{1}{3} & 0.5+0.8660i \end{pmatrix}.\begin{pmatrix} 0.8847 \\ -0.2212+0.3831i \\ -0.0737-0.1277i \end{pmatrix} =\\ \begin{pmatrix} (0.5+0.8660i) \times 0.8846 +6\times (-0.0737-0.1277i) \\ 0.5\times 0.8847+(0.5+0.8660i)\times (-0.2212+0.3831i) \\ \frac{1}{3}\times (-0.2212+0.3831i) +(0.5+0.8660i)\times(-0.0737-0.1277i) \end{pmatrix}\approx \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}\\ \end{array} \]
X=matrix(c(0,0,6,1/2,0,0,0,1/3,0),ncol=3,byrow=T)
X
## [,1] [,2] [,3]
## [1,] 0.0 0.0000000 6
## [2,] 0.5 0.0000000 0
## [3,] 0.0 0.3333333 0
det(X)
## [1] 1
eigen(X)
## eigen() decomposition
## $values
## [1] 1.0+0.0000000i -0.5+0.8660254i -0.5-0.8660254i
##
## $vectors
## [,1] [,2] [,3]
## [1,] -0.8846517+0i 0.8846517+0.0000000i 0.8846517+0.0000000i
## [2,] -0.4423259+0i -0.2211629-0.3830654i -0.2211629+0.3830654i
## [3,] -0.1474420+0i -0.0737210+0.1276885i -0.0737210-0.1276885i
i=1
lambda=eigen(X)$values[i]
I=diag(3)
A=X-lambda*I
x=eigen(X)$vectors[,i]
x
## [1] -0.8846517+0i -0.4423259+0i -0.1474420+0i
A%*%x
## [,1]
## [1,] 0.000000e+00+0i
## [2,] -1.110223e-16+0i
## [3,] 5.551115e-17+0i
Seja uma matriz quadrada e \(\boldsymbol{A}_n\) com as raízes características (autovalores). Então:
\[ \begin{array}{l} \square \mbox{ Se todos os autovalores são maiores do que zero } \Rightarrow \boldsymbol{A} \mbox{ é positiva definida}\\ \square \mbox{ Se algum dos autovalores é nulo e o(s) outro(s) são positivos} \Rightarrow \boldsymbol{A} \mbox{ é semi-positiva definida}\\ \square \mbox{ Se os autovalores são negativos}\Rightarrow \boldsymbol{A} \mbox{ é negativa definida}\\ \square \mbox{ Se algum dos autovalores é nulo e o(s) outro(s) são negativos } \Rightarrow \boldsymbol{A} \mbox{ é semi-negativa definida}\\ \square \mbox{ Se os autovalores alternam de sinal } \Rightarrow \boldsymbol{A} \mbox{ é não definida} \end{array} \] Exemplos: \[ \begin{array}{l} \boldsymbol{A}=\begin{pmatrix} 2 & 1 & 0\\ 4 & 2 & 0\\ -1 & 2 & 3 \end{pmatrix} \Rightarrow \left\{ \begin{array}{l} \lambda_1= 4 \\ \lambda_2= 3 \\ \lambda_3= 0 \end{array} \right. \Rightarrow \boldsymbol{A} \mbox{ é semi-positiva definida}\\ \boldsymbol{B}=\begin{pmatrix} 2 & 0 & 0\\ 7 & 3 & 3\\ 3 & 16 & 1 \end{pmatrix} \Rightarrow \left\{ \begin{array}{l} \lambda_1= 9 \\ \lambda_2= -5 \\ \lambda_3= 2 \end{array} \right. \Rightarrow \boldsymbol{B} \mbox{ é não definida}\\ \boldsymbol{C}=\begin{pmatrix} 2 & 1 & -1\\ 3 & -2 & 0\\ -3 & 2 & 5 \end{pmatrix} \Rightarrow \left\{ \begin{array}{l} \lambda_1=5.6754\\ \lambda_2=-2.8439\\ \lambda_3=2.1685 \end{array} \right. \Rightarrow \boldsymbol{C} \mbox{ é não definida}\\ \boldsymbol{D}=\begin{pmatrix} 2 & 1 & 1\\ 1 & 2 & 1\\ 1 & 1 & 3 \end{pmatrix} \Rightarrow \left\{ \begin{array}{l} \lambda_1=4.4142\\ \lambda_2=1.5858\\ \lambda_3=1 \end{array} \right. \Rightarrow \boldsymbol{D} \mbox{ é positiva definida} \end{array} \]
Revisando os cálculos:
A=matrix(c(2,1,0,4,2,0,-1,2,3),byrow=T,ncol=3)
eigen(A)$values
## [1] 4 3 0
B=matrix(c(2,0,0,7,3,3,3,16,1),byrow=T,ncol=3)
eigen(B)$values
## [1] 9 -5 2
C=matrix(c(2,1,-1,3,-2,0,-3,2,5),byrow=T,ncol=3)
eigen(C)$values
## [1] 5.675375 -2.843885 2.168510
D=matrix(c(2,1,1,1,2,1,1,1,3),nrow=3,byrow=3)
eigen(D)$values
## [1] 4.414214 1.585786 1.000000
Para uma matriz \(\boldsymbol{A}_n\) real e simétrica, então pode ser expressa na forma \[ \boldsymbol{A}=\boldsymbol{U} \boldsymbol{\Lambda} \boldsymbol{U}^t, \] onde \(\boldsymbol{U}\) é a matriz dos autovetores normalizados, e \(\boldsymbol{\Lambda}\) é a matriz formada pelos autovalores na diagonal, e valem as propriedades:
\[ \begin{array}{l} I) \mbox{ Se }\boldsymbol{A} \mbox{ é semi-positiva definida } \Rightarrow \boldsymbol{A}^m=\boldsymbol{U} \boldsymbol{\Lambda}^m \boldsymbol{U}^t \mbox{(com os autovalores sendo elevados a qualquer } m \mbox{ inteiro)};\\ II) \mbox{ Se }\boldsymbol{A} \mbox{ é positiva definida, vale para }m \mbox{ racional}. \end{array} \]
Exemplo: \[ \begin{array}{l} a) \boldsymbol{A}=\begin{pmatrix} 4 & 2 & 2\\ 2 & 2 & 0\\ 2 & 0 & 2 \end{pmatrix} \Rightarrow \left\{ \begin{array}{l} \lambda_1=6\\ \lambda_2=2\\ \lambda_3=0 \end{array} \right. \mbox{, } \boldsymbol{U}=\begin{pmatrix} 0.8165 & 0 & 0.5774\\ 0.4082 & -0.7071 & -0.5774\\ 0.4082 & 0.7071 & -0.5774 \end{pmatrix} \mbox{ e } \boldsymbol{\Lambda} = \begin{pmatrix} 6 & 0 & 0\\ 0 & 2 & 0\\´ 0 & 0 & 0 \end{pmatrix}\\ \Rightarrow \begin{pmatrix} 0.8165 & 0 & 0.5774\\ 0.4082 & -0.7071 & -0.5774\\ 0.4082 & 0.7071 & -0.5774 \end{pmatrix}. \begin{pmatrix} 6 & 0 & 0\\ 0 & 2 & 0\\´ 0 & 0 & 0 \end{pmatrix}. \begin{pmatrix} 0.8165 & 0.4082 & 0.4082\\ 0 & -0.7071 & 0.7071\\ 0.5774 & -0.5774 & -0.5774 \end{pmatrix} = \boldsymbol{A}\\ I) \mbox{ semi-positiva definida com } m=2: \boldsymbol{U} \boldsymbol{\Lambda}^2 \boldsymbol{U}:\\ =\begin{pmatrix} 0.8165 & 0 & 0.5774\\ 0.4082 & -0.7071 & -0.5774\\ 0.4082 & 0.7071 & -0.5774 \end{pmatrix} \begin{pmatrix} 36 & 0 & 0\\ 0 & 4 & 0\\ 0 & 0 & 0 \end{pmatrix} \begin{pmatrix} 0.8165 & 0.4082 & 0.4082\\ 0 & -0.7071 & 0.7071\\ 0.5774 & -0.5774 & -0.5774 \end{pmatrix}=\begin{pmatrix} 24 & 12 & 12\\ 12 & 8 & 4\\ 12 & 4 & 8 \end{pmatrix} =\boldsymbol{A}^2 \end{array} \]
Verificando os cálculos:
A=matrix(c(4,2,2,2,2,0,2,0,2),ncol=3)
Lambda=diag(eigen(A)$values)
U=eigen(A)$vectors
U %*% Lambda %*% t(U)
## [,1] [,2] [,3]
## [1,] 4 2.000000e+00 2.000000e+00
## [2,] 2 2.000000e+00 1.628327e-15
## [3,] 2 1.628327e-15 2.000000e+00
Verificando a propriedade I:
is.positive.semi.definite(A) #matrixcalc
## [1] TRUE
m=2
matrix.power(A,m) #matrixcalc
## [,1] [,2] [,3]
## [1,] 24 12 12
## [2,] 12 8 4
## [3,] 12 4 8
U %*% Lambda^m %*% t(U)
## [,1] [,2] [,3]
## [1,] 24 12 12
## [2,] 12 8 4
## [3,] 12 4 8
\[ \begin{array}{l} b) \boldsymbol{B}= \begin{pmatrix} 2 & 1 & 0 \\ 1 & 2 & -1 \\ 0 & -1 & 3 \\ \end{pmatrix}\\ \Rightarrow \left\{ \begin{array}{l} \lambda_1=3.8019\\ \lambda_2=2.4450\\ \lambda_3=0.7530 \end{array} \right. \mbox{ , } \boldsymbol{U}= \begin{pmatrix} -0.3280 & 0.7370 & -0.5910\\ -0.5910 & 0.3280 & 0.7370\\ 0.7370 & 0.5910 & 0.3280 \end{pmatrix} \mbox{ e } \boldsymbol{\Lambda}= \begin{pmatrix} 3.8019 & 0 & 0\\ 0 & 2.4450 & 0\\ 0 & 0 & 0.7530 \end{pmatrix}\\ \Rightarrow \begin{pmatrix} -0.3280 & 0.7370 & -0.5910\\ -0.5910 & 0.3280 & 0.7370\\ 0.7370 & 0.5910 & 0.3280 \end{pmatrix}. \begin{pmatrix} 3.8019 & 0 & 0\\ 0 & 2.4450 & 0\\ 0 & 0 & 0.7530 \end{pmatrix}. \begin{pmatrix} -0.3280 & -0.5910 & 0.7370\\ 0.7370 & 0.3280 & 0.5910\\ -0.5910 & 0.7370 & 0.3280 \end{pmatrix}=\boldsymbol{B}\\ II) \mbox{ positiva definida, vou usar } m=1/2: \boldsymbol{U} \boldsymbol{\Lambda}^{1/2} \boldsymbol{U}^t\\ = \begin{pmatrix} -0.3280 & 0.7370 & -0.5910\\ -0.5910 & 0.3280 & 0.7370\\ 0.7370 & 0.5910 & 0.3280 \end{pmatrix}. \begin{pmatrix} 1.3621 & 0.3780 & 0.0415\\ 0.3780 & 1.3206 & -0.3364\\ 0.0415 & -0.3364 & 1.6986 \end{pmatrix}. \begin{pmatrix} -0.3280 & -0.5910 & 0.7370\\ 0.7370 & 0.3280 & 0.5910\\ -0.5910 & 0.7370 & 0.3280 \end{pmatrix}=\boldsymbol{B}^{1/2} \end{array} \]
Verificando os cálculos:
B=matrix(c(2,1,0,1,2,-1,0,-1,3),byrow=T,ncol=3)
Lambda=diag(eigen(B)$values)
U=eigen(B)$vectors
U %*% Lambda %*% t(U)
## [,1] [,2] [,3]
## [1,] 2.000000e+00 1 5.551115e-16
## [2,] 1.000000e+00 2 -1.000000e+00
## [3,] 6.661338e-16 -1 3.000000e+00
Verificando a propriedade II:
is.positive.definite(B) #matrixcalc
## [1] TRUE
m=1/2
mpower(B, m) #matlib permite potências não inteiras
## [,1] [,2] [,3]
## [1,] 1.36213689 0.3779645 0.04154444
## [2,] 0.37796447 1.3205925 -0.33642003
## [3,] 0.04154444 -0.3364200 1.69855692
U %*% Lambda^m %*% t(U)
## [,1] [,2] [,3]
## [1,] 1.36213689 0.3779645 0.04154444
## [2,] 0.37796447 1.3205925 -0.33642003
## [3,] 0.04154444 -0.3364200 1.69855692
Para uma matriz \(\boldsymbol{A}_{n\times p}\) com posto \(k\), então pode ser expressa na forma \[ \boldsymbol{A}=\boldsymbol{U} \boldsymbol{\Lambda} \boldsymbol{V}^t, \] onde \(\boldsymbol{U}_{n\times k}\) e \(\boldsymbol{U}_{n\times k}\) são matrizes ortogonais, \(\boldsymbol{\Lambda}=diag(\lambda_1,\dots \lambda_k)\), com \(\lambda_1\geq \lambda_2 \dots \geq \lambda_k \geq 0)\) é a matriz formada pelos valores singulares na diagonal (de 1 até \(k\) em ordem decrescente)
Exemplo: \[ \begin{array}{l} A= \begin{pmatrix} 5 & 2 & 9 \\ 0 & 1 & 2 \\ 2 & 1 & 4 \\ -4 & 3 & 2 \end{pmatrix} \Rightarrow \mbox{Posto}(\boldsymbol{A})=2 \mbox{ e} \left\{ \begin{array}{l} \lambda_1=11.6190\\ \lambda_2=5.4772\\ \lambda_3=0 (\mbox{ o 3º é descartado}) \end{array} \right.,\\ \boldsymbol{U}= \begin{pmatrix} -0.9015 & 0.0976 \\ -0.1690 & -0.1952\\ -0.3944 & 0\\ -0.0563 & -0.9759 \end{pmatrix}, \boldsymbol{\Lambda}=\begin{pmatrix} 11.6190 & 0\\ 0 & 5.4772 \end{pmatrix}\mbox{ e } \boldsymbol{V}= \begin{pmatrix} -0.4364358 & 0.8017837\\ -0.2182179 & -0.5345225\\ -0.8728716 & -0.2672612 \end{pmatrix}\\ \Rightarrow \begin{pmatrix} -0.9015 & 0.0976 \\ -0.1690 & -0.1952\\ -0.3944 & 0\\ -0.0563 & -0.9759 \end{pmatrix}. \begin{pmatrix} 11.6190 & 0\\ 0 & 5.4772 \end{pmatrix}. \begin{pmatrix} -0.4364358 & -0.2182179 & -0.8728716\\ 0.8017837 & -0.5345225 & -0.2672612 \end{pmatrix} =\boldsymbol{A} \end{array} \]
Conferindo no R:
A=matrix(c(5,2,9,0,1,2,2,1,4,-4,3,2),byrow=T,nrow=4,ncol=3)
Rank(A)
## [1] 2
svd(A)
## $d
## [1] 1.161895e+01 5.477226e+00 4.532467e-16
##
## $u
## [,1] [,2] [,3]
## [1,] -0.90149787 9.759001e-02 0.3855151
## [2,] -0.16903085 -1.951800e-01 -0.6588228
## [3,] -0.39440532 -1.942890e-16 -0.6231557
## [4,] -0.05634362 -9.759001e-01 0.1703161
##
## $v
## [,1] [,2] [,3]
## [1,] -0.4364358 0.8017837 0.4082483
## [2,] -0.2182179 -0.5345225 0.8164966
## [3,] -0.8728716 -0.2672612 -0.4082483
Lambda=diag(svd(A)$d[1:2]) #pegar apenas as duas primeiras observações
U=svd(A)$u[,1:2] #pegar apenas as duas primeiras colunas
V=svd(A)$v[,1:2]
U %*% Lambda %*% t(V)
## [,1] [,2] [,3]
## [1,] 5.000000e+00 2 9
## [2,] -4.440892e-16 1 2
## [3,] 2.000000e+00 1 4
## [4,] -4.000000e+00 3 2
all.equal(round(U %*% Lambda %*% t(V),0),A)
## [1] TRUE
Fieller, N. (2015). Basics of Matrix Algebra for Statistics with R (1st ed.). Chapman and Hall/CRC.
Exemplo 2.1 (página 22): Mostre que \(\boldsymbol{x}, \boldsymbol{y} \mbox{ e } \boldsymbol{z}\) são mutuamente ortogonais:
\[ \boldsymbol{x} = \begin{pmatrix} 1 & 2 & 0 \end{pmatrix} \mbox{ , } \boldsymbol{y} = \begin{pmatrix} -6 & 3 & 0 \end{pmatrix} \mbox{ e } \boldsymbol{z} = \begin{pmatrix} 0 & 0 & 7 \end{pmatrix}. \]
Resposta: Temos que mostrar que o produto escalar é nulo, ou seja, \[ \sum\limits_{i=1}^3 x_i \times y_i=0 \mbox{ para os vetores x e y, e para os outros vetores também.} \]
x=matrix(c(1,2,0),nrow=1)
y=matrix(c(-6,3,0),nrow=1)
z=matrix(c(0,0,7),nrow=1)
sum(x*y)
## [1] 0
sum(x*z)
## [1] 0
sum(y*z)
## [1] 0
Exemplo 2.2 (página 26):
\[ \boldsymbol{U}=\begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}, \boldsymbol{V}=\begin{pmatrix} 5 & 6 \\ 7 & 8 \end{pmatrix}, \]
Resposta: Temos que mostrar que o produto matricial \(\boldsymbol{UV}\) é diferente do produto matricial \(\boldsymbol{VU}\)
\[ \begin{array}{ll} \boldsymbol{U_{2 \times 2} V_{2 \times 2}} \mbox{ tem dimensão } 2 \times 2:\\ \boldsymbol{U V} = \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}.\begin{pmatrix} 5 & 6 \\ 7 & 8 \end{pmatrix} =\begin{pmatrix} 5 + 14 & 6+16 \\ 15 + 28 & 18 + 32\end{pmatrix}= \begin{pmatrix} 19 & 22 \\ 43 & 50\end{pmatrix} \\ \hline \boldsymbol{V_{2 \times 2} U_{2 \times 2}} \mbox{ tem dimensão } 2 \times 2:\\ \boldsymbol{V U} = .\begin{pmatrix} 5 & 6 \\ 7 & 8 \end{pmatrix}.\begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix} =\begin{pmatrix} 5 + 18 & 10+24 \\ 7 + 24 & 14 + 32\end{pmatrix}= \begin{pmatrix} 23 & 34 \\ 31 & 46\end{pmatrix} \end{array} \]
\[ \boldsymbol{A}=\begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{pmatrix}, \boldsymbol{B}=\begin{pmatrix} 1 & 2 \\ 3 & 4 \\ 5 & 6 \end{pmatrix}, \]
Resposta:
\[ \begin{array}{ll} \boldsymbol{A_{2 \times 3} B_{3 \times 2}} \mbox{ tem dimensão } 2 \times 2:\\ \boldsymbol{A B} = \begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{pmatrix}.\begin{pmatrix} 1 & 2 \\ 3 & 4 \\ 5 & 6 \end{pmatrix}=\begin{pmatrix} 1+6+15 & 2+8+18 \\ 4+15+30 & 8+20+36 \end{pmatrix} = \begin{pmatrix} 22 & 28 \\ 49 & 64 \end{pmatrix} \\ \hline \boldsymbol{B_{3 \times 2} A_{2 \times 3}} \mbox{ tem dimensão } 3 \times 3:\\ \boldsymbol{B A} = \begin{pmatrix} 1 & 2 \\ 3 & 4 \\ 5 & 6 \end{pmatrix}.\begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{pmatrix}.=\begin{pmatrix} 1+8 & 2+10 & 3 + 12 \\ 3+16 & 6+20 & 9+24 \\5+24 & 10+30 & 15+36 \end{pmatrix} = \begin{pmatrix} 9 & 12 & 15 \\ 19 & 26 & 33 \\ 29 & 40 & 51 \end{pmatrix} \end{array} \]
Resposta: \[ \begin{array}{ll} \boldsymbol{U_{2 \times 2} A_{2 \times 3}} \mbox{ tem dimensão } 2 \times 3, \mbox{ mas } \boldsymbol{A_{2 \times 3} U_{2 \times 2}} \mbox{ não existe!} \end{array} \]
U=matrix(1:4,ncol=2,byrow=T)
V=matrix(5:8,ncol=2,byrow=T)
U%*%V
## [,1] [,2]
## [1,] 19 22
## [2,] 43 50
V%*%U
## [,1] [,2]
## [1,] 23 34
## [2,] 31 46
A=matrix(1:6,ncol=3,byrow=T)
B=matrix(1:6,ncol=2,byrow=T)
A%*%B
## [,1] [,2]
## [1,] 22 28
## [2,] 49 64
dim(A%*%B)
## [1] 2 2
B%*%A
## [,1] [,2] [,3]
## [1,] 9 12 15
## [2,] 19 26 33
## [3,] 29 40 51
dim(B%*%A)
## [1] 3 3
U%*%A
try(A%*%U)
Exemplo 2.3 (página 30): Mostre que as seguintes matrizes são ortogonais:
\[ \begin{array}{l} \boldsymbol{A}=\frac{1}{\sqrt{2}}\begin{pmatrix} 1 & -1 \\ 1 & 1 \end{pmatrix} \mbox{ e } \boldsymbol{B}=\begin{pmatrix} \frac{1}{2} & -\frac{\sqrt{3}}{2} \\ -\frac{\sqrt{3}}{2} & -\frac{1}{2} \end{pmatrix}, \boldsymbol{C}=\begin{pmatrix} cos(\theta) & -sen(\theta) \\ sen(\theta) & cos(\theta) \end{pmatrix} \mbox{ e } \boldsymbol{D}=\begin{pmatrix} cos(\theta) & -sen(\theta) \\ -sen(\theta) & -cos(\theta) \end{pmatrix} \end{array} \]
Resposta: Podemos mostrar a seguinte propriedade:
\[ \begin{array}{l l} \mbox{ para matrizes ortogonais sempre } \boldsymbol{A.A^\top} = \boldsymbol{A^\top.A} = \boldsymbol{I}:\\ \boldsymbol{A.A^\top} = \begin{pmatrix} \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{pmatrix} .\begin{pmatrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ -\frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{pmatrix}= \begin{pmatrix} \frac{1}{2}+\frac{1}{2} & \frac{1}{2} - \frac{1}{2} \\ \frac{1}{2} - \frac{1}{2} & \frac{1}{2} + \frac{1}{2} \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = \boldsymbol{I_2}\\ \boldsymbol{A^\top.A} = \begin{pmatrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ -\frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{pmatrix}.\begin{pmatrix} \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{pmatrix}= \begin{pmatrix} \frac{1}{2}+\frac{1}{2} & -\frac{1}{2} + \frac{1}{2} \\ -\frac{1}{2} + \frac{1}{2} & \frac{1}{2} + \frac{1}{2} \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = \boldsymbol{I_2}\\ \hline \mbox{ Temos que }\boldsymbol{B}=\boldsymbol{B^\top} \mbox{ logo:}\\ \boldsymbol{B.B^\top}=\begin{pmatrix} \frac{1}{2} & -\frac{\sqrt{3}}{2} \\ -\frac{\sqrt{3}}{2} & -\frac{1}{2} \end{pmatrix}.\begin{pmatrix} \frac{1}{2} & -\frac{\sqrt{3}}{2} \\ -\frac{\sqrt{3}}{2} & -\frac{1}{2} \end{pmatrix}=\begin{pmatrix} \frac{1}{4}+\frac{3}{4} & -\frac{\sqrt{3}}{4}+\frac{\sqrt{3}}{4} \\ -\frac{\sqrt{3}}{4}+\frac{\sqrt{3}}{4} & \frac{3}{4}+\frac{1}{4} \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = \boldsymbol{I_2} = \boldsymbol{B^\top.B}\\ \hline \boldsymbol{C}.\boldsymbol{C^\top}=\begin{pmatrix} cos(\theta) & -sen(\theta) \\ sen(\theta) & cos(\theta) \end{pmatrix} . \begin{pmatrix} cos(\theta) & sen(\theta) \\ -sen(\theta) & cos(\theta) \end{pmatrix} = \\\begin{pmatrix} cos^2(\theta) + sen^2(\theta) & cos(\theta).sen(\theta) -sen(\theta).cos(\theta) \\ sen(\theta).cos(\theta) -cos(\theta).sen(\theta) & sen^2(\theta) + cos^2(\theta) \end{pmatrix}= \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}=\boldsymbol{I_2}\\ \mbox{ e da mesma forma mostramos que } \boldsymbol{C^\top}.\boldsymbol{C}=\boldsymbol{I_2}\\ \hline \mbox{ Temos que }\boldsymbol{D}=\boldsymbol{D^\top} \mbox{ logo:}\\ \boldsymbol{D}.\boldsymbol{D^\top}=\begin{pmatrix} cos(\theta) & -sen(\theta) \\ -sen(\theta) & -cos(\theta) \end{pmatrix} . \begin{pmatrix} cos(\theta) & -sen(\theta) \\ -sen(\theta) & -cos(\theta) \end{pmatrix} = \\\begin{pmatrix} cos^2(\theta)+sen^2(\theta) & -cos(\theta).sen(\theta)+sen(\theta).cos(\theta)\\ -cos(\theta).sen(\theta)+sen(\theta).cos(\theta) & sen^2(\theta)+cos^2(\theta) \end{pmatrix}= \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}=\boldsymbol{I_2} = \boldsymbol{D^\top}\boldsymbol{D} \end{array} \]
theta=pi/2
A=1/sqrt(2)*matrix(c(1,-1,1,1),byrow=T,ncol=2)
B=matrix(c(1/2,-sqrt(3)/2,-sqrt(3)/2,-1/2),byrow=T,ncol=2)
C=matrix(c(cos(theta),-sin(theta),sin(theta),cos(theta)),byrow=T,ncol=2)
D=matrix(c(cos(theta),-sin(theta),-sin(theta),-cos(theta)),byrow=T,ncol=2)
A%*%t(A)
## [,1] [,2]
## [1,] 1 0
## [2,] 0 1
B%*%t(B)
## [,1] [,2]
## [1,] 1 0
## [2,] 0 1
C%*%t(C)
## [,1] [,2]
## [1,] 1 0
## [2,] 0 1
D%*%t(D)
## [,1] [,2]
## [1,] 1 0
## [2,] 0 1
t(A)%*%A
## [,1] [,2]
## [1,] 1 0
## [2,] 0 1
t(B)%*%B
## [,1] [,2]
## [1,] 1 0
## [2,] 0 1
t(C)%*%C
## [,1] [,2]
## [1,] 1 0
## [2,] 0 1
t(D)%*%D
## [,1] [,2]
## [1,] 1 0
## [2,] 0 1
Exemplo 2.4 (página 31): Matrizes de permutação são aquelas em que cada linha e cada coluna tem exatamente 1 entrada igual a 1 em cada linha e cada coluna. Na manipulação de matrizes, a multiplicação de uma matriz qualquer por uma matriz de permutação resulta em permutar suas linhas (pré-multiplicação) ou colunas (pós-multiplicação). Alguns exemplos:
\[ \begin{array}{l l} \boldsymbol{A_1}=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}, \boldsymbol{A_2}=\begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}, \boldsymbol{A_3}=\begin{pmatrix} 0 & 0 & 1 \\ 0 & 1 & 0 \\ 1 & 0 & 0\end{pmatrix}, \boldsymbol{A_4}=\begin{pmatrix} 0 & 1 & 0 \\ 1 & 0 & 0 \\ 0 & 0 & 1\end{pmatrix}. \end{array} \]
Calcule o posto das matrizes abaixo
\[ \begin{array}{ll} \boldsymbol{X_1}=\begin{pmatrix} 1 & 3 & 5 \\ 2 & 4 & 6 \end{pmatrix}, \boldsymbol{X_2}=\begin{pmatrix} 4 & 6 \\ 6 & 9 \end{pmatrix}, \boldsymbol{X_3}=\begin{pmatrix} 1 & 2 & 3 & 2 \\ 4 & 5 & 6 & -1 \\ 5 & 7 & 9 & 1 \end{pmatrix}, \boldsymbol{X_4}=\begin{pmatrix} 1 & 2 & 3 \\ 5 & 1 & 5 \\ 6 & 4 & 5 \\ 3 & 1 & 4 \end{pmatrix}, \boldsymbol{X_5}=\begin{pmatrix} 1 & 5 & 6 \\ 2 & 6 & 8 \\ 7 & 1 & 8\end{pmatrix} \end{array} \]
Resposta: Temos que calcular o número de linhas da matriz em sua forma escalonada canônica. Com o auxílio do R (eliminação de Gauss-Jordan), temos o seguinte resultado: \[ \begin{array}{ll} \boldsymbol{H_1}=\begin{pmatrix} 1 & 0 & -1 \\ 0 & 1 & 2 \end{pmatrix} \\ \rightarrow \mbox{ o número de linhas não nulas é igual a 2 (posto de } A_1): \\ \mbox{significa que suas linhas são linearmente independentes.}\\ \hline \boldsymbol{H_2}=\begin{pmatrix} 1 & 1.5 \\ 0 & 0 \end{pmatrix} \\ \rightarrow \mbox{ o número de linhas não nulas é igual a 1 (posto de } A_2): \\ \mbox{significa que suas linhas são linearmente dependentes.}\\ \hline \boldsymbol{H_3}=\begin{pmatrix} 1 & 0 & -1 & -4 \\ 0 & 1 & 2 & 3 \\ 0 & 0 & 0 & 0 \end{pmatrix} \\ \rightarrow \mbox{ o número de linhas não nulas é igual a 2 (posto de } A_3): \\ \mbox{significa que há uma linha que é linearmente dependente das demais.}\\ \hline \boldsymbol{H_4}=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix} \\ \rightarrow \mbox{ o número de linhas não nulas é igual a 3 (posto de } A_4): \\ \mbox{significa que há uma linha que é linearmente dependente das demais.}\\ \hline \boldsymbol{H_5}=\begin{pmatrix} 1 & 0 & 1 \\ 0 & 1 & 1 \\ 0 & 0 & 0 \end{pmatrix} \\ \rightarrow \mbox{ o número de linhas não nulas é igual a 2 (posto de } A_5): \\ \mbox{significa que há uma linha que é linearmente dependente das demais.}\\ \end{array} \]
X_1=matrix(c(1,3,5,2,4,6),byrow=T,ncol=3)
X_2=matrix(c(4,6,6,9),byrow=T,ncol=2)
X_3=matrix(c(1,2,3,2,4,5,6,-1,5,7,9,1),byrow=T,ncol=4)
X_4=matrix(c(1,2,3,5,1,5,6,4,5,3,1,4),byrow=T,ncol=3)
X_5=matrix(c(1,5,6,2,6,8,7,1,8),byrow=T,ncol=3)
f=function(matriz)
{
aux=list()
aux[[1]]=rref(matriz)
aux[[2]]=Rank(matriz)
return(aux)
}
f(X_1)
## [[1]]
## [,1] [,2] [,3]
## [1,] 1 0 -1
## [2,] 0 1 2
##
## [[2]]
## [1] 2
f(X_2)
## [[1]]
## [,1] [,2]
## [1,] 1 1.5
## [2,] 0 0.0
##
## [[2]]
## [1] 1
f(X_3)
## [[1]]
## [,1] [,2] [,3] [,4]
## [1,] 1 0 -1 -4
## [2,] 0 1 2 3
## [3,] 0 0 0 0
##
## [[2]]
## [1] 2
f(X_4)
## [[1]]
## [,1] [,2] [,3]
## [1,] 1 0 0
## [2,] 0 1 0
## [3,] 0 0 1
## [4,] 0 0 0
##
## [[2]]
## [1] 3
f(X_5)
## [[1]]
## [,1] [,2] [,3]
## [1,] 1 0 1
## [2,] 0 1 1
## [3,] 0 0 0
##
## [[2]]
## [1] 2
Propriedades do posto de uma matriz:
A matriz identidade \(\boldsymbol{I_n}, \forall n>1\) é uma matriz de posto completo, ou seja, todas as suas linhas são linearmente independentes;
O posto de uma matriz diagonal \(\boldsymbol{D}\) é igual ao número de elementos não nulos de sua diagonal.
O posto de uma matriz é igual a zero se, e somente se, todos os seus elementos são nulos.
posto(\(\lambda.\boldsymbol{X}\))=\(\lambda.\) posto (\(\boldsymbol{X}\)), com \(\lambda \ne 0\) ou seja, multiplicando a matriz por um escalar diferente de zero, o posto fica multiplicado por este escalar.
Sejam \[ \begin{array}{l} \mbox{a) } \boldsymbol{A}=\begin{pmatrix} 4 & 6 \\ 6 & 9 \end{pmatrix} \mbox{ então } det(\boldsymbol{A})=36-36=0\\ \hline \mbox{b) } \boldsymbol{B}=\begin{pmatrix} 3 & -1 \\ 2 & 2 \end{pmatrix} \mbox{ então } det(\boldsymbol{B})=6+2=8\\ \hline \mbox{c) } \boldsymbol{C}=\begin{pmatrix} 1 & 5 & 6 \\ 2 & 6 & 8 \\ 7 & 1 & 8 \end{pmatrix} \mbox{ então } det(\boldsymbol{C}) = \\ 1.(-1)^{1+1} \begin{vmatrix} 6 & 8 \\ 1 & 8 \end{vmatrix} + 5.(-1)^{1+2}\begin{vmatrix} 2 & 8 \\ 7 & 8 \end{vmatrix}+ 6.(-1)^{1+3} \begin{vmatrix} 2 & 6 \\ 7 & 1 \end{vmatrix}=\\ (48-8)-5.(16-56)+6.(2-42)=40+200-240=0.\\ \rightarrow \mbox{ escolhemos a primeira linha}\\ \hline \mbox{d) } \boldsymbol{D}=\begin{pmatrix} 1 & -2 & 2 \\ 2 & 0 & 1 \\ 1 & 1 & -2 \end{pmatrix} \mbox{ então } det(\boldsymbol{D})=\\ 2.(-1)^{1+3}.\begin{vmatrix} 2 & 0 \\ 1 & 1 \end{vmatrix} + 1.(-1)^{2+3}.\begin{vmatrix} 1 & -2 \\ 1 & 1 \end{vmatrix}+ (-2).(-1)^{3+3}.\begin{vmatrix} 1 & -2 \\ 2 & 0 \end{vmatrix}=\\ 2.2-(1+2)-2.4=4-3-8=-7.\\ \rightarrow \mbox{ escolhemos a última coluna}\\ \hline \mbox{e) (propriedade) A matriz identidade } \boldsymbol{I_n}, \forall n>1 \mbox{ possui determinante igual a 1} \end{array} \]
A=matrix(c(4,6,6,9),ncol=2,byrow=T)
B=matrix(c(3,-1,2,2),ncol=2,byrow=T)
C=matrix(c(1,5,6,2,6,8,7,1,8),ncol=3,byrow=T)
D=matrix(c(1,-2,2,2,0,1,1,1,-2),ncol=3,byrow=T)
I=diag(3)
c(det(A),det(B),det(C),det(D),det(I))
## [1] 0.000000e+00 8.000000e+00 -3.552714e-14 -7.000000e+00 1.000000e+00
Exemplo - propriedades dos determinantes (página 63):
\[ \begin{array}{ll} \mbox{a) } \boldsymbol{X}_1=\begin{pmatrix} 3 & -1 \\ 2 & 2\end{pmatrix} \Rightarrow \boldsymbol{X}_1^\top=\begin{pmatrix} 3 & 2 \\ -1 & 2\end{pmatrix} \mbox{ e } det(\boldsymbol{X}_1)=6+2=8=det(\boldsymbol{X}_1^\top)\\ \rightarrow \mbox{ os determinantes de uma matriz e sua transposta são iguais.}\\ \hline \mbox{b)} \boldsymbol{X}_2= \begin{pmatrix} 9 & -1 \\ 6 & 2\end{pmatrix} \Rightarrow det(\boldsymbol{X}_2) = 18+6=24 = 3.det(\boldsymbol{X}_1)\\ \rightarrow \mbox{ quando uma linha (ou coluna) é multiplicada por uma constante,}\\ \mbox{o determinante fica multiplicado por esta constante.}\\ \hline \mbox{c)} \boldsymbol{X}_3= \begin{pmatrix} -1 & 3 \\ 2 & 2\end{pmatrix} \Rightarrow det(\boldsymbol{X}_3)=-2-6=-8=-det(\boldsymbol{X}_1)\\ \rightarrow \mbox{ quando duas linhas (ou colunas) trocam de lugar entre si, o determinante muda de sinal.}\\ \end{array} \]
Encontre a inversa das matrizes abaixo:
\[ \boldsymbol{A}=\begin{pmatrix} 2 & 3 \\ 3 & 4 \end{pmatrix}, \boldsymbol{B}=\begin{pmatrix} 3 & 4 \\ 2 & 3 \end{pmatrix}, \boldsymbol{C}=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 3 \\ 0 & 3 & 4 \end{pmatrix}, \boldsymbol{D}=\begin{pmatrix} 3 & 0 & 4 \\ 0 & 1 & 0 \\ 2 & 0 & 3 \end{pmatrix}, \boldsymbol{E}=\begin{pmatrix} a & b \\ c & d\end{pmatrix}, \]
Resposta:
Para a matriz \(\boldsymbol{A}\), com o Modo I : pela definição \[ \begin{array}{l} \boldsymbol{A}^{-1}=\begin{pmatrix} a & b \\ c & d\end{pmatrix}, \mbox{ é tal que } \begin{pmatrix} 2 & 3 \\ 3 & 4 \end{pmatrix} \begin{pmatrix} a & b \\ c & d\end{pmatrix}=\begin{pmatrix} 1 & 0 \\ 0 & 1\end{pmatrix}\\ \Rightarrow \left\{ \begin{array}{l} 2a+3c=1 \xrightarrow{\times 3} 6a+9c=3\\ 3a+4c=0 \xrightarrow{\times 2} 6a+8c=0\\ 2b+3d=0 \xrightarrow{\times 3} 6b+9d=0\\ 3b+4d=1 \xrightarrow{\times 2} 6b+8d=2\\ \end{array} \right. \xrightarrow[\text{subtrai a 4ª linha da 3ª}]{\text{subtrai a 2ª linha da 1ª}} \left\{ \begin{array}{l} c=3 \\ a=\frac{1-9}{2}=-4\\ d=-2\\ b=\frac{0+6}{2}=3 \end{array} \right. \Rightarrow \boldsymbol{A}^{-1}=\begin{pmatrix} -4 & 3 \\ 3 & -2\end{pmatrix}\\ \end{array} \]
Para as matrizes \(\boldsymbol{B}\) e \(\boldsymbol{C}\) com o Modo II: Eliminação de Gauss: \[ \boldsymbol{B}^{-1}=\begin{pmatrix} 3 & 4 \\ 2 & 3\end{pmatrix}\\ \]
\[ \begin{array}{l} \boldsymbol{B}=\begin{pmatrix} 3 & 4 \\ 2 & 3\end{pmatrix}\\ \Rightarrow (\boldsymbol{B | I})= \left(\begin{array}{c c | c c } 3 & 4 & 1 & 0 \\ 2 & 3 & 0 & 1 \end{array} \right) \sim \dots \sim \left(\begin{array}{c c | c c} 1 & 0 & 3 & -4 \\ 0 & 1 & -2 & 3 \end{array} \right) = (\boldsymbol{I | \boldsymbol{B}^{-1}})\\ \Rightarrow \boldsymbol{B}^{-1} = \begin{pmatrix} 3 & -4 \\ -2 & 3 \end{pmatrix} \end{array} \]
Passo a passo no R:
B=matrix(c(3,4,2,3),byrow=T,nrow=2)
gaussianElimination(B,diag(2),verbose=TRUE)
##
## Initial matrix:
## [,1] [,2] [,3] [,4]
## [1,] 3 4 1 0
## [2,] 2 3 0 1
##
## row: 1
##
## multiply row 1 by 0.3333333
## [,1] [,2] [,3] [,4]
## [1,] 1 1.333333 0.3333333 0
## [2,] 2 3.000000 0.0000000 1
##
## multiply row 1 by 2 and subtract from row 2
## [,1] [,2] [,3] [,4]
## [1,] 1 1.3333333 0.3333333 0
## [2,] 0 0.3333333 -0.6666667 1
##
## row: 2
##
## multiply row 2 by 3
## [,1] [,2] [,3] [,4]
## [1,] 1 1.333333 0.3333333 0
## [2,] 0 1.000000 -2.0000000 3
##
## multiply row 2 by 1.333333 and subtract from row 1
## [,1] [,2] [,3] [,4]
## [1,] 1 0 3 -4
## [2,] 0 1 -2 3
\[ \begin{array}{l} \boldsymbol{C}=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 3 \\ 0 & 3 & 4 \end{pmatrix}\\ \Rightarrow (\boldsymbol{C | I})= \left(\begin{array}{c c c | c c c } 1 & 0 & 0 & 1 & 0 & 0 \\ 0 & 2 & 3 & 0 & 1 & 0 \\ 0 & 3 & 4 & 0 & 0 & 1 \end{array} \right) \sim \dots \sim \left(\begin{array}{c c c | c c c} 1 & 0 & 0 & 1 & 0 & 0 \\ 0 & 1 & 0 & 0 & -4 & 3\\ 0 & 0 & 1 & 0 & 3 & -2 \end{array} \right) = (\boldsymbol{I | \boldsymbol{C}^{-1}})\\ \Rightarrow \boldsymbol{C}^{-1} = \begin{pmatrix} 1 & 0 & 0\\ 0 & -4 & 3\\ 0 & 3 & -2 \end{pmatrix} \end{array} \]
C=matrix(c(1,0,0,0,2,3,0,3,4),byrow=T,ncol=3)
gaussianElimination(C,diag(3),verbose=TRUE)
##
## Initial matrix:
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 1 0 0 1 0 0
## [2,] 0 2 3 0 1 0
## [3,] 0 3 4 0 0 1
##
## row: 1
##
## row: 2
##
## exchange rows 2 and 3
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 1 0 0 1 0 0
## [2,] 0 3 4 0 0 1
## [3,] 0 2 3 0 1 0
##
## multiply row 2 by 0.3333333
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 1 0 0.000000 1 0 0.0000000
## [2,] 0 1 1.333333 0 0 0.3333333
## [3,] 0 2 3.000000 0 1 0.0000000
##
## multiply row 2 by 2 and subtract from row 3
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 1 0 0.0000000 1 0 0.0000000
## [2,] 0 1 1.3333333 0 0 0.3333333
## [3,] 0 0 0.3333333 0 1 -0.6666667
##
## row: 3
##
## multiply row 3 by 3
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 1 0 0.000000 1 0 0.0000000
## [2,] 0 1 1.333333 0 0 0.3333333
## [3,] 0 0 1.000000 0 3 -2.0000000
##
## multiply row 3 by 1.333333 and subtract from row 2
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 1 0 0 1 0 0
## [2,] 0 1 0 0 -4 3
## [3,] 0 0 1 0 3 -2
Para as matrizes \(\boldsymbol{D}\) e \(\boldsymbol{E}\) com o Modo III: Matriz adjunta \[ \begin{array}{l} \mbox{ Passo 1: calcular a matriz dos cofatores:}\\ cof(\boldsymbol{D})=\begin{pmatrix} (-1)^{1+1}.3 & (-1)^{1+2}.0 & (-1)^{1+3}.(-2) \\ (-1)^{2+1}.0 & (-1)^{2+2}.(9-8) & (-1)^{1+3}.0 \\ (-1)^{3+1}.(-4) & (-1)^{3+2}.0 & (-1)^{3+3}.3\end{pmatrix} =\begin{pmatrix} 3 & 0 & -2 \\ 0 & 1 & 0 \\ -4 & 0 & 3\end{pmatrix}\\ \hline \mbox{ Passo 2: calcular a matriz adjunta:}\\ adj(\boldsymbol{D})=\begin{pmatrix} 3 & 0 & -4 \\ 0 & 1 & 0 \\ -2 & 0 & 3\end{pmatrix}\\ \hline \mbox{ Passo 3: calcular o determinante da matriz original:}\\ \mbox{ Por Laplace, escolhi a primeira linha e multipliquei os termos de D pelos termos dos cofatores}\\ det(\boldsymbol{D})=3.3+0.0+4.(-2)=1\\ \hline \mbox{ Passo 4: Aplicar a fórmula:}\\ \boldsymbol{D}^{-1}=\begin{pmatrix} 3 & 0 & -4 \\ 0 & 1 & 0 \\ -2 & 0 & 3\end{pmatrix} \end{array}\\ \]
Cálculos no R:
D=matrix(c(3,0,4,0,1,0,2,0,3),ncol=3,byrow=T)
cof=matrix(ncol=3,nrow=3)
for(i in 1:3)
{
for(j in 1:3)
{
cof[i,j]=cofactor(D,i,j)
}
}
cof
## [,1] [,2] [,3]
## [1,] 3 0 -2
## [2,] 0 1 0
## [3,] -4 0 3
t(cof)
## [,1] [,2] [,3]
## [1,] 3 0 -4
## [2,] 0 1 0
## [3,] -2 0 3
det(D)
## [1] 1
1/det(D)*t(cof)
## [,1] [,2] [,3]
## [1,] 3 0 -4
## [2,] 0 1 0
## [3,] -2 0 3
\[ \begin{array}{l} \boldsymbol{E}^{-1}=\frac{1}{ad-bc} t(cof(\boldsymbol{E})), \mbox{onde }\\ cof(\boldsymbol{E}) = \begin{pmatrix} (-1)^2.d & (-1)^3.c \\ (-1)^3.b & (-1)^4.a\end{pmatrix} = \begin{pmatrix} d & -c \\ -b & a\end{pmatrix}\\ \Rightarrow \boldsymbol{E}^{-1} \frac{1}{ad-bc} \begin{pmatrix} d & -b \\ -c & a\end{pmatrix} \end{array} \]
Implementação usando o math calculator (site online)
knitr::include_graphics("fig2_un1.png")
\[ \boldsymbol{a}=\begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix}, \boldsymbol{b}=\begin{pmatrix} 4 \\ 5 \\ 6 \end{pmatrix}, \boldsymbol{u}=\begin{pmatrix} 3 \\ 2 \\ 1 \end{pmatrix}, \boldsymbol{v}=\begin{pmatrix} 6 \\ 5 \\ 4 \end{pmatrix}, \boldsymbol{w}=\begin{pmatrix} 7 & 8 & 9 \end{pmatrix}, \]
Calcule \[ \boldsymbol{a + b}, \boldsymbol{v - a}, \boldsymbol{w^\top + b}, 3 \boldsymbol{u}, \boldsymbol{w^\top - a}, \frac{\boldsymbol{v}}{3}, \boldsymbol{a b^\top } \mbox{ e } \boldsymbol{b a^\top } \]
Repita os cálculos utilizando o R.
Seja \[ \boldsymbol{x}=\begin{pmatrix} 2 \\ 2 \\ -3 \end{pmatrix} \mbox{ e } \boldsymbol{y}=\begin{pmatrix} 1 \\ -2 \\ 1 \end{pmatrix} \]
Seja
\[ \boldsymbol{A}=\begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{pmatrix}, \boldsymbol{B}=\begin{pmatrix} 1 & 2 \\ 3 & 4 \\ 5 & 6\end{pmatrix}, \boldsymbol{U}=\begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}, \boldsymbol{V}=\begin{pmatrix} 5 & 6 \\ 7 & 8 \end{pmatrix},\\ \boldsymbol{W}=\begin{pmatrix} 2 & 2 \\ 3 & 5 \end{pmatrix}, \boldsymbol{Z}=\begin{pmatrix} 3 & 2 \\ 3 & 6 \end{pmatrix}. \]
\[ \begin{array}{|c|c|} \hline \boldsymbol{A B} & \boldsymbol{B^\top A^\top} & \boldsymbol{B A} & \boldsymbol{a^\top A} & \boldsymbol{a^\top A a} \\ \boldsymbol{V \mbox{diag} (U)}& \hline \mbox{diag}(\boldsymbol{B^\top A^\top}) & \boldsymbol{UVWZ} & \mbox{diag} (\mbox{diag}(\boldsymbol{UV})) & \mbox{diag}(\mbox{diag}(\boldsymbol{U})) \mbox{diag}(\mbox{diag}(\boldsymbol{V}))\\ \hline \end{array} \]
Seja
\[ \boldsymbol{z}=\begin{pmatrix} 2 & 5 \end{pmatrix} \]
Utilize as matrizes do exercício 3 e determine
\[ \begin{array}{|c|c|} \hline \boldsymbol{z^\top U z} & \boldsymbol{z^\top V z} & \boldsymbol{x^\top BA x} & \boldsymbol{x^\top A^\top B^\top x}\\ \hline \end{array} \]
Seja
\[ \boldsymbol{A}=\begin{pmatrix} 0 & 1 \\ -1 & 0 \end{pmatrix}, \boldsymbol{B}=\begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}, \boldsymbol{C}=\begin{pmatrix} 1 & 1 \\ 1 & -1 \end{pmatrix},\\ \boldsymbol{D}=\begin{pmatrix} 1 & -1 \\ -1 & 1 \end{pmatrix}, \boldsymbol{E}=\begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} \mbox{ e } \boldsymbol{F}=\begin{pmatrix} 1 & 1 \\ -1 & -1 \end{pmatrix} \]
Mostre que
\[ \begin{array}{l} \mbox{a)} \boldsymbol{A}^2 = -I_2\\ \mbox{b)} \boldsymbol{B}^2 = 0\\ \mbox{c)} \boldsymbol{CD} = -\boldsymbol{DC}\\ \mbox{d)} \boldsymbol{EF} = 0\\ \end{array} \]
Mostre que para dois vetores \(\boldsymbol{x}\) e \(\boldsymbol{y}\), \[ \mbox{tr}(\boldsymbol{xy^\top})=(\boldsymbol{x^\top y}) \]
Construa um vetor linha e um vetor coluna no R utilizando as funções rep() e seq()
Utilizando o R,
Suponha que \(\boldsymbol{A}\) é uma matriz \(n \times n\) idempotente e não singular. Mostre que \(A=I_n\).
Seja \[ \boldsymbol{X_1}=\begin{pmatrix} 1.3 & 9.1 \\ 1.2 & 8.4 \end{pmatrix}, \boldsymbol{X_2}=\begin{pmatrix} 1.2 & 9.1 \\ 1.3 & 8.4 \end{pmatrix}, \boldsymbol{X_3}=\begin{pmatrix} 1 & 2 & 3 \\ 2 & 1 & 9 \end{pmatrix},\\ \boldsymbol{X_4}=\begin{pmatrix} 1 & 2 \\ 3 & 9 \\ 2 & 1\end{pmatrix}, \boldsymbol{X_5}=\begin{pmatrix} 1 & 2 & 9 \\ 2 & 1 & 3 \\ 9 & 3 & 0\end{pmatrix} \mbox{ e } \boldsymbol{X_6}=\begin{pmatrix} 6 & 2 & 8 \\ 5 & 1 & 6 \\ 1 & 7 & 8 \end{pmatrix}, \]
\[ \begin{array}{ll} \mbox{ a) Determine o posto de cada uma das matrizes acima.}\\ \mbox{b) encontre as constantes } a_1, a_2, a_3 \mbox{ tais que } a_1.c_{31}+a_2.c_{32}+a_3.c_{33}=0 \\\mbox{ onde } c_{3j}, j=1,2,3 \mbox{ são as três colunas de} X_3\\ \mbox{c) encontre as constantes } a_1, a_2, a_3 \mbox{ tais que } a_1.r_{41}+ a_2.r_{42}+ a_3.r_{43}=0, \\\mbox{ onde }r_{41}, j=1,2,3 \mbox{ são as três linhas de} X_4. \end{array} \]