Matrizes são objetos extremamente importantes para análise quantitativa em Ciências Econômicas. O cálculo matricial forma a base teórica da disciplina Econometria, bem como auxilia na compreensão de temas importantes da teoria Microeconômica e Macroeconômica. Esta nota de aula visa apresentar conceitos, propriedades e operações úteis a qualificação discente do curso de Ciências Econômicas.
Definição 1.1 – Matriz. Seja \(m\) o número de linhas e \(n\) o número de colunas, uma matriz é uma tabela numérica de tamanho \(m \times n\).
Exemplo 1. A, B e C são matrizes. \[ A = \left[ \begin{array}{ccc} 1 & 2 & 1 \\ 3 & 1 & 1 \\ 1 & 2 & 0 \end{array} \right]; B = \left[ \begin{array}{c} 1 \\ 2 \\ 3 \end{array} \right]; C = [3 \ \ 1 \ \ 2 \ \ 4] \]
Alguns livros representam matrizes entre dois parênteses. Aqui, utilizaremos colchetes para a representação.
Definição 1.2 – Vetores. Quando uma matriz é composta por apenas uma coluna, costumamos chamá-la de vetor coluna. Quando é composta de apenas uma linha, costumamos chamá-la de vetor linha.
Definição 1.3 – Matriz quadrada. Diz-se que uma matriz \(A=(a_{ij})\) é quadrada quando o número de linhas é igual ao número de colunas \((n \times n)\).
Definição 1.4 – Matriz diagonal. Uma matriz diagonal é uma matriz quadrada, tal que todos os elementos de fora da diagonal principal são nulos: \(a_{ij} = 0\) para todo \(i \neq j\).
Exemplo 3. Matriz diagonal dimensão \((3 \times 3)\) \[ D = \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{array} \right] \] Definição 1.5 – Matriz identidade. A matriz identidade \(I_n\) é a matriz diagonal \((n \times n)\) para a qual \(a_{ii} = 1\) para \(i=1,...,n\).
Exemplo 3. Matriz identidade dimensão \((3 \times 3)\) \[ I_n = \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right] \]
# Matriz identidade
Id <- diag(x = 3)
Id
## [,1] [,2] [,3]
## [1,] 1 0 0
## [2,] 0 1 0
## [3,] 0 0 1
Definição 1.6 – Igualdade entre matrizes. Duas matrizes \(A=(a_{ij})\) e \(B=(b_{ij})\), ambas \((m \times n)\), são iguais se \(a_{ij} = b_{ij}\) para todo \(i=1,...,m\) e \(j=1,...,n\).
# Igualdade entre matrizes
A <- matrix(1:9, nrow = 3)
B <- matrix(1:9, nrow = 3)
identical(A,B)
## [1] TRUE
Definição 1.7 – Soma de matrizes. Dada uma matriz \(A=(a_{ij})\) e uma matriz \(B=(b_{ij})\), ambas \((m \times n)\), então a soma é, \(A + B = a_{ij} + b_{ij}\) para todo \(i=1,...,m\) e \(j=1,...,n\).
Exemplo 4. Usando o R.
# Soma de matrizes
A <- matrix(1:9, nrow = 3); A
## [,1] [,2] [,3]
## [1,] 1 4 7
## [2,] 2 5 8
## [3,] 3 6 9
B <- matrix(1:9, nrow = 3, byrow = TRUE); B
## [,1] [,2] [,3]
## [1,] 1 2 3
## [2,] 4 5 6
## [3,] 7 8 9
A + B
## [,1] [,2] [,3]
## [1,] 2 6 10
## [2,] 6 10 14
## [3,] 10 14 18
Propriedade da soma
\(A + B = B + A\) (comutativa);
\((A + B) + C = A + (B + C)\) (associativa);
para qualquer matriz \(A\) do tipo \(m \times n\), existe uma matriz \(\bar{0}\), tal que \(\bar{0} + A = A + \bar{0} = A\) (existência de elemento neutro);
para qualquer matriz \(A\) do tipo \(m \times n\), existe sempre uma matriz \(B = -A\), tal que \(A + B = B + A = -A + A = \bar{0}\) (existência de elemento inverso).
Definição 1.8 – Produto por um escalar. Dada uma matriz \(A=(a_{ij})\) e um escalar \(k \in \Re\), o produto pelo escalar é \(k A = k a_{ij}\).
É possível combinar a soma de matrizes e produto por um escalar de diferentes formas: \(A + kB\), \(k(A + B)\), \(kA + B\), etc.
Considere \(a,b \in \Re\) como dois escalares, a soma de produto por escalres segue as propriedades:
\(a(bA) = (ab)A\) (associativa);
para qualquer matriz \(A\) do tipo \(m \times n\), existe um número real 1 tal que \(1 A = A 1 = A\) (existência de elemento neutro);
\(a(A + B) = aA + aB\) (distributiva 1);
\((a + b)A = aA + bA\) (distributiva 2).
Essas propriedades são válidas para um grande conjunto de números, como o conjunto dos números reais.
Definição 1.9 – Produto de matrizes. Dada uma matriz \(A=(a_{ij})\) e uma matriz \(B=(b_{ij})\), sendo \(A\) tipo \((m \times n)\) e \(B\) tipo \((n \times p)\), o produto é \(AB = \sum_{j=1}^n a_{ij} b_{jk}\), é uma matriz tipo \((m \times p)\).
Observe que o produto \(AB\) só pode ser efetuado se o número de colunas da primeira matriz for igual ao número de linhas da segunda matriz.
Exemplo 5. Produto de matrizes usando o R.
# Produto de matrizes
A <- matrix(data = c(2,3,-1,1,0,4), nrow = 2); A
## [,1] [,2] [,3]
## [1,] 2 -1 0
## [2,] 3 1 4
B <- matrix(data = c(-1,2,3,3,5,1), nrow = 3); B
## [,1] [,2]
## [1,] -1 3
## [2,] 2 5
## [3,] 3 1
B%*%A
## [,1] [,2] [,3]
## [1,] 7 4 12
## [2,] 19 3 20
## [3,] 9 -2 4
Definição 1.10 – Produto de matrizes idênticas. Seja \(n\) úm número inteiro não negativo, dada uma matriz \(A=(a_{ij})\), a matriz \(A^n\) será o produto \(A A \cdots A\), efetuado \(n - 1\) vezes.
Exemplo 6. Dada a matriz \(M = \left[ \begin{array}{cc} 1 & -2 \\ 3 & 1 \\ \end{array} \right]\), calcule \(M^3\)
# Produto de matrizes idênticas
M <- matrix(data = c(1,3,-2,1), nrow = 2)
MMM <- M%*%M%*%M
MMM
## [,1] [,2]
## [1,] -17 6
## [2,] -9 -17
# Demonstra que não são matrizes identicas
identical(MMM,M^3)
## [1] FALSE
Definição 1.11 – Matriz transposta. Dada uma matriz \(A=(a_{ij})\), \(i = 1,...,m\) e \(j = 1,...,n\), a sua transposta é \(A^\top = (a_{ji})\).
Exemplo 7. Dada a matriz \(A = \left[ \begin{array}{cc} 3 & -1 \\ 2 & 4 \\ 5 & 0 \end{array} \right]\) sua transposta é
# Matriz transposta
A <- matrix(data = c(3,2,5,-1,4,0), nrow = 3)
t(A)
## [,1] [,2] [,3]
## [1,] 3 2 5
## [2,] -1 4 0
Propriedades da matriz transposta
\((A^\top)^\top = A\);
\((A + B)^\top = A^\top + B^\top\);
\((k A)^\top = k A^\top\);
\((AB)^\top = A^\top B^\top\).
Definição 1.12 – Traço da matriz. Para uma matriz quadrada, a forma mais simples de obter um número representativo é por meio do seu traço. Dada uma matriz \(A=(a_{ij})\) quadrada, o traço da matriz é a soma dos elementos da diagonal principal, \(tr(A) = \sum_{i=1}^n a_{ii}\), para \(i = 1,...,n\).
Exemplo 8. Dada a matriz \(A = \left[ \begin{array}{ccc} 3 & 1 & 0 \\ 2 & 4 & 3\\ 5 & 0 & 1 \end{array} \right]\) o traço da matriz é
# Traço da matriz
A <- matrix(data = c(3,2,5,1,4,0,0,3,1), nrow = 3)
sum(diag(A))
## [1] 8
Definição 1.13 – Matriz inversa. A matriz inversa de uma matriz quadrada \(A\) é aquela que, ao ser multiplicada pela original, resulta na matriz identidade, \(I_n\), ou seja, \(A A^{-1} = A^{-1} A = I_n\). Ela funciona como o elemento inverso da multiplicação, sendo aplicável apenas a matrizes quadradas com determinante diferente de zero, \(det(A) \neq 0\).
Exemplo 9. Demonstrando que \(B = \left[ \begin{array}{cc} 2 & -3 \\ -1 & 2 \\ \end{array} \right]\) é a inversa de \(A = \left[ \begin{array}{cc} 2 & 3 \\ 1 & 2 \\ \end{array} \right]\)
# Matriz inversa
A <- matrix(data = c(2,1,3,2), nrow = 2)
B <- matrix(data = c(2,-1,-3,2), nrow = 2)
A%*%B
## [,1] [,2]
## [1,] 1 0
## [2,] 0 1
B%*%A
## [,1] [,2]
## [1,] 1 0
## [2,] 0 1
Propriedades da matriz inversa
\((A^{-1})^{-1} = A\);
\((A B)^{-1} = B^{-1} A^{-1}\);
\((A^{\top})^{-1} = (A^{-1})^{\top}\);
Definição 1.14 – Matriz simétrica. Uma matriz quadrada \(A=(a_{ij})\) é simétrica se \(a_{ij} = a_{ji}\), para todo \(i,j=1,...,n\).
Definição 1.15 – Matriz antisimétrica. Uma matriz quadrada \(A=(a_{ij})\) é antisimétrica se \(a_{ij} = -a_{ji}\), para todo \(i,j=1,...,n\).
Definição 1.16 – Matriz triangular inferior. Uma matriz quadrada \(A=(a_{ij})\), \(i,j=1,...,n\), é triangular inferior se \(a_{ij}=0\) para todo \(i < j\).
Definição 1.17 – Matriz triangular superior. Uma matriz quadrada \(A=(a_{ij})\), para qual \(i,j=1,...,n\), é triangular superior se \(a_{ij}=0\) para todo \(i > j\).
Exemplo 10. A matriz \(B\) é triangular inferior. \[ B = \left[ \begin{array}{rrr} 2 & 0 & 0 \\ 1 & 3 & 0 \\ 0 & -1 & 1 \end{array} \right] \] A matriz \(C\) é triangular superior. \[ C = \left[ \begin{array}{rrrr} 2 & -1 & 0 & 6 \\ 0 & 1 & 3 & 5 \\ 0 & 0 & 1 & -1 \\ 0 & 0 & 0 & 8 \end{array} \right] \] Definição 1.18 – Matriz idempotente. Uma matriz quadrada \(A=(a_{ij})\), para qual \(i,j=1,...,n\), é idempotente se \(A^2 = A\).
Exemplo 11. Demonstrando que a matriz \(A\) é idempotente \[ A = \left[ \begin{array}{rrr} 2 & -1 & 1 \\ -3 & 4 & -3 \\ -5 & 5 & -4 \end{array} \right] \]
# Matriz idempotente
A <- matrix(data = c(2,-3,-5,-1,4,5,1,-3,-4), nrow = 3)
A%*%A
## [,1] [,2] [,3]
## [1,] 2 -1 1
## [2,] -3 4 -3
## [3,] -5 5 -4
Definição 1.19 – Matriz nilpotente. Uma matriz quadrada \(A=(a_{ij})\), para qual \(i,j=1,...,n\), é nilpotente de ordem \(p\) se \(A^p = \bar{0}\).
Definição 1.20 – Matriz ortogonal. Uma matriz quadrada \(A=(a_{ij})\), para qual \(i,j=1,...,n\), é ortogonal se \(A^\top = A^{-1}\).
Exemplo 12. Demonstrando que a matriz \(A\) é ortogonal. \[ A = \left[ \begin{array}{cc} 1/2 & \sqrt(3)/2 \\ \sqrt(3)/2 & -1/2 \\ \end{array} \right] \]
# Matriz idempotente
A <- matrix(data = c(1/2,sqrt(3)/2,sqrt(3)/2,-1/2), nrow = 2)
B <- t(A)
round(A%*%B,0)
## [,1] [,2]
## [1,] 1 0
## [2,] 0 1
Sistemas de equações lineares formam a base da teoria econômica. Frequentemente eles são utilizados na resolução de problemas da teoria Microeconômica e Macroeconômica. Começamos esse tópico apresentando as propriedades elementares de sistemas de equações lineares. Na sequência, avançamos para a solução baseada no método de Gauss-Jordan.
Um sistema de equações lineares ou simplesmente um sistema linear um conjunto de equações organizadas da seguinte forma: \[ \begin{array}{cccccc} a_{11}x_1 & + a_{12}x_2 & + \cdots & + a_{1n}x_n & = & b_1 \\ a_{21}x_1 & + a_{22}x_2 & + \cdots & + a_{2n}x_n & = & b_2 \\ \vdots & \vdots & \vdots & \vdots & & \vdots \\ a_{m1}x_1 & a_{m2}x_2 & + \cdots & + a_{mn}x_n & = & b_n \end{array} \] em que, \(a_{ij}\) e \(b_j\) são constantes para \(i = 1,...,m\) e \(j = 1,...,n\).
Usando as propriedades do produto de matrizes, o sistema linear pode ser representado por \[ A X = B \] em que, \(A\) é uma matriz de coeficientes, \(X\) é um vetor coluna de variáveis a ser determinadas e \(B\) um vetor coluna de constantes.
Operações elementares são operações algébricas que, ao serem realizadas, preservam as propriedades elementares e a solução de um sistema linear.
As três operações elementares do cálculo são:
permutação de linhas;
multiplicar uma equação por um escalar diferente de zero;
somar a uma linha da matriz um múltiplo escalar de outra linha.
Quando aplicamos operações elementares em um sistema linear, somente os coeficientes são alterados. Assim, é possível representá-los na forma de uma matriz aumentada:
\[ [A|B]=\left[ \begin{array}{cccccc} a_{11} & + a_{12} & + \cdots & + a_{1n} & | & b_1 \\ a_{21} & + a_{22} & + \cdots & + a_{2n} & | & b_2 \\ \vdots & \vdots & \vdots & \vdots & | & \vdots \\ a_{m1} & a_{m2} & + \cdots & + a_{mn} & | & b_n \end{array} \right] \]
Definição 2.1 – Equivalência de sistemas lineares. Dois sistemas lineares, \(AX=B\) e \(CX=D\), são equivalentes se eles têm a mesma solução. Então, as matrizes aumentadas \([C|D]\) e \([A|B]\), quando sujeitas às operações elementares, possuem a mesma solução.
O método de Gauss-Jordan é o mais empregado na solução de sistemas de equações lineares. Ele consiste em operações elementares aplicadas à matriz aumentada. As operações devem ocorrer até obtermos uma matriz simplificada da resolução do sistema.
O método de Gauss-Jordan é uma extensão do método de Gauss, pois enquanto este leva a uma matriz triangular superior, o primeiro reduz a matriz aumentada à forma de uma matriz identidade. Em síntese, usando a propriedade de equivalência, o método Gauss-Jordan simplifica a solução de sistemas lineares.
Método de Gauss-Jordan
Construir a matriz aumentada: incluir os coeficientes das variáveis e os termos independentes.
Escolher o elemento pivô: selecionar elemento pivô em cada linha e coluna.
Normalização: dividir a linha pelo pivô para que ele se torne 1.
Zerar os demais elementos da coluna: aplicar operações elementares de linha para eliminar os valores acima e abaixo do pivô.
Repetir o processo: avançar coluna por coluna até que a matriz esteja na forma identidade. Os termos independentes resultantes correspondem a solução do sistema linear.
Exemplo 2.1. Usando o método de Gauss-Jordan, resolva o sistema de equações lineares
\[ \begin{array}{ccccc} 2x_1 & 3 x_2 & +1x_3 & = & 4 \\ 1x_1 & -2x_2 & + 4x_3 & = & 16 \\ 3x_1 & + 1x_2 & -1x_3 & = & 2 \end{array} \]
Em R, o método de Gauss-Jordan é geralmente implementado usando a
função gaussianElimination do pacote matlib.
Esse método transforma uma matriz aumentada em forma Escalonada Reduzida
por Linhas (ERL) para resolver sistemas de equações lineares ou
encontrar inversas de matrizes.
# Install and load the package
# install.packages("matlib")
library(matlib)
# Define coefficient matrix A and constant vector B
A <- matrix(data = c(2, 3, 1, 1, -2, 4, 3, 1, -1), nrow = 3, ncol = 3, byrow=TRUE)
B <- c(4, 16, 2)
# Perform Gauss-Jordan elimination
# verbose = TRUE shows each step of the row operations
gaussianElimination(A, B, verbose=TRUE, fractions=TRUE)
##
## Initial matrix:
## [,1] [,2] [,3] [,4]
## [1,] 2 3 1 4
## [2,] 1 -2 4 16
## [3,] 3 1 -1 2
##
## row: 1
##
## exchange rows 1 and 3
## [,1] [,2] [,3] [,4]
## [1,] 3 1 -1 2
## [2,] 1 -2 4 16
## [3,] 2 3 1 4
##
## multiply row 1 by 1/3
## [,1] [,2] [,3] [,4]
## [1,] 1 1/3 -1/3 2/3
## [2,] 1 -2 4 16
## [3,] 2 3 1 4
##
## subtract row 1 from row 2
## [,1] [,2] [,3] [,4]
## [1,] 1 1/3 -1/3 2/3
## [2,] 0 -7/3 13/3 46/3
## [3,] 2 3 1 4
##
## multiply row 1 by 2 and subtract from row 3
## [,1] [,2] [,3] [,4]
## [1,] 1 1/3 -1/3 2/3
## [2,] 0 -7/3 13/3 46/3
## [3,] 0 7/3 5/3 8/3
##
## row: 2
##
## multiply row 2 by -3/7
## [,1] [,2] [,3] [,4]
## [1,] 1 1/3 -1/3 2/3
## [2,] 0 1 -13/7 -46/7
## [3,] 0 7/3 5/3 8/3
##
## multiply row 2 by 1/3 and subtract from row 1
## [,1] [,2] [,3] [,4]
## [1,] 1 0 2/7 20/7
## [2,] 0 1 -13/7 -46/7
## [3,] 0 7/3 5/3 8/3
##
## multiply row 2 by 7/3 and subtract from row 3
## [,1] [,2] [,3] [,4]
## [1,] 1 0 2/7 20/7
## [2,] 0 1 -13/7 -46/7
## [3,] 0 0 6 18
##
## row: 3
##
## multiply row 3 by 1/6
## [,1] [,2] [,3] [,4]
## [1,] 1 0 2/7 20/7
## [2,] 0 1 -13/7 -46/7
## [3,] 0 0 1 3
##
## multiply row 3 by 2/7 and subtract from row 1
## [,1] [,2] [,3] [,4]
## [1,] 1 0 0 2
## [2,] 0 1 -13/7 -46/7
## [3,] 0 0 1 3
##
## multiply row 3 by 13/7 and add to row 2
## [,1] [,2] [,3] [,4]
## [1,] 1 0 0 2
## [2,] 0 1 0 -1
## [3,] 0 0 1 3
A última matriz está na forma ERL, que consiste basicamente em \([I_n|X]\)
Exemplo 2.2 Um fazendeiro tem disponível 15 hectares de área para cultivo de soja e milho, mas planeja deixar parte da terra em descanso. Cada hectare de soja custa R$20.000 em investimentos e demanda 30 horas de trabalho em um mês; cada hectare de milho custa R$15.000 em investimentos e demanda 40 horas de trabalho em um mês. A terra não cultivada custa R$5.000 o hectare e demanda 5 horas de trabalho por mês. O fazendeiro tem disponível R$230.000 e 425 horas de trabalho. Cada hectare de soja cultivada rende ao fazendeiro R$30.000 e cada hectare de milho cultivado rende R$20.000. Monte um sistema de equações lineares e determine a quantidade de terra que deve ser utilizada na produção de soja e milho, bem como a proporção de terra em descanso.
\[ \begin{array}{ccccc} 1x_1 & +1x_2 & +1x_3 & = & 15 \\ 20x_1 & +15x_2 & + 5x_3 & = & 230 \\ 30x_1 & + 40x_2 & +5x_3 & = & 425 \end{array} \]
# Install and load the package
# install.packages("matlib")
library(matlib)
# Define coefficient matrix A and constant vector B
A <- matrix(data = c(1, 1, 1, 20, 15, 5, 30, 40, 5), nrow = 3, ncol = 3, byrow=TRUE)
B <- c(15, 230, 425)
# Perform Gauss-Jordan elimination
# verbose = TRUE shows each step of the row operations
gaussianElimination(A, B, verbose=TRUE, fractions=TRUE)
##
## Initial matrix:
## [,1] [,2] [,3] [,4]
## [1,] 1 1 1 15
## [2,] 20 15 5 230
## [3,] 30 40 5 425
##
## row: 1
##
## exchange rows 1 and 3
## [,1] [,2] [,3] [,4]
## [1,] 30 40 5 425
## [2,] 20 15 5 230
## [3,] 1 1 1 15
##
## multiply row 1 by 1/30
## [,1] [,2] [,3] [,4]
## [1,] 1 4/3 1/6 85/6
## [2,] 20 15 5 230
## [3,] 1 1 1 15
##
## multiply row 1 by 20 and subtract from row 2
## [,1] [,2] [,3] [,4]
## [1,] 1 4/3 1/6 85/6
## [2,] 0 -35/3 5/3 -160/3
## [3,] 1 1 1 15
##
## subtract row 1 from row 3
## [,1] [,2] [,3] [,4]
## [1,] 1 4/3 1/6 85/6
## [2,] 0 -35/3 5/3 -160/3
## [3,] 0 -1/3 5/6 5/6
##
## row: 2
##
## multiply row 2 by -3/35
## [,1] [,2] [,3] [,4]
## [1,] 1 4/3 1/6 85/6
## [2,] 0 1 -1/7 32/7
## [3,] 0 -1/3 5/6 5/6
##
## multiply row 2 by 4/3 and subtract from row 1
## [,1] [,2] [,3] [,4]
## [1,] 1 0 5/14 113/14
## [2,] 0 1 -1/7 32/7
## [3,] 0 -1/3 5/6 5/6
##
## multiply row 2 by 1/3 and add to row 3
## [,1] [,2] [,3] [,4]
## [1,] 1 0 5/14 113/14
## [2,] 0 1 -1/7 32/7
## [3,] 0 0 11/14 33/14
##
## row: 3
##
## multiply row 3 by 14/11
## [,1] [,2] [,3] [,4]
## [1,] 1 0 5/14 113/14
## [2,] 0 1 -1/7 32/7
## [3,] 0 0 1 3
##
## multiply row 3 by 5/14 and subtract from row 1
## [,1] [,2] [,3] [,4]
## [1,] 1 0 0 7
## [2,] 0 1 -1/7 32/7
## [3,] 0 0 1 3
##
## multiply row 3 by 1/7 and add to row 2
## [,1] [,2] [,3] [,4]
## [1,] 1 0 0 7
## [2,] 0 1 0 5
## [3,] 0 0 1 3
Portanto, fazendeiro deve utilizar 7 hectares de área para o cultivo da soja, 7 hectares de área para o cultivo do milho e 3 hectares devem ficar em descanso.
O determinante é um número associado a uma matriz quadrada que indica se ela é invertível; a inversa de uma matriz só existe quando o determinante é diferente de zero. Em termos práticos, o determinante funciona como um teste de viabilidade para verificar se \(A\) possui uma inversa \(A^{-1}=B\). Assim, a inversão é o processo que visa encontrar uma matriz, tal que, multiplicada pela original, resulta na matriz identidade, \(A B = I_n\)
Definição 3.1 – Determinante. O determinante é um escalar associado a uma matriz quadrada.
Propriedades principais:
Se o determinante é zero, a matriz é singular (não possui inversa).
Se o determinante é não nulo, a matriz é invertível.
O determinante muda de sinal quando duas linhas (ou colunas) são trocadas.
Multiplicar uma linha por um número \(k\), equivale multiplicar o determinante por \(k\).
Em um sistema linear, o determinante depende apenas da matriz de coeficientes. Então, o determinante de \[ A = \left[ \begin{array}{cc} a_{11} & a_{12} \\ a_{21} & a_{22} \\ \end{array} \right] \] é obtido por \[ \det (A) = a_{11}.a_{22} - a_{12}.a_{21}. \]
Para o determinante de matrizes maiores, usa-se expansão de Laplace ou métodos de redução (como escalonamento).
É possível encontrar a matriz inversa usando o conceito de terminante. Então, a inversa de \(A\) pode ser obtida por \[ A^{-1} = \frac{1}{det(A)} . adj(A) = \frac{1}{det(A)} . \left[ \begin{array}{cc} a_{22} & -a_{12} \\ -a_{21} & a_{11} \\ \end{array} \right] \]
A regra de Sarrus é uma método fácil de calcular o determinante de matriz de ordem \(3 \times 3\). A regra consiste em repetir as duas primeiras colunas da matriz cujo determinante se deseja calcular.
\[ \left[ \begin{array}{ccccc} a_{11} & a_{12} & a_{13} & | & a_{11} & a_{12} \\ a_{21} & a_{22} & a_{23} & | & a_{21} & a_{22} \\ a_{31} & a_{31} & a_{33} & | & a_{31} & a_{31} \end{array} \right] \] O determinantes de \(A\) é
\[ det(A) = [a_{11}.a_{22}.a_{33} + a_{12}.a_{23}.a_{31} + a_{13}.a_{21}.a_{31}] - [a_{13}.a_{22}.a_{31} + a_{11}.a_{23}.a_{32} + a_{12}.a_{21}.a_{331}] \]
Para definir o determinante de matrizes quadradas de ordem superior, precisamos definir o que são os menores de uma matriz quadrada. Dada uma matriz \(A\), o menor do elemento \(a_{ij}\), denotado por \(\tilde{A}_{ij}\), é a submatriz obtida a partir da eliminação linha \(i\) e coluna \(j\) de referência.
Considere uma matriz \(A=(a_{ij})\) tamanho \(5 \times 5\), tal que o elemento \(a_{ij}\) de referência corresponde a \(i=3\) e \(j=3\). \[ A = \left[ \begin{array}{cc|c|cc} a_{11} & a_{12} & a_{13} & a_{14} & a_{15} \\ a_{21} & a_{22} & a_{23} & a_{24} & a_{25} \\ \hline a_{31} & a_{32} & a_{33} & a_{34} & a_{35} \\ \hline a_{41} & a_{42} & a_{43} & a_{44} & a_{45} \\ a_{51} & a_{52} & a_{53} & a_{54} & a_{55} \end{array} \right] \]
Então, o menor corresponde a submatriz
\[ \tilde{A}_{33} = \left[ \begin{array}{cccc} a_{11} & a_{12} & a_{14} & a_{15} \\ a_{21} & a_{22} & a_{24} & a_{25} \\ a_{41} & a_{42} & a_{44} & a_{45} \\ a_{51} & a_{52} & a_{54} & a_{55} \end{array} \right] \] e o menor relativo corresponde ao determinante \(det(\tilde{A}_{33})\).
Definição 3.3.1 – Menor da matriz \(A\). Dada uma matriz \(A\), o menor do elemento \(a_{ij}\), denotado por \(\tilde{A}_{ij}\), é a submatriz obtida a partir da eliminação linha \(i\) e coluna \(j\) de referência.
Definição 3.3.2 – Menor relativo. O determinante de uma submatriz \(\tilde{A}_{ij}\), tamanho \(n - 1 \times n - 1\), é chamado menor relativo ao elemento \(a_{ij}\) da matriz \(A\), tamanho \(n \times n\).
Definição 3.3.3 – Cofator. Dado um menor relativo \(det(\tilde{A}_{ij})\), correspondente a um elemento \(a_{ij}\) de uma matriz \(A\), o cofator de \(a_{ij}\), é definido como: \[ \tilde{a}_{ij} = (-1)^{i+j} \cdot det(\tilde{A}_{ij}) \] Por meio da redução da ordem da matriz, os cofatores \(\tilde{a}_{ij}\) são importantes para o cálculo do determinante de uma matriz \(A\) de ordem superior \(n \times n\).
Definição 3.3.4 – Redução da ordem do determinante. Dada uma matriz \(A\), tamanho \(n \times n\), seu determinante é dado pela soma dos cofatores de determinada linha ou coluna multiplicados pelos respectivos elementos da matriz. Fixando a primeira linha, temos \[ det(A) = a_{11}.\tilde{a}_{11} + a_{12}.\tilde{a}_{12} + \cdots + a_{1n}.\tilde{a}_{1n} = \sum_{j=1}^n a_{1j}.\tilde{a}_{1j} \] Exemplo 3.3. Considere a matriz \(A\), tamanho \(5 \times 5\). Fixando a primeira linha e utilizando a denificação de cofatores, calcule o determinante da a matriz \(A\). \[ A = \left[ \begin{array}{rrrrr} 1 & 2 & 1 & 3 & 2 \\ -3 & -1 & -3 & -1 & 5 \\ 2 & 4 & 2 & 4 & -1 \\ 0 & 3 & 1 & 0 & 2 \\ 4 & 2 & 4 & 3 & 3 \end{array} \right] \]
library(matlib)
# Define a matriz A
A <- matrix(data = c(1,2,1,3,2,-3,-1,-3,-1,5,2,4,2,4,-1,0,3,1,0,2,4,2,4,3,3), byrow = TRUE, ncol = 5)
A
## [,1] [,2] [,3] [,4] [,5]
## [1,] 1 2 1 3 2
## [2,] -3 -1 -3 -1 5
## [3,] 2 4 2 4 -1
## [4,] 0 3 1 0 2
## [5,] 4 2 4 3 3
# Define um vetor de cofatores
vcof <- c(cofactor(A,1,1),cofactor(A,1,2),cofactor(A,1,3),cofactor(A,1,4),cofactor(A,1,5))
vcof
## [1] -294 -85 275 92 -10
# Determinante da matriz A
sum(A[1,]*vcof)
## [1] 67
# Validação
det(A)
## [1] 67