1 Matrizes

Matrizes são objetos extremamente importantes para análise quantitativa em Ciências Econômicas. O cálculo matricial forma a base teórica da disciplina Econometria, bem como auxilia na compreensão de temas importantes da teoria Microeconômica e Macroeconômica. Esta nota de aula visa apresentar conceitos, propriedades e operações úteis a qualificação discente do curso de Ciências Econômicas.

Definição 1.1 – Matriz. Seja \(m\) o número de linhas e \(n\) o número de colunas, uma matriz é uma tabela numérica de tamanho \(m \times n\).

Exemplo 1. A, B e C são matrizes. \[ A = \left[ \begin{array}{ccc} 1 & 2 & 1 \\ 3 & 1 & 1 \\ 1 & 2 & 0 \end{array} \right]; B = \left[ \begin{array}{c} 1 \\ 2 \\ 3 \end{array} \right]; C = [3 \ \ 1 \ \ 2 \ \ 4] \]

Alguns livros representam matrizes entre dois parênteses. Aqui, utilizaremos colchetes para a representação.

1.1 Tipos especiais de matrizes

Definição 1.2 – Vetores. Quando uma matriz é composta por apenas uma coluna, costumamos chamá-la de vetor coluna. Quando é composta de apenas uma linha, costumamos chamá-la de vetor linha.

Definição 1.3 – Matriz quadrada. Diz-se que uma matriz \(A=(a_{ij})\) é quadrada quando o número de linhas é igual ao número de colunas \((n \times n)\).

Definição 1.4 – Matriz diagonal. Uma matriz diagonal é uma matriz quadrada, tal que todos os elementos de fora da diagonal principal são nulos: \(a_{ij} = 0\) para todo \(i \neq j\).

Exemplo 3. Matriz diagonal dimensão \((3 \times 3)\) \[ D = \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{array} \right] \] Definição 1.5 – Matriz identidade. A matriz identidade \(I_n\) é a matriz diagonal \((n \times n)\) para a qual \(a_{ii} = 1\) para \(i=1,...,n\).

Exemplo 3. Matriz identidade dimensão \((3 \times 3)\) \[ I_n = \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right] \]

# Matriz identidade
Id <- diag(x = 3)
Id
##      [,1] [,2] [,3]
## [1,]    1    0    0
## [2,]    0    1    0
## [3,]    0    0    1

1.2 Operações com matrizes

Definição 1.6 – Igualdade entre matrizes. Duas matrizes \(A=(a_{ij})\) e \(B=(b_{ij})\), ambas \((m \times n)\), são iguais se \(a_{ij} = b_{ij}\) para todo \(i=1,...,m\) e \(j=1,...,n\).

# Igualdade entre matrizes
A <- matrix(1:9, nrow = 3)
B <- matrix(1:9, nrow = 3)
identical(A,B)
## [1] TRUE

Definição 1.7 – Soma de matrizes. Dada uma matriz \(A=(a_{ij})\) e uma matriz \(B=(b_{ij})\), ambas \((m \times n)\), então a soma é, \(A + B = a_{ij} + b_{ij}\) para todo \(i=1,...,m\) e \(j=1,...,n\).

Exemplo 4. Usando o R.

# Soma de matrizes
A <- matrix(1:9, nrow = 3); A
##      [,1] [,2] [,3]
## [1,]    1    4    7
## [2,]    2    5    8
## [3,]    3    6    9
B <- matrix(1:9, nrow = 3, byrow = TRUE); B
##      [,1] [,2] [,3]
## [1,]    1    2    3
## [2,]    4    5    6
## [3,]    7    8    9
A + B
##      [,1] [,2] [,3]
## [1,]    2    6   10
## [2,]    6   10   14
## [3,]   10   14   18

Propriedade da soma

  • \(A + B = B + A\) (comutativa);

  • \((A + B) + C = A + (B + C)\) (associativa);

  • para qualquer matriz \(A\) do tipo \(m \times n\), existe uma matriz \(\bar{0}\), tal que \(\bar{0} + A = A + \bar{0} = A\) (existência de elemento neutro);

  • para qualquer matriz \(A\) do tipo \(m \times n\), existe sempre uma matriz \(B = -A\), tal que \(A + B = B + A = -A + A = \bar{0}\) (existência de elemento inverso).

Definição 1.8 – Produto por um escalar. Dada uma matriz \(A=(a_{ij})\) e um escalar \(k \in \Re\), o produto pelo escalar é \(k A = k a_{ij}\).

É possível combinar a soma de matrizes e produto por um escalar de diferentes formas: \(A + kB\), \(k(A + B)\), \(kA + B\), etc.

Considere \(a,b \in \Re\) como dois escalares, a soma de produto por escalres segue as propriedades:

  • \(a(bA) = (ab)A\) (associativa);

  • para qualquer matriz \(A\) do tipo \(m \times n\), existe um número real 1 tal que \(1 A = A 1 = A\) (existência de elemento neutro);

  • \(a(A + B) = aA + aB\) (distributiva 1);

  • \((a + b)A = aA + bA\) (distributiva 2).

Essas propriedades são válidas para um grande conjunto de números, como o conjunto dos números reais.

Definição 1.9 – Produto de matrizes. Dada uma matriz \(A=(a_{ij})\) e uma matriz \(B=(b_{ij})\), sendo \(A\) tipo \((m \times n)\) e \(B\) tipo \((n \times p)\), o produto é \(AB = \sum_{j=1}^n a_{ij} b_{jk}\), é uma matriz tipo \((m \times p)\).

Observe que o produto \(AB\) só pode ser efetuado se o número de colunas da primeira matriz for igual ao número de linhas da segunda matriz.

Exemplo 5. Produto de matrizes usando o R.

# Produto de matrizes
A <- matrix(data = c(2,3,-1,1,0,4), nrow = 2); A
##      [,1] [,2] [,3]
## [1,]    2   -1    0
## [2,]    3    1    4
B <- matrix(data = c(-1,2,3,3,5,1), nrow = 3); B
##      [,1] [,2]
## [1,]   -1    3
## [2,]    2    5
## [3,]    3    1
B%*%A
##      [,1] [,2] [,3]
## [1,]    7    4   12
## [2,]   19    3   20
## [3,]    9   -2    4

Definição 1.10 – Produto de matrizes idênticas. Seja \(n\) úm número inteiro não negativo, dada uma matriz \(A=(a_{ij})\), a matriz \(A^n\) será o produto \(A A \cdots A\), efetuado \(n - 1\) vezes.

Exemplo 6. Dada a matriz \(M = \left[ \begin{array}{cc} 1 & -2 \\ 3 & 1 \\ \end{array} \right]\), calcule \(M^3\)

# Produto de matrizes idênticas
M <- matrix(data = c(1,3,-2,1), nrow = 2)
MMM <- M%*%M%*%M
MMM
##      [,1] [,2]
## [1,]  -17    6
## [2,]   -9  -17
# Demonstra que não são matrizes identicas
identical(MMM,M^3)
## [1] FALSE

1.3 Tópicos especiais

Definição 1.11 – Matriz transposta. Dada uma matriz \(A=(a_{ij})\), \(i = 1,...,m\) e \(j = 1,...,n\), a sua transposta é \(A^\top = (a_{ji})\).

Exemplo 7. Dada a matriz \(A = \left[ \begin{array}{cc} 3 & -1 \\ 2 & 4 \\ 5 & 0 \end{array} \right]\) sua transposta é

# Matriz transposta
A <- matrix(data = c(3,2,5,-1,4,0), nrow = 3)
t(A)
##      [,1] [,2] [,3]
## [1,]    3    2    5
## [2,]   -1    4    0

Propriedades da matriz transposta

  • \((A^\top)^\top = A\);

  • \((A + B)^\top = A^\top + B^\top\);

  • \((k A)^\top = k A^\top\);

  • \((AB)^\top = A^\top B^\top\).

Definição 1.12 – Traço da matriz. Para uma matriz quadrada, a forma mais simples de obter um número representativo é por meio do seu traço. Dada uma matriz \(A=(a_{ij})\) quadrada, o traço da matriz é a soma dos elementos da diagonal principal, \(tr(A) = \sum_{i=1}^n a_{ii}\), para \(i = 1,...,n\).

Exemplo 8. Dada a matriz \(A = \left[ \begin{array}{ccc} 3 & 1 & 0 \\ 2 & 4 & 3\\ 5 & 0 & 1 \end{array} \right]\) o traço da matriz é

# Traço da matriz
A <- matrix(data = c(3,2,5,1,4,0,0,3,1), nrow = 3)
sum(diag(A))
## [1] 8

Definição 1.13 – Matriz inversa. A matriz inversa de uma matriz quadrada \(A\) é aquela que, ao ser multiplicada pela original, resulta na matriz identidade, \(I_n\), ou seja, \(A A^{-1} = A^{-1} A = I_n\). Ela funciona como o elemento inverso da multiplicação, sendo aplicável apenas a matrizes quadradas com determinante diferente de zero, \(det(A) \neq 0\).

Exemplo 9. Demonstrando que \(B = \left[ \begin{array}{cc} 2 & -3 \\ -1 & 2 \\ \end{array} \right]\) é a inversa de \(A = \left[ \begin{array}{cc} 2 & 3 \\ 1 & 2 \\ \end{array} \right]\)

# Matriz inversa
A <- matrix(data = c(2,1,3,2), nrow = 2)
B <- matrix(data = c(2,-1,-3,2), nrow = 2)
A%*%B
##      [,1] [,2]
## [1,]    1    0
## [2,]    0    1
B%*%A
##      [,1] [,2]
## [1,]    1    0
## [2,]    0    1

Propriedades da matriz inversa

  • \((A^{-1})^{-1} = A\);

  • \((A B)^{-1} = B^{-1} A^{-1}\);

  • \((A^{\top})^{-1} = (A^{-1})^{\top}\);

Definição 1.14 – Matriz simétrica. Uma matriz quadrada \(A=(a_{ij})\) é simétrica se \(a_{ij} = a_{ji}\), para todo \(i,j=1,...,n\).

Definição 1.15 – Matriz antisimétrica. Uma matriz quadrada \(A=(a_{ij})\) é antisimétrica se \(a_{ij} = -a_{ji}\), para todo \(i,j=1,...,n\).

Definição 1.16 – Matriz triangular inferior. Uma matriz quadrada \(A=(a_{ij})\), \(i,j=1,...,n\), é triangular inferior se \(a_{ij}=0\) para todo \(i < j\).

Definição 1.17 – Matriz triangular superior. Uma matriz quadrada \(A=(a_{ij})\), para qual \(i,j=1,...,n\), é triangular superior se \(a_{ij}=0\) para todo \(i > j\).

Exemplo 10. A matriz \(B\) é triangular inferior. \[ B = \left[ \begin{array}{rrr} 2 & 0 & 0 \\ 1 & 3 & 0 \\ 0 & -1 & 1 \end{array} \right] \] A matriz \(C\) é triangular superior. \[ C = \left[ \begin{array}{rrrr} 2 & -1 & 0 & 6 \\ 0 & 1 & 3 & 5 \\ 0 & 0 & 1 & -1 \\ 0 & 0 & 0 & 8 \end{array} \right] \] Definição 1.18 – Matriz idempotente. Uma matriz quadrada \(A=(a_{ij})\), para qual \(i,j=1,...,n\), é idempotente se \(A^2 = A\).

Exemplo 11. Demonstrando que a matriz \(A\) é idempotente \[ A = \left[ \begin{array}{rrr} 2 & -1 & 1 \\ -3 & 4 & -3 \\ -5 & 5 & -4 \end{array} \right] \]

# Matriz idempotente
A <- matrix(data = c(2,-3,-5,-1,4,5,1,-3,-4), nrow = 3)
A%*%A
##      [,1] [,2] [,3]
## [1,]    2   -1    1
## [2,]   -3    4   -3
## [3,]   -5    5   -4

Definição 1.19 – Matriz nilpotente. Uma matriz quadrada \(A=(a_{ij})\), para qual \(i,j=1,...,n\), é nilpotente de ordem \(p\) se \(A^p = \bar{0}\).

Definição 1.20 – Matriz ortogonal. Uma matriz quadrada \(A=(a_{ij})\), para qual \(i,j=1,...,n\), é ortogonal se \(A^\top = A^{-1}\).

Exemplo 12. Demonstrando que a matriz \(A\) é ortogonal. \[ A = \left[ \begin{array}{cc} 1/2 & \sqrt(3)/2 \\ \sqrt(3)/2 & -1/2 \\ \end{array} \right] \]

# Matriz idempotente
A <- matrix(data = c(1/2,sqrt(3)/2,sqrt(3)/2,-1/2), nrow = 2)
B <- t(A)
round(A%*%B,0)
##      [,1] [,2]
## [1,]    1    0
## [2,]    0    1

2 Sistemas de equações lineares

Sistemas de equações lineares formam a base da teoria econômica. Frequentemente eles são utilizados na resolução de problemas da teoria Microeconômica e Macroeconômica. Começamos esse tópico apresentando as propriedades elementares de sistemas de equações lineares. Na sequência, avançamos para a solução baseada no método de Gauss-Jordan.

2.1 Especificação

Um sistema de equações lineares ou simplesmente um sistema linear um conjunto de equações organizadas da seguinte forma: \[ \begin{array}{cccccc} a_{11}x_1 & + a_{12}x_2 & + \cdots & + a_{1n}x_n & = & b_1 \\ a_{21}x_1 & + a_{22}x_2 & + \cdots & + a_{2n}x_n & = & b_2 \\ \vdots & \vdots & \vdots & \vdots & & \vdots \\ a_{m1}x_1 & a_{m2}x_2 & + \cdots & + a_{mn}x_n & = & b_n \end{array} \] em que, \(a_{ij}\) e \(b_j\) são constantes para \(i = 1,...,m\) e \(j = 1,...,n\).

Usando as propriedades do produto de matrizes, o sistema linear pode ser representado por \[ A X = B \] em que, \(A\) é uma matriz de coeficientes, \(X\) é um vetor coluna de variáveis a ser determinadas e \(B\) um vetor coluna de constantes.

2.2 Operações elementares

Operações elementares são operações algébricas que, ao serem realizadas, preservam as propriedades elementares e a solução de um sistema linear.

As três operações elementares do cálculo são:

  • permutação de linhas;

  • multiplicar uma equação por um escalar diferente de zero;

  • somar a uma linha da matriz um múltiplo escalar de outra linha.

Quando aplicamos operações elementares em um sistema linear, somente os coeficientes são alterados. Assim, é possível representá-los na forma de uma matriz aumentada:

\[ [A|B]=\left[ \begin{array}{cccccc} a_{11} & + a_{12} & + \cdots & + a_{1n} & | & b_1 \\ a_{21} & + a_{22} & + \cdots & + a_{2n} & | & b_2 \\ \vdots & \vdots & \vdots & \vdots & | & \vdots \\ a_{m1} & a_{m2} & + \cdots & + a_{mn} & | & b_n \end{array} \right] \]

Definição 2.1 – Equivalência de sistemas lineares. Dois sistemas lineares, \(AX=B\) e \(CX=D\), são equivalentes se eles têm a mesma solução. Então, as matrizes aumentadas \([C|D]\) e \([A|B]\), quando sujeitas às operações elementares, possuem a mesma solução.

2.3 Método de Gauss-Jordan

O método de Gauss-Jordan é o mais empregado na solução de sistemas de equações lineares. Ele consiste em operações elementares aplicadas à matriz aumentada. As operações devem ocorrer até obtermos uma matriz simplificada da resolução do sistema.

O método de Gauss-Jordan é uma extensão do método de Gauss, pois enquanto este leva a uma matriz triangular superior, o primeiro reduz a matriz aumentada à forma de uma matriz identidade. Em síntese, usando a propriedade de equivalência, o método Gauss-Jordan simplifica a solução de sistemas lineares.

Método de Gauss-Jordan

  • Construir a matriz aumentada: incluir os coeficientes das variáveis e os termos independentes.

  • Escolher o elemento pivô: selecionar elemento pivô em cada linha e coluna.

  • Normalização: dividir a linha pelo pivô para que ele se torne 1.

  • Zerar os demais elementos da coluna: aplicar operações elementares de linha para eliminar os valores acima e abaixo do pivô.

  • Repetir o processo: avançar coluna por coluna até que a matriz esteja na forma identidade. Os termos independentes resultantes correspondem a solução do sistema linear.

Exemplo 2.1. Usando o método de Gauss-Jordan, resolva o sistema de equações lineares

\[ \begin{array}{ccccc} 2x_1 & 3 x_2 & +1x_3 & = & 4 \\ 1x_1 & -2x_2 & + 4x_3 & = & 16 \\ 3x_1 & + 1x_2 & -1x_3 & = & 2 \end{array} \]

Em R, o método de Gauss-Jordan é geralmente implementado usando a função gaussianElimination do pacote matlib. Esse método transforma uma matriz aumentada em forma Escalonada Reduzida por Linhas (ERL) para resolver sistemas de equações lineares ou encontrar inversas de matrizes.

# Install and load the package
# install.packages("matlib")
library(matlib)

# Define coefficient matrix A and constant vector B
A <- matrix(data = c(2, 3, 1, 1, -2, 4, 3,  1, -1), nrow = 3, ncol = 3, byrow=TRUE)
B <- c(4, 16, 2)

# Perform Gauss-Jordan elimination
# verbose = TRUE shows each step of the row operations
gaussianElimination(A, B, verbose=TRUE, fractions=TRUE)
## 
## Initial matrix:
##      [,1] [,2] [,3] [,4]
## [1,]  2    3    1    4  
## [2,]  1   -2    4   16  
## [3,]  3    1   -1    2  
## 
## row: 1 
## 
##  exchange rows 1 and 3
##      [,1] [,2] [,3] [,4]
## [1,]  3    1   -1    2  
## [2,]  1   -2    4   16  
## [3,]  2    3    1    4  
## 
##  multiply row 1 by 1/3
##      [,1] [,2] [,3] [,4]
## [1,]    1  1/3 -1/3  2/3
## [2,]    1   -2    4   16
## [3,]    2    3    1    4
## 
##  subtract row 1 from row 2
##      [,1] [,2] [,3] [,4]
## [1,]    1  1/3 -1/3  2/3
## [2,]    0 -7/3 13/3 46/3
## [3,]    2    3    1    4
## 
##  multiply row 1 by 2 and subtract from row 3
##      [,1] [,2] [,3] [,4]
## [1,]    1  1/3 -1/3  2/3
## [2,]    0 -7/3 13/3 46/3
## [3,]    0  7/3  5/3  8/3
## 
## row: 2 
## 
##  multiply row 2 by -3/7
##      [,1]  [,2]  [,3]  [,4] 
## [1,]     1   1/3  -1/3   2/3
## [2,]     0     1 -13/7 -46/7
## [3,]     0   7/3   5/3   8/3
## 
##  multiply row 2 by 1/3 and subtract from row 1
##      [,1]  [,2]  [,3]  [,4] 
## [1,]     1     0   2/7  20/7
## [2,]     0     1 -13/7 -46/7
## [3,]     0   7/3   5/3   8/3
## 
##  multiply row 2 by 7/3 and subtract from row 3
##      [,1]  [,2]  [,3]  [,4] 
## [1,]     1     0   2/7  20/7
## [2,]     0     1 -13/7 -46/7
## [3,]     0     0     6    18
## 
## row: 3 
## 
##  multiply row 3 by 1/6
##      [,1]  [,2]  [,3]  [,4] 
## [1,]     1     0   2/7  20/7
## [2,]     0     1 -13/7 -46/7
## [3,]     0     0     1     3
## 
##  multiply row 3 by 2/7 and subtract from row 1
##      [,1]  [,2]  [,3]  [,4] 
## [1,]     1     0     0     2
## [2,]     0     1 -13/7 -46/7
## [3,]     0     0     1     3
## 
##  multiply row 3 by 13/7 and add to row 2
##      [,1] [,2] [,3] [,4]
## [1,]  1    0    0    2  
## [2,]  0    1    0   -1  
## [3,]  0    0    1    3

A última matriz está na forma ERL, que consiste basicamente em \([I_n|X]\)

Exemplo 2.2 Um fazendeiro tem disponível 15 hectares de área para cultivo de soja e milho, mas planeja deixar parte da terra em descanso. Cada hectare de soja custa R$20.000 em investimentos e demanda 30 horas de trabalho em um mês; cada hectare de milho custa R$15.000 em investimentos e demanda 40 horas de trabalho em um mês. A terra não cultivada custa R$5.000 o hectare e demanda 5 horas de trabalho por mês. O fazendeiro tem disponível R$230.000 e 425 horas de trabalho. Cada hectare de soja cultivada rende ao fazendeiro R$30.000 e cada hectare de milho cultivado rende R$20.000. Monte um sistema de equações lineares e determine a quantidade de terra que deve ser utilizada na produção de soja e milho, bem como a proporção de terra em descanso.

  • Identificando as variáveis de decisão
    • \(x_1 =\) área de soja plantada em hectares;
    • \(x_2 =\) área de milho plantada;
    • \(x_3 =\) área de descanso.
  • O fazendeiro tem três recursos disponíveis: a quantidade total de terra, a quantidade de horas de trabalho e o montante de recurso financeiro disponível para o investimento produtivo. Escrevendo na forma de um sistema de equações, temos:

\[ \begin{array}{ccccc} 1x_1 & +1x_2 & +1x_3 & = & 15 \\ 20x_1 & +15x_2 & + 5x_3 & = & 230 \\ 30x_1 & + 40x_2 & +5x_3 & = & 425 \end{array} \]

  • Usando o método de Gauss-Jordan para resolver o sistema de equações lineares.
# Install and load the package
# install.packages("matlib")
library(matlib)

# Define coefficient matrix A and constant vector B
A <- matrix(data = c(1, 1, 1, 20, 15, 5, 30,  40, 5), nrow = 3, ncol = 3, byrow=TRUE)
B <- c(15, 230, 425)

# Perform Gauss-Jordan elimination
# verbose = TRUE shows each step of the row operations
gaussianElimination(A, B, verbose=TRUE, fractions=TRUE)
## 
## Initial matrix:
##      [,1] [,2] [,3] [,4]
## [1,]   1    1    1   15 
## [2,]  20   15    5  230 
## [3,]  30   40    5  425 
## 
## row: 1 
## 
##  exchange rows 1 and 3
##      [,1] [,2] [,3] [,4]
## [1,]  30   40    5  425 
## [2,]  20   15    5  230 
## [3,]   1    1    1   15 
## 
##  multiply row 1 by 1/30
##      [,1] [,2] [,3] [,4]
## [1,]    1  4/3  1/6 85/6
## [2,]   20   15    5  230
## [3,]    1    1    1   15
## 
##  multiply row 1 by 20 and subtract from row 2
##      [,1]   [,2]   [,3]   [,4]  
## [1,]      1    4/3    1/6   85/6
## [2,]      0  -35/3    5/3 -160/3
## [3,]      1      1      1     15
## 
##  subtract row 1 from row 3
##      [,1]   [,2]   [,3]   [,4]  
## [1,]      1    4/3    1/6   85/6
## [2,]      0  -35/3    5/3 -160/3
## [3,]      0   -1/3    5/6    5/6
## 
## row: 2 
## 
##  multiply row 2 by -3/35
##      [,1] [,2] [,3] [,4]
## [1,]    1  4/3  1/6 85/6
## [2,]    0    1 -1/7 32/7
## [3,]    0 -1/3  5/6  5/6
## 
##  multiply row 2 by 4/3 and subtract from row 1
##      [,1]   [,2]   [,3]   [,4]  
## [1,]      1      0   5/14 113/14
## [2,]      0      1   -1/7   32/7
## [3,]      0   -1/3    5/6    5/6
## 
##  multiply row 2 by 1/3 and add to row 3
##      [,1]   [,2]   [,3]   [,4]  
## [1,]      1      0   5/14 113/14
## [2,]      0      1   -1/7   32/7
## [3,]      0      0  11/14  33/14
## 
## row: 3 
## 
##  multiply row 3 by 14/11
##      [,1]   [,2]   [,3]   [,4]  
## [1,]      1      0   5/14 113/14
## [2,]      0      1   -1/7   32/7
## [3,]      0      0      1      3
## 
##  multiply row 3 by 5/14 and subtract from row 1
##      [,1] [,2] [,3] [,4]
## [1,]    1    0    0    7
## [2,]    0    1 -1/7 32/7
## [3,]    0    0    1    3
## 
##  multiply row 3 by 1/7 and add to row 2
##      [,1] [,2] [,3] [,4]
## [1,] 1    0    0    7   
## [2,] 0    1    0    5   
## [3,] 0    0    1    3

Portanto, fazendeiro deve utilizar 7 hectares de área para o cultivo da soja, 7 hectares de área para o cultivo do milho e 3 hectares devem ficar em descanso.

3 Inversão e determinate de matrizes

O determinante é um número associado a uma matriz quadrada que indica se ela é invertível; a inversa de uma matriz só existe quando o determinante é diferente de zero. Em termos práticos, o determinante funciona como um teste de viabilidade para verificar se \(A\) possui uma inversa \(A^{-1}=B\). Assim, a inversão é o processo que visa encontrar uma matriz, tal que, multiplicada pela original, resulta na matriz identidade, \(A B = I_n\)

Definição 3.1 – Determinante. O determinante é um escalar associado a uma matriz quadrada.

Propriedades principais:

  • Se o determinante é zero, a matriz é singular (não possui inversa).

  • Se o determinante é não nulo, a matriz é invertível.

  • O determinante muda de sinal quando duas linhas (ou colunas) são trocadas.

  • Multiplicar uma linha por um número \(k\), equivale multiplicar o determinante por \(k\).

Em um sistema linear, o determinante depende apenas da matriz de coeficientes. Então, o determinante de \[ A = \left[ \begin{array}{cc} a_{11} & a_{12} \\ a_{21} & a_{22} \\ \end{array} \right] \] é obtido por \[ \det (A) = a_{11}.a_{22} - a_{12}.a_{21}. \]

Para o determinante de matrizes maiores, usa-se expansão de Laplace ou métodos de redução (como escalonamento).

3.1 Inversão e determinante

É possível encontrar a matriz inversa usando o conceito de terminante. Então, a inversa de \(A\) pode ser obtida por \[ A^{-1} = \frac{1}{det(A)} . adj(A) = \frac{1}{det(A)} . \left[ \begin{array}{cc} a_{22} & -a_{12} \\ -a_{21} & a_{11} \\ \end{array} \right] \]

3.2 Determinante de ordem 3

A regra de Sarrus é uma método fácil de calcular o determinante de matriz de ordem \(3 \times 3\). A regra consiste em repetir as duas primeiras colunas da matriz cujo determinante se deseja calcular.

\[ \left[ \begin{array}{ccccc} a_{11} & a_{12} & a_{13} & | & a_{11} & a_{12} \\ a_{21} & a_{22} & a_{23} & | & a_{21} & a_{22} \\ a_{31} & a_{31} & a_{33} & | & a_{31} & a_{31} \end{array} \right] \] O determinantes de \(A\) é

\[ det(A) = [a_{11}.a_{22}.a_{33} + a_{12}.a_{23}.a_{31} + a_{13}.a_{21}.a_{31}] - [a_{13}.a_{22}.a_{31} + a_{11}.a_{23}.a_{32} + a_{12}.a_{21}.a_{331}] \]

3.3 Determinante de ordem superior

Para definir o determinante de matrizes quadradas de ordem superior, precisamos definir o que são os menores de uma matriz quadrada. Dada uma matriz \(A\), o menor do elemento \(a_{ij}\), denotado por \(\tilde{A}_{ij}\), é a submatriz obtida a partir da eliminação linha \(i\) e coluna \(j\) de referência.

Considere uma matriz \(A=(a_{ij})\) tamanho \(5 \times 5\), tal que o elemento \(a_{ij}\) de referência corresponde a \(i=3\) e \(j=3\). \[ A = \left[ \begin{array}{cc|c|cc} a_{11} & a_{12} & a_{13} & a_{14} & a_{15} \\ a_{21} & a_{22} & a_{23} & a_{24} & a_{25} \\ \hline a_{31} & a_{32} & a_{33} & a_{34} & a_{35} \\ \hline a_{41} & a_{42} & a_{43} & a_{44} & a_{45} \\ a_{51} & a_{52} & a_{53} & a_{54} & a_{55} \end{array} \right] \]

Então, o menor corresponde a submatriz

\[ \tilde{A}_{33} = \left[ \begin{array}{cccc} a_{11} & a_{12} & a_{14} & a_{15} \\ a_{21} & a_{22} & a_{24} & a_{25} \\ a_{41} & a_{42} & a_{44} & a_{45} \\ a_{51} & a_{52} & a_{54} & a_{55} \end{array} \right] \] e o menor relativo corresponde ao determinante \(det(\tilde{A}_{33})\).

Definição 3.3.1 – Menor da matriz \(A\). Dada uma matriz \(A\), o menor do elemento \(a_{ij}\), denotado por \(\tilde{A}_{ij}\), é a submatriz obtida a partir da eliminação linha \(i\) e coluna \(j\) de referência.

Definição 3.3.2 – Menor relativo. O determinante de uma submatriz \(\tilde{A}_{ij}\), tamanho \(n - 1 \times n - 1\), é chamado menor relativo ao elemento \(a_{ij}\) da matriz \(A\), tamanho \(n \times n\).

Definição 3.3.3 – Cofator. Dado um menor relativo \(det(\tilde{A}_{ij})\), correspondente a um elemento \(a_{ij}\) de uma matriz \(A\), o cofator de \(a_{ij}\), é definido como: \[ \tilde{a}_{ij} = (-1)^{i+j} \cdot det(\tilde{A}_{ij}) \] Por meio da redução da ordem da matriz, os cofatores \(\tilde{a}_{ij}\) são importantes para o cálculo do determinante de uma matriz \(A\) de ordem superior \(n \times n\).

Definição 3.3.4 – Redução da ordem do determinante. Dada uma matriz \(A\), tamanho \(n \times n\), seu determinante é dado pela soma dos cofatores de determinada linha ou coluna multiplicados pelos respectivos elementos da matriz. Fixando a primeira linha, temos \[ det(A) = a_{11}.\tilde{a}_{11} + a_{12}.\tilde{a}_{12} + \cdots + a_{1n}.\tilde{a}_{1n} = \sum_{j=1}^n a_{1j}.\tilde{a}_{1j} \] Exemplo 3.3. Considere a matriz \(A\), tamanho \(5 \times 5\). Fixando a primeira linha e utilizando a denificação de cofatores, calcule o determinante da a matriz \(A\). \[ A = \left[ \begin{array}{rrrrr} 1 & 2 & 1 & 3 & 2 \\ -3 & -1 & -3 & -1 & 5 \\ 2 & 4 & 2 & 4 & -1 \\ 0 & 3 & 1 & 0 & 2 \\ 4 & 2 & 4 & 3 & 3 \end{array} \right] \]

library(matlib)

# Define a matriz A
A <- matrix(data = c(1,2,1,3,2,-3,-1,-3,-1,5,2,4,2,4,-1,0,3,1,0,2,4,2,4,3,3), byrow = TRUE, ncol = 5)
A
##      [,1] [,2] [,3] [,4] [,5]
## [1,]    1    2    1    3    2
## [2,]   -3   -1   -3   -1    5
## [3,]    2    4    2    4   -1
## [4,]    0    3    1    0    2
## [5,]    4    2    4    3    3
# Define um vetor de cofatores
vcof <- c(cofactor(A,1,1),cofactor(A,1,2),cofactor(A,1,3),cofactor(A,1,4),cofactor(A,1,5))
vcof
## [1] -294  -85  275   92  -10
# Determinante da matriz A
sum(A[1,]*vcof)
## [1] 67
# Validação
det(A)
## [1] 67