Alguns tópicos sobre matrizes de elementos reais

A álgebra linear surge da necessidade de resolver sistemas de equações algébricas lineares, sendo esta um dos pilares nos quais se apoia a matemática aplicada. Um dos propósitos da matemática aplicada é o desenvolvimento de métodos e algoritmos eficazes para a resolução de problemas nas mais variadas áreas, seja na ciência, na engenharia, na estatística, na economia e em muitas outras. Fazem parte da álgebra linear básica, as matrizes e os sistemas de equações lineares, constituindo estes, dois tópicos que todos os alunos devem conhecer (Olver & Shakiban, 2018).

No contexto das matrizes, usa-se, habitualmente, a notação $$\mathbf{A}= \left[ \begin{array}{rrrr} a_{11} & a_{12} & \ldots & a_{1n}\\ a_{21} & a_{22} & \ldots & a_{2n}\\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \ldots & a_{mn} \end{array} \right] $$ para representar uma matriz de dimensão $m\times n$ (lê-se "$m$ por $n$"): $m$ é o número de linhas e $n$ é o número de colunas ($m,n \in \mathbb{N}$). O elemento genérico $a_{ij} \in \mathbb{R}$ da matriz, está posicionado na linha $i$ ($i=1, \ldots, m$) e na coluna $j$ ($j=1, \ldots, n$).

Operações algébricas com matrizes

Multiplicação de um escalar real por uma matriz Dada uma matriz $\mathbf{A}=[a_{ij}]$, dimensão $m \times n$, e $k$ um escalar real, define-se $k\,\mathbf{A}=[k\,a_{ij}], \;\forall (i,j)$, de dimensão $m \times n$.

Adição de matrizes Dadas duas matrizes $\mathbf{A}=[a_{ij}]$ e $\mathbf{B}=[b_{ij}]$, ambas de dimensão $m \times n$, define-se $\mathbf{A}+\mathbf{B}=[a_{ij}+b_{ij}], \;\forall (i,j)$, de dimensão $m \times n$.

Multiplicação de matrizes Dadas duas matrizes $\mathbf{A}=[a_{ij}]$ de dimensão $m \times n$ e $\mathbf{B}=[b_{ij}]$ de dimensão $n \times p$, define-se a matriz $\mathbf{A}\mathbf{B}=\left[\sum_{k=1}^{n} a_{ik}\times b_{kj}\right],\;\forall (i,j)$ de dimensão $m \times p$.

Exemplo 1
Exemplo 2

Forma de escada (de linhas)

Definição Uma matriz está em forma de escada se, no sentido descendente da matriz, o número de elementos nulos que antecede o pivot (primeiro elemento não nulo de cada linha) de cada linha, aumenta, em pelo menos um, de linha para linha. Se a matriz tiver linhas nulas, estas posicionam-se abaixo das linhas não nulas (são as últimas da matriz).

Das seguintes matrizes, apenas as matrizes $\mathbf{A}$ e $\mathbf{C}$ estão em forma de escada.

$$\mathbf{A}= \left[ \begin{array}{rrr} 2 & 0 & 3 \\ 0 &-1 & -1\\ 0 & 0 & 0\\ \end{array} \right] \hspace{5mm} \mathbf{B}= \left[ \begin{array}{rr} 1 &-1 \\ 0 & 8 \\ 0 & -3 \end{array} \right] \hspace{5mm} \mathbf{C}= \left[ \begin{array}{rrr} 6 & 0 & 0 \\ 0 & 1 & 1 \end{array} \right] $$

Pivots: Matriz $\mathbf{A}$: $2, -1$; matriz $\mathbf{B}$: $1, 8, -3$; e matriz $\mathbf{C}$: $6, 1$.

COMO COLOCAR UMA MATRIZ EM FORMA DE ESCADA?

Através do método de Eliminação de Gauss. É um método sistemático que se baseia na ideia de ir anulando os elementos abaixo de cada pivot, usando um conjunto restrito de três tipos de operações, denominadas, geralmente, por operações elementares.

De notar que a forma de escada não é uma forma única; dependendo das operações elementares aplicadas, podem obter-se matrizes em forma de escada diferentes. Deste modo, a cada matriz estão associadas diferentes formas de escada, todavia, estas têm igual número de pivots, independentemente das operações aplicadas.

OPERAÇÕES ELEMENTARES

Sejam $\ell_i$ e $\ell_j$, com $i \neq j$, duas linhas de uma matriz e $k \neq 0$ constante.

  1. $\ell_i \leftrightarrow \ell_j$ (troca de duas linhas entre si)
  2. $\ell_i \leftarrow k \,\ell_i$ (multiplicação de uma linha por $k$)
  3. $\ell_i \leftarrow \ell_i + k \,\ell_j$ (adição de uma linha, a outra multiplicada por $k$)

Exemplos

Aplicar a uma matriz $\mathbf{A}$, de dimensão $m \times n$, uma operação elementar a uma linha, equivale a multiplicar $\mathbf{A}$ por uma matriz elementar (do mesmo tipo) de dimensão $m \times m$ à esquerda. Uma matriz elementar é qualquer matriz que se obtém da matriz identidade por aplicação de uma só operação elementar. Por exemplo, aplicando a operação $\ell_3-\ell_1$ (do tipo 3, em cima) à terceira linha da matriz $\mathbf{A}$ de dimensão $3 \times 2$, obtém-se $\mathbf{B}$ da mesma dimensão.

$$\mathbf{A}= \left[ \begin{array}{rr} 2 & 1 \\ 3 & 4 \\ 2 & 0 \end{array} \right] \begin{array}{c} \longrightarrow \\ \\ \ell_3-\ell_1 \end{array} \color{#578BBC}{\left[ \begin{array}{rr} 2 & 1 \\ 3 & 4 \\ 0 & -1 \end{array} \right]} = \mathbf{B}$$

A matriz elementar de dimensão $3 \times 3$ do mesmo tipo é

$$\mathbf{I_3}= \left[ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right] \begin{array}{c} \longrightarrow \\ \\ \ell_3-\ell_1 \end{array} \left[ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & 1 & 0 \\ -1 & 0 & 1 \end{array} \right]$$

Multiplicando esta matriz à esquerda de $\mathbf{A}$, obtém-se a matriz $\mathbf{B}$.

$$\left[ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & 1 & 0 \\ -1 & 0 & 1 \end{array} \right] \times \left[ \begin{array}{rr} 2 & 1 \\ 3 & 4 \\ 2 & 0 \end{array} \right] = \color{#578BBC}{\left[ \begin{array}{rr} 2 & 1 \\ 3 & 4 \\ 0 & -1 \end{array} \right] }= \mathbf{B}$$

Definição Duas matrizes $\mathbf{A}$ e $\mathbf{B}$ de dimensão $m \times n$ dizem-se equivalentes por linhas, se uma se obtém da outra por aplicação de um número finito de operações elementares às linhas. Escreve-se $\mathbf{A}$ $\sim$ $\mathbf{B}$.

A equivalência por linhas é uma relação de equivalência. De facto, é uma relação reflexiva, $\mathbf{A} \sim \mathbf{A}$, simétrica, $(\mathbf{A} \sim \mathbf{B}) \Rightarrow (\mathbf{B} \sim \mathbf{A})$, e transitiva, $(\mathbf{A} \sim \mathbf{B}) \wedge (\mathbf{B} \sim \mathbf{C}) \Rightarrow (\mathbf{A} \sim \mathbf{C})$.

Forma de escada reduzida (ou condensada)

Definição Uma matriz está em forma de escada reduzida, ou condensada, se, simultaneamente,

  • estiver na forma de escada (definição anterior)
  • todos os pivots são iguais a um; e estes são os únicos elementos não nulos das respetivas colunas.

As seguintes matrizes estão na forma de escada reduzida, ou condensada.

$$\mathbf{A}= \left[ \begin{array}{rrr} ① & 0 & 0 \\ 0 & ① & 7\\ 0 & 0 & 0\\ \end{array} \right] \hspace{5mm} \mathbf{B}= \left[ \begin{array}{rr} ① & 0 \\ 0 & ① \\ 0 & 0 \end{array} \right] \hspace{5mm} \mathbf{C}= \left[ \begin{array}{rrrr} ① & 0 & 3 & 2\\ 0 & ① & 5 & 0 \end{array} \right] $$

COMO DETERMINAR A FORMA CONDENSADA DE UMA MATRIZ?

Através do método de Gauss-Jordan. Este método baseia-se no método de Eliminação de Gauss, introduzindo mais uma fase, chamada ascendente, na qual se anulam os elementos acima de cada pivot. No final, basta dividir cada linha pelo respetivo pivot, para torná-los iguais a um.

Realça-se que a forma de escada reduzida, ou condensada, de uma matriz, é uma forma única, isto é, a cada matriz está associada uma única forma de escada reduzida, independentemente das operações elementares aplicadas ao longo do processo.

Exemplos

Caraterística de uma matriz

A característica é uma quantidade numérica associada a cada matriz de dimensão $m \times n$ ($m,n \in \mathbb{N}$). Indica o número máximo de linhas (ou colunas) linearmente independentes na matriz. Representa-se, habitualmente, por $r(\mathbf{A})$ ou $car(\mathbf{A})$, tendo-se,

$0 \leq r(\mathbf{A}) \leq min\{m, n\}$.

A matriz nula é a única matriz com carcterística nula.

A característica de uma matriz em forma de escada é igual ao número de linhas não nulas da matriz. Como a aplicação das operações elementares às linhas não altera a característica da matriz, o que significa que matrizes equivalentes têm igual característica, na prática, para determinar a característica de uma qualquer matriz, basta reduzi-la a uma forma de escada e observar o número de linhas não nulas (igual ao número de pivots). Por exemplo,

$$\mathbf{A}= \left[ \begin{array}{rrr} ① & 0 & 2\\ -1 & 1 & 0 \\ 3 & 1 & 8 \end{array} \right] \begin{array}{c} \longrightarrow \\ \ell_2+\ell_1 \\ \ell_3-3\ell_1 \end{array} \left[ \begin{array}{rrr} 1 & 0 & 2 \\ 0 & ①& 2 \\ 0 & 1 & 2 \end{array} \right] \begin{array}{c} \longrightarrow \\ \\ \ell_3-\ell_2 \end{array} \left[ \begin{array}{rrr} 1 & 0 & 2 \\ 0 & 1 & 2 \\ 0 & 0 & 0 \end{array} \right] $$

Esta última matriz é uma forma de escada da matriz $\mathbf{A}$ (por coincidência, obteve-se a forma condensada), logo equivalente a esta, e tem duas linhas não nulas, pelo que se conclui que $r(\mathbf{A})=2$. Significa isto que a matriz $\mathbf{A}$ tendo, no máximo, duas linhas linearmente independentes, as três linhas são linearmente dependentes. Pode verificar-se a dependência/independência linear das linhas (colunas) de uma matriz $\mathbf{A}$, comparando o número de linhas (colunas) com a característica: se $r(\mathbf{A})$ for inferior ao número de linhas (número de colunas), estas são linearmente dependentes; se $r(\mathbf{A})$ for igual ao número de linhas (colunas), estas são linearmente independentes.

Determinante de uma matriz quadrada

O determinante de uma matriz de ordem $n$, quadrada (em que o número de linhas é igual ao número de colunas), é um valor real associado a cada matriz e que apenas depende dos elementos dessa matriz.

O determinante pode ser calculado através de vários processos, uns mais eficientes do que outros, contudo, focar-se-ão aqui as próprias propriedades dos determinantes e o teorema de Laplace. Representa-se, usualmente, por $det(\mathbf{A})$ ou $|\mathbf{A}|$. Algumas propriedades são:

  1. Qualquer matriz quadrada que contenha uma linha, ou uma coluna, nula, tem determinante nulo; o mesmo sucedendo se existirem linhas, ou colunas, iguais ou proporcionais.
  2. O determinante de qualquer matriz triangular, inferior ou superior, ou diagonal, é igual ao produto dos seus elementos principais (elementos da diagonal principal).
  3. Se se multiplicar uma linha por uma constante $k \neq 0$, o determinante vem multiplicado por esse valor.
  4. Se se trocarem duas linhas (ou colunas) entre si, o determinante muda de sinal.
  5. Se se adicionar a uma linha, uma outra multiplicada por $k$, o determinante não se altera.

Se $n=1$, a matriz tem um só elemento, pelo que, $|\mathbf{A}|=|a_{11}|= a_{11}$.

Se $n=2$,

$|\mathbf{A}|=\left| \begin{array}{rr} a_{11} & a_{12} \\ a_{21} & a_{22} \end{array} \right| = a_{11} a_{22} - a_{21} a_{12}. $

Para $n \geq 3$, há vários métodos para calcular o determinante. Por exemplo, podem usar-se as propriedades para calcular o determinante de qualquer matriz quadrada, colocando a matriz na forma triangular (pelo método de Eliminação de Gauss) e calcular, de acordo com a propriedade 2, o produto dos elementos da diagonal principal. Porém, há que ter em conta as propriedades 3 e 4, que alteram o determinante. Como tal, nas etapas do cálculo do determinante, anulam-se esses efeitos. Se se multiplicar a linha que vai ser substituída por um dado valor $k \neq 0$, o efeito é anulado dividindo-se o determinante por $\frac{1}{k}$; se se efetuar uma troca de filas, o efeito é anulado multiplicando-se o determinante por -1. Este é, talvez, o método mais eficiente para calcular determinantes, principalmente, se a dimensão da matriz for elevada.

Exemplo

Uma outra forma de calcular determinantes é aplicando o teorema (ou expansão) de Laplace. Antes disso, é necessário enunciar a definição de complemento algébrico.

Definição Dada uma matriz $\mathbf{A}=[a_{ij}]$ de dimensão $n \times n$, com $i, j=1, \ldots, n$, define-se o complemento algébrico (ou cofator) do elemento $a_{ij}$ da matriz $\mathbf{A}$ como sendo o valor real $\hat{a}_{ij}$ tal que

$\hat{a}_{ij}= (-1)^{i+j}|\mathbf{A}_{ij}|, \,\forall (i,j)$.

Na igualdade anterior, $(-1)^{i+j}=\pm 1$, consoante $i+j$ é par ou ímpar; o sinal depende, assim, da posição do elemento na matriz. A matriz $\mathbf{A}_{ij}$ é a submatriz que se obtém de $\mathbf{A}$ por eliminação simultânea da linha $i$ e da coluna $j$ (submatriz complementar de $a_{ij}$). Ao determinante desta submatriz, $|\mathbf{A}_{ij}|$, chama-se Menor Complementar do elemento $a_{ij}$. Relativamente a $(-1)^{i+j}$, na prática ter-se-á o sinal positivo na posição (1,1) e os restantes alternados.

$$(-1)^{i+j} \rightarrow \left[ \begin{array}{rrrrr} + & - & + & \ldots\\ - & + & - & \ldots\\ + & - & + & \ldots \\ \vdots & \vdots & \ddots & \vdots \\ \ldots & \ldots & \ldots & + \end{array} \right]$$

A matriz dos complementos algébricos é, para todo o par $(i,j)$, dada por

$$\hat{\mathbf{A}}= \left\{ \begin{array}{ll} |\mathbf{A}_{ij}|, & \mbox{$i+j$ $\,$ é par}\\ -|\mathbf{A}_{ij}|, & \mbox{$i+j$ $\,$ é ímpar} \end{array} \right.$$

TEOREMA DE LAPLACE

O determinante de uma matriz $\mathbf{A}$, quadrada, de ordem $n$, ao longo de uma linha (ou coluna), é igual à soma dos produtos de cada um dos elementos dessa linha (ou coluna) pelo respetivo complemento algébrico.

Ao longo da linha $i$:

$\displaystyle |\mathbf{A}|= \sum_{j=1}^{n} a_{ij} \hat{a}_{ij}= \sum_{j=1}^{n} a_{ij} (-1)^{i+j}|\mathbf{A}_{ij}|, \qquad i=1, \ldots, n$.

Ao longo da coluna $j$:

$\displaystyle |\mathbf{A}|= \sum_{i=1}^{n} a_{ij} \hat{a}_{ij}= \sum_{i=1}^{n} a_{ij} (-1)^{i+j}|\mathbf{A}_{ij}|, \qquad j=1, \ldots, n$.

Aplicando o teorema de Laplace ao longo da linha $3$ da matriz $\mathbf{A}$ que segue, tem-se

$$|\mathbf{A}|= \left| \begin{array}{rrr} 3 & 2 & 0\\ 1 & 1 & -1 \\ \color{#578BBC}{2} & \color{#578BBC}{0} & \color{#578BBC}{2} \end{array} \right| =\color{#578BBC}{2} \times (-1)^{3+1}\left| \begin{array}{rr} 2 & 0 \\ 1 & -1 \\ \end{array} \right| +\;\color{#578BBC}{0}\; +\, \color{#578BBC}{2} \times (-1)^{3+3}\left| \begin{array}{rr} 3 & 2 \\ 1 & 1 \\ \end{array} \right|$$

Assim,

$$|\mathbf{A}|= \;2 \times (-2-0) +\, 2 \times (3-2) = -4+2=-2 $$

É importante referir que, embora seja indiferente a linha ou coluna escolhida para a aplicação do teorema de Laplace, pode ser aumentada a eficiência do processo, se for escolhida a linha ou coluna com maior número de elementos nulos, pois implicará um menor esforço de cálculo. Ainda assim, em matrizes de dimensão elevada, a aplicação do teorema de Laplace pode tornar-se exigente do ponto de vista de cálculo, especialmente se a matriz não for esparsa.

Exemplo

É usual, na prática, combinar a aplicação das propriedades dos derminantes com o teorema de Laplace. A ideia é aplicar algumas operações elementares para fazer surgir alguns zeros e, a seguir, aplicar o teorema de Laplace à linha, ou coluna, que ficou, naturalmente, com mais zeros.

Matriz adjunta

A matriz adjunta de uma matriz quadrada $\mathbf{A}$ de ordem $n$ ($n \in \mathbb{N}$), é a matriz que se obtém pela transposição da matriz dos complementos algébricos. A transposta de uma matriz obtém-se trocando as linhas pelas colunas (ou vice-versa).

$adj(\mathbf{A})=\hat{\mathbf{A}}^{\intercal}= [\hat{a}_{ij}]^{\intercal}, \, \forall (i,j)$

Exemplo

Inversa de uma matriz quadrada

Definição Uma matriz $\mathbf{A}$, quadrada, de ordem $n$, diz-se invertível, se existir uma matriz, habitualmente representada por $\mathbf{A}^{-1}$, da mesma ordem, tal que

$\mathbf{A} \mathbf{A}^{-1} = \mathbf{A}^{-1} \mathbf{A} = \mathbf{I}_n$

em que $\mathbf{I}_n$ representa a matriz identidade de ordem $n$.

Condições de existência: a matriz inversa de uma matriz $\mathbf{A}$, de ordem $n$, existe se, e só se, $|\mathbf{A}| \neq 0$, ou equivalentemente, $r(\mathbf{A})=n$ (a matriz $\mathbf{A}$ é equivalente por linhas à matriz identidade de ordem $n$). Se esta matriz existir, é única.

COMO CALCULAR A INVERSA?

O principal método para determinar a inversa de uma matriz quadrada $\mathbf{A}$, de ordem $n$, é o método de Gauss-Jordan, aplicado à matriz $\left[\mathbf{A}\,| \,\mathbf{I}_n \right]$, obtendo-se $\left[\mathbf{I}_n\,|\, \mathbf{A}^{-1} \right]$, sem trocar colunas. Por exemplo,

$$\mathbf{A}|\mathbf{I}= \hspace{-2mm}\left[ \begin{array}{rrr|rrr} ① & 1 & 0 & 1 & 0 & 0\\ -1 & 1 & 1 & 0 & 1 & 0\\ 2 & 1 & 1 & 0 & 0 & 1 \end{array} \right] \begin{array}{c} \longrightarrow \\ \ell_2+\ell_1 \\ \ell_3-2\ell_1 \end{array} \left[ \begin{array}{rrr|rrr} 1 & 1 & 0 & 1 & 0 & 0\\ 0 & ② & 1 & 1 & 1 & 0\\ 0 &-1 & 1 &-2 & 0 & 1 \end{array} \right] \hspace{-2mm} \begin{array}{c} \longrightarrow \\ \\ 2\ell_3+\ell_2 \end{array} $$ $$ \left[ \begin{array}{rrr|rrr} 1 & 1 & 0 & 1 & 0 & 0\\ 0 & 2 & 1 & 1 & 1 & 0\\ 0 & 0 & ③ &-3 & 1 & 2 \end{array} \right] \begin{array}{c} \longrightarrow \\ 3\ell_2-\ell_3 \\ \\ \end{array} \left[ \begin{array}{rrr|rrr} 1 & 1 & 0 & 1 & 0 & 0\\ 0 & ⑥ & 0 & 6 & 2 &-2\\ 0 & 0 & 3 &-3 & 1 & 2 \end{array} \right] \begin{array}{c} 6\ell_1-\ell_2 \\ \longrightarrow \\ \\ \end{array} $$ $$ \hspace{-2mm}\left[ \begin{array}{rrr|rrr} 6 & 0 & 0 & 0 &-2 & 2\\ 0 & 6 & 0 & 6 & 2 &-2\\ 0 & 0 & 3 &-3 & 1 & 2 \end{array} \right] \begin{array}{c} \frac{1}{6}\ell_1 \\ \frac{1}{6}\ell_2 \\ \frac{1}{3}\ell_3 \\ \end{array} \left[ \begin{array}{rrr|rrr} 1 & 0 & 0 & 0 & -\frac{1}{3} & \frac{1}{3}\\ 0 & 1 & 0 & 1 & \frac{1}{3} &-\frac{1}{3}\\ 0 & 0 & 1 &-1 & \frac{1}{3} & \frac{2}{3} \end{array} \right] \hspace{-2mm} = \mathbf{I}|\mathbf{A}^{-1} $$

A inversa da matriz $\mathbf{A}$ é dada por

$$ \mathbf{A}^{-1}= \left[ \begin{array}{rrr} 0 & -\frac{1}{3} & \frac{1}{3}\\ 1 & \frac{1}{3} &-\frac{1}{3}\\ -1 & \frac{1}{3} & \frac{2}{3} \end{array} \right] $$
Exemplo

Outro processo usado para determinar a matriz inversa é baseado no determinante da matriz e na respetiva matriz adjunta, tendo em conta que, para qualquer matriz quadrada $\mathbf{A}$ de ordem $n \geq 2$, se tem

$\mathbf{A} \times adj(\mathbf{A})= |\mathbf{A}|\times \mathbf{I}_n$

Se $|\mathbf{A}| \neq 0$, verifica-se

$\mathbf{A}^{-1} = \frac{1}{|\mathbf{A}|}\times adj(\mathbf{A})$

$\leftarrow$ anterior   seguinte $\rightarrow$