Este documento apresenta um resumo dos principais tópicos de Álgebra Linear e Geometria Analítica. Aborda conceitos como matrizes, sistemas de equações lineares, determinantes, espaços vectoriais, aplicações lineares e geometria do espaço euclidiano. O objetivo é servir como guia para estudantes destas áreas.
2. Prontu´ario de
´Algebra Linear e Geometria Anal´ıtica
Segunda vers˜ao
Rui Albuquerque
rpa@uevora.pt
Departamento de Matem´atica da Universidade de ´Evora
Rua Rom˜ao Ramalho, 59, 7000-671 ´Evora, Portugal
Introdu¸c˜ao
Estes apontamentos serviram de guia `a disciplina ´Algebra Linear e Geometria
Anal´ıtica das licenciaturas em ´areas da Engenharia e da F´ısica da Universidade de
´Evora do ano lectivo 2008/09. A mat´eria segue a das aulas te´oricas, complementada
com exemplos e problemas novos.
Percorrem-se diversos temas da ´algebra ligados `a geometria dos espa¸cos vec-
toriais e das aplica¸c˜oes lineares, estruturas fundamentais da F´ısica-Matem´atica-
Engenharia.
3. 2
Desejamos cumprir objectivos pr´aticos e concretos de transmiss˜ao do conheci-
mento. Todavia, queremos que estas notas contrariem, ou mesmo n˜ao permitam, a
redu¸c˜ao da mat´eria “a um punhado de receitas” e a desvaloriza¸c˜ao do saber te´orico.
E por duas raz˜oes: nem o conhecimento pr´atico ser´a sempre ´util, nem “o saber
te´orico ocupa assim tanto lugar”, parafraseando o c´elebre ad´agio popular.
O conhecimento te´orico dever´a ser ali´as o esteio de toda a forma¸c˜ao cient´ıfico-
t´ecnica de base.
Vemos a necessidade, como em qualquer outra disciplina nuclear da Matem´atica,
de demonstrar os teoremas e proposi¸c˜oes que vamos escrevendo. Estas demon-
stra¸c˜oes apoiam-se em defini¸c˜oes e, naturalmente, em teoremas e proposi¸c˜oes anteri-
ores. Assumimos de conhecimento do leitor outras teorias ou delas uma ligeir´ıssima
parte, como a dos conjuntos, da l´ogica, da geometria euclidiana ou dos n´umeros
naturais.
Explicada a extens˜ao aparente do conte´udo, deve o leitor acompanhar-se de uma
folha de papel e l´apis para resolver algumas afirma¸c˜oes n˜ao provadas — aquelas
que s˜ao apenas auxiliares de objectivos maiores ou que julgamos ser˜ao exerc´ıcios
interessantes.
Vejamos um resumo dos cap´ıtulos.
Come¸camos com a ´algebra abstracta, que tem algumas defini¸c˜oes essenciais para
a parte linear da mat´eria. S˜ao particularmente importantes a no¸c˜ao de fun¸c˜ao e
a no¸c˜ao de grupo, que desde cedo devem ser assimiladas. Outras defini¸c˜oes neste
primeiro cap´ıtulo servem apenas para ilustrar problemas com que os matem´aticos se
debatem, esperando que este contacto traga mais luz que permita ao leitor superar
alguns dos purismos que a teoria exige.
Segue-se o estudo das matrizes e dos sistemas de equa¸c˜oes lineares, onde reina o
espa¸co vectorial Rn
posto que nos limitamos a coeficientes reais. Para os sistemas,
invocamos princ´ıpios cl´assicos de equivalˆencia ou indepedˆencia de equa¸c˜oes. Para
levar `a compreens˜ao da no¸c˜ao de caracter´ıstica de uma matriz e `a de indepedˆencia
linear de um sistema de vectores.
Neste contexto segue o cap´ıtulo dos determinantes para matrizes quadradas de
coeficientes em R. Apoia-se em elementos da teoria dos grupos de permuta¸c˜oes.
Depois vemos as propriedades multilineares da fun¸c˜ao determinante, a linguagem
que permitir´a o aluno interessado prosseguir em Geometria-F´ısica modernas.
O cerne da ´Algebra Linear encontra-se no cap´ıtulo quatro, com a introdu¸c˜ao e
manuseio dos conceitos de espa¸co vectorial e aplica¸c˜ao linear.
Mesmo em dimens˜ao finita, em que escolhida uma base poderemos fazer a iden-
tifica¸c˜ao de um dado espa¸co vectorial com Rn
, os conceitos abstractos s˜ao os mais
valiosos. S˜ao as bases e a dimens˜ao do espa¸co, a partir da no¸c˜ao fundamental de
sistema de vectores linearmente indepedente, s˜ao os exemplos em dimens˜ao infinita,
´e o retorno `as matrizes com o importante conceito de representa¸c˜ao e s˜ao, final-
4. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 3
mente, as transforma¸c˜oes lineares entre espa¸cos vectoriais e a procura de vectores
pr´oprios, como direc¸c˜oes singulares que s˜ao, de um endomorfismo linear.
No cap´ıtulo cinco mostramos aplica¸c˜oes na geometria do espa¸co euclidiano Rn
,
com o seu produto interno can´onico: o mais elementar produto interno decorre da
generaliza¸c˜ao do teorema de Pit´agoras. ´E de notar que nesse modelo se verifica o
axioma das paralelas para hiperplanos afins. Temos por isso tamb´em uma geometria
euclidiana no sentido axiom´atico.
Apresentamos uma classifica¸c˜ao dos s´olidos plat´onicos, exemplo da geometria
anal´ıtica e combinat´oria n˜ao usual no contexto de cursos como este. Por muitos
considerada uma autˆentica maravilha da matem´atica, aqueles s´olidos poli´edricos,
infelizmente, ainda s˜ao pouco conhecidos dos estudantes. A nossa necessidade de
referir os poliedros vem de uma sec¸c˜ao final, em que se define volume como “´area
da base vezes altura’, a qual tem m´ultiplas aplica¸c˜oes e literalmente nos permite
fechar o c´ırculo, retornando `as matrizes e aos determinantes de cap´ıtulos iniciais.
Na elabora¸c˜ao deste prontu´ario fizemos uso dos manuais dos nossos mestres,
[Agu83], [Mac90] e [Mon89], e de outras gratas referˆencias para n´os como a de
[Aud03].
Tamb´em benefici´amos da consulta `a enciclop´edia [Wik] e assim poder´a e dever´a
acontecer, acautele-se a falta de demonstra¸c˜oes, com o leitor ´avido de mais con-
hecimento.
7. Cap´ıtulo 1
1.1 T´opicos elementares da Teoria dos Conjuntos
1.1.1 Primeiras no¸c˜oes
Ami´ude necessitamos de referir aquilo que se conhece como conjuntos e descrever
as suas rela¸c˜oes, que se entendem como rela¸c˜oes que os elementos desses conjuntos,
e de outros, satisfazem entre si.
Os conjuntos designam-se por letras: A, B, C, .... Se escrevemos x ∈ A, quere-
mos dizer que x pertence a A ou, o que ´e o mesmo, x ´e elemento de A.
Novas rela¸c˜oes/nota¸c˜oes: chamamos intersec¸c˜ao e reuni˜ao, respectivamente,
aos conjuntos
A ∩ B = {x : x ∈ A e x ∈ B}, A ∪ B = {x : x ∈ A ou x ∈ B}. (1.1)
Ao dizermos A ´e subconjunto de B, em s´ımbolos, A ⊂ B, significamos que ∀x ∈
A, x ∈ B.
O conjunto B A ´e o conjunto {x : x ∈ B e x /∈ A}. Sabendo, de antem˜ao,
o “universo” a que todos os elementos pertencem, podemos escrever e designar por
complementar de B o conjunto Bc
= {x : x /∈ B}.
Poder-se-´a pensar tamb´em no conjunto vazio ∅ como o complementar do “uni-
verso”. ´E o conjunto sem elementos.
Da l´ogica bivalente (l´ogica natural constru´ıda ao longo da evolu¸c˜ao humana de
milh˜oes de anos), resultam as seguintes leis de Morgan:
Ac
∩ Bc
= (A ∪ B)c
Ac
∪ Bc
= (A ∩ B)c
. (1.2)
Claro que (Ac
)c
= A, donde a segunda lei tamb´em resulta da primeira.
Outras constru¸c˜oes importantes de conjuntos s˜ao, por exemplo, o produto
cartesiano de A e B:
A × B = {(a, b) : a ∈ A, b ∈ B}. (1.3)
Os novos elementos “(a, b)” chamam-se pares ordenados.
8. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 7
Note-se que nem todos os subconjuntos de A × B podem ser escritos, de novo,
como produtos cartesianos de subconjuntos de A e B. Por exemplo, tal ´e o caso da
diagonal de um conjunto A, ou seja, ∆(A) = {(a, a) ∈ A × A : a ∈ A}, a qual ´e
distinta de A × A se A tem mais do que um elemento.
Claro que (A ∪ B) × C = A × C ∪ B × C. E analogamente para ∩ no lugar de
∪.
1.1.2 Rela¸c˜oes de equivalˆencia
Algum tipo de rela¸c˜oes entre elementos de um ou v´arios conjuntos ´e particular-
mente ´util na conceptualiza¸c˜ao de novas propriedades e distin¸c˜oes. Por exemplo,
a rela¸c˜ao de ordem total em R est´a intr´ınsecamente ligada aos fundamentos da
An´alise Matem´atica.
Tratamos, neste momento, das rela¸c˜oes de equivalˆencia, as quais decomp˜oem
um dado conjunto X em classes de equivalˆencia. Lembremos que uma rela¸c˜ao
consiste numa determinada escolha de pares ordenados. Dizemos que uma rela¸c˜ao
∼ em X ´e uma rela¸c˜ao de equivalˆencia se:
∀x ∈ X, x ∼ x (reflexividade),
∀x ∈ X, x ∼ y ⇒ y ∼ x (simetria),
∀x, y, z ∈ X, x ∼ y & y ∼ z ⇒ x ∼ z (transitividade).
(1.4)
Claro que as tais classes de equivalˆencia s˜ao dadas por um representante: Cx =
{y : y ∈ X e x ∼ y}. Note-se que o papel de x ´e mesmo e apenas o de representante
da sua classe. ´E f´acil ver que:
Cx ∩ Cx1 = ∅ ⇔ x ∼ x1. (1.5)
Com efeito, se ∃y : x ∼ y e x1 ∼ y, ent˜ao pela simetria e transitividade vem x ∼ x1.
E rec´ıprocamente.
Assim, neste tipo de rela¸c˜oes, as classes ou n˜ao se tocam, ou s˜ao as mesmas.
Mais ainda, qualquer decomposi¸c˜ao de um dado conjunto Z como uni˜ao de
subconjuntos n˜ao vazios e disjuntos dois-a-dois,
Z =
α
Zα, tal que Zα ∩ Zα = ∅, ∀α = α , (1.6)
d´a origem a uma ´unica rela¸c˜ao de equivalˆencia em Z, a saber:
x ∼ y ⇐⇒ ∃α : x, y ∈ Zα. (1.7)
O conjunto dos α’s, isto ´e, formado como o conjunto das classes de equivalˆencia,
denota-se por Z/ ∼.
9. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 8
1.1.3 Fun¸c˜oes
Conceito fundamental em matem´atica ´e o de fun¸c˜ao, um ‘dispositivo’ que estabelece
uma correspondˆencia entre um dado conjunto X, chamado de partida, e outro
conjunto Y , dito de chegada. Tamb´em se chama a uma fun¸c˜ao uma aplica¸c˜ao.
Denota-se por
f : X −→ Y, x ∈ X −→ y = f(x) ∈ Y. (1.8)
Uma tal correspondˆencia s´o ´e uma fun¸c˜ao quando a cada x ∈ X, um objecto, se
atribui um, e um s´o, valor ou imagem y = f(x) ∈ Y .
A fun¸c˜ao diz-se injectiva se, para x’s distintos em X, f atribui valores f(x)’s
tamb´em distintos. Formalmente,
∀x1, x2 ∈ X, x1 = x2 =⇒ f(x1) = f(x2). (1.9)
Logicamente, esta afirma¸c˜ao ´e equivalente a
∀x1, x2 ∈ X, f(x1) = f(x2) =⇒ x1 = x2. (1.10)
A fun¸c˜ao ´e sobrejectiva se todo o y ´e imagem de algum x por meio de f:
∀y ∈ Y, ∃x ∈ X : y = f(x). (1.11)
A fun¸c˜ao ´e bijectiva se for injectiva e sobrejectiva. Neste caso pode-se definir
uma fun¸c˜ao chamada de inversa, a saber, a fun¸c˜ao f−1
: Y −→ X dada por
∀y ∈ Y, o valor de f−1
(y) ´e o ´unico x : f(x) = y. (1.12)
Necessitamos, com frequˆencia, de outras formas de obter novas fun¸c˜oes.
Podemos compˆor duas fun¸c˜oes dadas f : X → Y e g : Z → W, por certa ordem,
desde que, por exemplo, Y, Z tenham pontos em comum. Obtemos, com efeito, a
fun¸c˜ao composta g ◦ f : X → W definida por (g ◦ f)(x) = g(f(x)) e onde X ´e o
dom´ınio onde faz sentido essa mesma express˜ao, isto ´e,
X = {x ∈ X : f(x) ∈ Z}. (1.13)
Dado um conjunto X chamamos fun¸c˜ao identidade a 1X : X → X, 1X(x) = x.
Uma fun¸c˜ao f : X → Y tem uma inversa `a esquerda, isto ´e, ∃g : Y → X tal
que g ◦ f = 1X se, e s´o se1
, f for injectiva.
Uma fun¸c˜ao f : X → Y tem uma inversa `a direita, isto ´e, ∃h : Y → X tal
que f ◦ h = 1Y sse f for sobrejectiva.
As duas afirma¸c˜oes anteriores s˜ao exerc´ıcios para o leitor. Delas se conclui, no
caso em que f ´e bijectiva, h = g = f−1
.
1
Daqui em diante, como abreviatura de “se, e s´o se,” tomamos “sse”. Significa o mesmo que
“equivalente”.
10. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 9
Uma rela¸c˜ao bem estabelecida entre um par de conjuntos2
´e a seguinte, denotada
:
A B sse existe fun¸c˜ao bijectiva entre A e B. (1.14)
Trata-se de uma rela¸c˜ao de equivalˆencia, como ´e f´acil provar.
Outras ‘identifica¸c˜oes’ se podem naturalmente estabelecer. Por exemplo, para
trˆes conjuntos dados, tem-se A × (B × C) = (A × B) × C.
1.2 T´opicos de Estruturas Alg´ebricas
1.2.1 Grupos
A no¸c˜ao alg´ebrica simultˆaneamente mais elementar e necess´aria ´e a de grupo.
Um conjunto G munido de uma opera¸c˜ao bin´aria
G × G → G, (a, b) → ab, (1.15)
que satisfaz
- associatividade : ∀a, b, c ∈ G, (ab)c = a(bc),
- existe elemento neutro : ∃e ∈ G : ∀a ∈ G, ae = ea = a,
- todos os elementos tˆem inverso : ∀a ∈ G, ∃b ∈ G : ab = ba = e,
(1.16)
chama-se um grupo.
Prova-se facilmente que o elemento neutro ´e ´unico e que o inverso de cada
elemento tamb´em ´e ´unico. O truque est´a, em ambos os casos, em come¸car por
supˆor que existem dois elementos e acabar por chegar a um absurdo.
Us´amos acima a nota¸c˜ao multiplicativa. Por vezes usa-se a aditivia. Na primeira
nota¸c˜ao, o elemento neutro designa-se por e ou por 1. Na segunda, por 0. Na
primeira nota¸c˜ao, o inverso de a denota-se por a−1
, e na segunda denota-se por −a
e chama-se oposto ou sim´etrico de a.
Exemplos:
1. (R, +) ´e um grupo com a opera¸c˜ao de adi¸c˜ao + usual.
2. (R {0}, ·) ´e um grupo com a opera¸c˜ao de multiplica¸c˜ao usual.
3. Seja dado um conjunto X e seja
G := A(X) = {f : X → X| f ´e bijectiva} (1.17)
o conjunto das fun¸c˜oes bijectivas de X para X. Ent˜ao G ´e um grupo se
tomarmos como opera¸c˜ao a composi¸c˜ao de fun¸c˜oes. Com efeito, se f, g ∈ G,
2
Evitemos desde j´a o paradoxo que consiste em tomar “o conjunto de todos os conjuntos”.
11. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 10
ent˜ao f◦g tamb´em est´a em G porque tamb´em ´e uma fun¸c˜ao bijectiva. Vejamos
a associatividade: duas fun¸c˜oes com o mesmo espa¸co de partida e de chegada
s˜ao iguais se, a cada objecto, fazem corresponder a mesma imagem. Ent˜ao,
por defini¸c˜ao, tomando um terceiro elemento h ∈ G e qualquer x ∈ X,
(g ◦ f) ◦ h (x) = (g ◦ f)(h(x)) = g(f(h(x))) = g ◦ (f ◦ h) (x).
Donde (g◦f)◦h = g◦(f ◦h), como quer´ıamos. Agora, o elemento neutro de G
´e naturalmente a fun¸c˜ao identidade 1X. E o inverso de f coincide exactamente
com a fun¸c˜ao inversa, como se esperava.
Nos grupos dos exemplos 1 e 2 acima, as opera¸c˜oes, bem conhecidas, s˜ao comu-
tativas.
Um grupo G qualquer diz-se comutativo ou abeliano se
ab = ba, ∀a, b ∈ G. (1.18)
O exemplo 3 de h´a pouco n˜ao ´e comutativo em geral. Repare-se no grupo de
permuta¸c˜oes de n ∈ N elementos, ou grupo sim´etrico Sn, o qual consiste no
grupo A(X) com X = {1, 2, 3, . . . , n}. ´E simples concluir que A(X) = Sn tem n!
elementos.
Se n ≥ 3, ent˜ao aquele grupo n˜ao ´e comutativo. Basta pensar nas seguintes
fun¸c˜oes (em cima est˜ao os objectos, em baixo as respectivas imagens):
f =
1 2 3
1 3 2
, g =
1 2 3
2 1 3
, (1.19)
admitindo ainda que f, g fixam todos os i ≥ 4. Resulta ent˜ao
f ◦ g =
1 2 3
3 1 2
, g ◦ f =
1 2 3
2 3 1
(1.20)
onde se rende expl´ıcita a falta de comutatividade.
H´a muitos mais grupos n˜ao comutativos que comutativos.
H´a exemplos, como o de grupo de permuta¸c˜oes, que explicam muito. Veja-se o
seguinte teorema c´elebre.
Teorema 1 (Cayley). Todo o grupo G ´e subgrupo de um grupo de permuta¸c˜oes.
A no¸c˜ao de subgrupo ´e a de um subconjunto que herda a estrutura do grupo
em que est´a contido. Portanto, um subconjunto fechado para a opera¸c˜ao do grupo
e para a passagem ao inverso.
Vejamos a demonstra¸c˜ao do teorema de Cayley.
12. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 11
Demonstra¸c˜ao. Com efeito, a cada g ∈ G associamos a seguinte permuta¸c˜ao Lg do
pr´oprio grupo G: Lg : G → G, Lg(h) = gh. Vem ent˜ao que
Lg1g2 (h) = g1g2h = Lg1 (Lg2 (h)) = Lg1 ◦ Lg2 (h), ∀g1, g2, h ∈ G (1.21)
pelo que a estrutura da imagem de L como subgrupo de A(G),
L : G −→ A(G), g → Lg, (1.22)
´e a mesma estrutura de G, pois que L ´e injectiva como se poder´a verificar.
Note-se que a aplica¸c˜ao L est´a subjacente no enunciado do teorema de Cayley.
Raramente, claro, a aplica¸c˜ao L ´e sobrejectiva.
1.2.2 An´eis e Corpos
A no¸c˜ao que se segue ´e muito rica, ainda que dispens´avel num curso de ´Algebra
Linear.
Seja A um conjunto munido de duas opera¸c˜oes, + e ‘vezes’ ·, tais que
- (A, +) ´e grupo comutativo
- a opera¸c˜ao · ´e associativa
- d˜ao-se as propriedades distribuitivas:
a(b + c) = ab + ac, (a + b)c = ac + bc, ∀a, b, c ∈ A.
(1.23)
Dizemos ent˜ao que A ´e um anel. Se · ´e comutativa, o anel A diz-se comutativo
ou abeliano. Se existe elemento neutro 1 da multiplica¸c˜ao, o anel diz-se unit´ario.
(Z, +, ·) ´e o exemplo prim´ario. N˜ao menos o s˜ao o anel dos n´umeros pares,
2Z, ou os m´ultiplos de 3, ou 4, etc... Os an´eis kZ = {kn : n ∈ Z} s˜ao todos
comutativos, mas s´o Z ´e unit´ario.
Outro exemplo menos trivial ´e o anel de fun¸c˜oes RX
, onde X ´e um espa¸co fixado
de in´ıcio.
RX
= {f : X → R} (1.24)
tem soma e produto de fun¸c˜oes bem definidos: ∀f1, f2 ∈ RX
, f1 +f2 e f1f2 definem-
se obviamente por
(f1 + f2)(x) = f1(x) + f2(x), (f1f2)(x) = f1(x)f2(x). (1.25)
RX
´e um anel e provar´a a sua utilidade mais `a frente.
Nos an´eis unit´arios p˜oe-se a quest˜ao de saber quais s˜ao os elementos invert´ıveis
para a multiplica¸c˜ao. Mais ainda, um tal anel A cont´em um grupo U ⊂ A consti-
tu´ıdo pelos elementos invert´ıveis. Por exemplo, o anel Z tem U = {−1, 1}. J´a o
anel Q tem U = Q {0}.
13. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 12
´E claro que 0 nunca ser´a invert´ıvel: prova-se que 0 · a = 0, ∀a ∈ A.
Um anel K comutativo, unit´ario e com U = K {0} chama-se um corpo.
S˜ao exemplos de corpos: Q, R, C.
Nos corpos vale a lei do anulamento do produto:
ab = 0 =⇒ a = 0 ou b = 0. (1.26)
Tamb´em s´o nos corpos podemos invocar em geral a lei do corte:
ax = b ⇐⇒ x = a−1
b. (1.27)
Estas leis demonstram-se com grande facilidade. Veremos em seguida que h´a corpos
finitos.
Um famoso teorema de Euclides garante que, se tivermos dois n´umeros inteiros
m, n, ent˜ao existem dois n´umeros inteiros ´unicos q e r (chamados quociente e
resto) tais que
0 ≤ r ≤ n − 1 e m = qn + r. (1.28)
Dizemos que r ´e o resto de m mod n. Se somarmos ou multiplicarmos dois m1, m2 ∈
Z, temos
m1 + m2 = (q1n + r1) + (q2n + r2) = (q1 + q2)n + (r1 + r2),
m1m2 = (q1q2n + r1q2 + q2r1)n + r1r2
(1.29)
Ent˜ao vemos que o resto da soma e do produto mod n ´e o mesmo que o resto mod n
da soma e do produto dos restos, respectivamente.
´E trivial verificar agora que as opera¸c˜oes de + e ‘vezes’ habituais, mas “com
n’s fora”, verificam todas as propriedades de anel, pois elas provˆem das respectivas
propriedades do anel dos inteiros. Assim, prova-se o
Teorema 2. O conjunto dos restos Zn = {0, 1, . . . , n − 1} ´e um anel com a soma
e o produto acima.
D´a-se a Zn o nome de anel dos restos mod n.
Por exemplo, o anel Z5 tem as seguintes tabelas de opera¸c˜oes:
+ 0 1 2 3 4
0 0 1 2 3 4
1 1 2 3 4 0
2 2 3 4 0 1
3 3 4 0 1 2
4 4 0 1 2 3
· 0 1 2 3 4
0 0 0 0 0 0
1 0 1 2 3 4
2 0 2 4 1 3
3 0 3 1 4 2
4 0 4 3 2 1
(1.30)
Curiosamente, vˆe-se que x2
= 3 n˜ao tem solu¸c˜oes mod 5, ou seja em Z5. H´a ent˜ao
lugar para um estudo de novo tipo de equa¸c˜oes alg´ebricas.
Um resultado importante nesta teoria finaliza o nosso cap´ıtulo.
14. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 13
Teorema 3. Zn ´e corpo sse n ´e n´umero primo.
Demonstra¸c˜ao. Suponhamos que Zn ´e corpo e que ab = n, com 1 < a, b < n. Mas
isto ´e o mesmo que ab = 0 mod n e ent˜ao, valendo a lei do corte, resulta a = 0 ou
b = 0, o que ´e absurdo. Assim, n n˜ao tem divisores pr´oprios, ie. ´e primo.
Suponhamos rec´ıprocamente que n ´e primo. Ent˜ao para cada a ∈ Z0 h´a sempre
solu¸c˜oes inteiras x, y de ax + ny = 1 (tal decorre recursivamente do algoritmo
de Euclides, o poder escrever-se assim o mdc de dois quaisquer inteiros a e n).
Obviamente, em Zn temos ax + ny = ax = 1 mod n, pelo que todos os elementos
a ∈ Zn 0 tˆem inverso. E est˜ao verificadas as condi¸c˜oes para termos um corpo.
15. Cap´ıtulo 2
2.1 Matrizes
2.1.1 Primeiras defini¸c˜oes
Damos o nome de matriz a uma tabela A = [aij]i=1,...,p
j=1,...,q
com entradas ou coefi-
cientes1
aij ∈ R.
O ´ındice p ´e o n´umero de linhas e q o de colunas. Denotamos
A =
a11 a12 · · · a1q
a21 a22 a2q
...
...
...
ap1 ap2 · · · apq
. (2.1)
p e q s˜ao as dimens˜oes da matriz A. Faz jeito chamar
Mp,q = {A : A ´e uma matriz de p linhas e q colunas}. (2.2)
O interesse das matrizes est´a, como veremos mais tarde, na representa¸c˜ao das
aplica¸c˜oes lineares que elas possibilitam.
A estrutura de grupo de (R, +) passa autom´aticamente para Mpq. Dadas quais-
quer matrizes A, B ∈ Mpq, sendo A = [aij] e B = [bij], i = 1, . . . , p, j = 1, . . . , q,
temos por defini¸c˜ao
A + B = [aij + bij], (2.3)
permanecendo em Mpq.
Se λ ∈ R, ent˜ao denotamos por λA a matriz [λaij], com as mesmas dimens˜oes.
Em seguida definimos a multiplica¸c˜ao de duas matrizes. Tamb´em aqui h´a
uma condi¸c˜ao nos ´ındices. Esta opera¸c˜ao tem uma ordem. Logo pomos uma matriz
`a esquerda e outra `a direita, como um par ordenado, e a condi¸c˜ao ´e que, para as
multiplicarmos, a da esquerda deve ter n´umero de colunas igual ao n´umero de linhas
da da direita.
1
Poder´ıamos deixar estes aij pertencerem a um corpo K ou mesmo um anel qualquer pr´evia-
mente fixado, mas aqui prosseguimos apenas com matrizes reais.
16. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 15
Assim
Mpq × Mql −→ Mpl
(A, B) −→ AB.
(2.4)
Atente-se bem no espa¸co de chegada, aquele onde aparece o resultado. O produto
M = AB define-se ent˜ao como segue: pondo M = [ξij]i=1,...,p
j=1,...,l
, temos
ξij = ai1b1j + · · · + aiqbqj =
q
k=1
aikbkj. (2.5)
Prova-se facilmente que esta multiplica¸c˜ao ´e associativa: se A, B s˜ao como acima
e C ∈ Mlr, ent˜ao estamos habilitados a fazer tanto (AB)C como A(BC). Com
alguma surpresa, tem-se ent˜ao
(AB)C = A(BC). (2.6)
Com efeito, sendo M = AB = [ξst]s=1,...,p
t=1,...,l
e BC = [ηuv]u=1,...,l
v=1,...,r
, o elemento gen´erico
de ´ındice (s, v) do produto do lado esquerdo de (2.6) ´e igual a
l
t=1
ξstctv =
l
t=1
q
k=1
(askbkt)ctv =
q
k=1
l
t=1
ask(bktctv) =
q
k=1
askηkv. (2.7)
Us´amos a associatividade e distributividade dos n´umeros reais para reagrupar as
parcelas. O resultado a que se chegou representa o elemento gen´erico de ´ındice
(s, v) do produto do lado direito de (2.6), ou seja A(BC).
Outra propriedade v´alida ´e a distributividade `a esquerda e `a direita: se A, B ∈
Mpq e C, D ∈ Mql, ent˜ao
A(C + D) = AC + AD
(A + B)C = AC + BC.
(2.8)
Note que as igualdades fazem sentido no cˆomputo das dimens˜oes das matrizes. A
demonstra¸c˜ao daquelas igualdades ´e trivial.
Exemplos:
2 3 1
−2 0 1
4 5 3
1 2 5
2 4 0
=
13 20 21
−6 −6 −6
, (2.9)
2 3 4
−2
3
1
= 9,
−2
3
1
2 3 4 =
−4 −6 −8
6 9 12
2 3 4
. (2.10)
17. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 16
Como se vˆe, as matrizes n˜ao permutam no produto. Dizemos que duas matrizes
dadas A e B permutam ou comutam se AB = BA. Isso n˜ao acontece em geral,
mesmo se forem quadradas.
´E importante notar que Mpp, chamado o espa¸co das matrizes quadradas, ´e
uma anel com a soma e produto introduzidos, pois tal espa¸co ´e fechado para o
produto. O ´ındice de linhas p igual ao ´ındice de colunas tamb´em se diz a ordem
de cada matriz quadrada.
Repare-se agora que, para qualquer matriz A ∈ Mpq,
1 0 · · · 0
0 1 0
... 0
0 0 · · · 1
a11 · · · a1q
...
ap1 · · · apq
=
a11 · · · a1q
...
ap1 · · · apq
, (2.11)
a11 · · · a1q
...
ap1 · · · apq
1 0 · · · 0
0 1 0
... 0
0 0 · · · 1
=
a11 · · · a1q
...
ap1 · · · apq
. (2.12)
Uma matriz quadrada D = [dij] de ordem p diz-se diagonal se dij = 0, ∀i = j.
Chamamos matriz identidade, e denotamo-la por 1p, `a matriz diagonal que tem
dii = 1, ∀i = 1, . . . , p.
As f´ormulas (2.11,2.12) reescrevem-se portanto como
1pA = A e A1q = A. (2.13)
No caso das matrizes quadradas temos, em particular, um elemento neutro da
multiplica¸c˜ao. Destaca-se assim o
Teorema 4. O espa¸co das matrizes quadradas Mpp ´e um anel unit´ario.
Neste espa¸co nem sequer se d´a a lei do anulamento do produto. Veja-se o caso:
0 1
0 0
1 0
0 0
=
0 0
0 0
. (2.14)
2.1.2 Matrizes especiais
´E claro que o espa¸co das matrizes Mm,n, como tabelas de n´umeros reais, se identifica
com Rmn
. O leitor poder´a identificar neste grande espa¸co mais do que um simples
produto cartesiano. H´a uma estrutura de espa¸co vectorial — o que ser´a trivial de
verificar quando explicarmos do que tal se trata.
Uma matriz A ∈ Mmn diz-se invert´ıvel `a esquerda se existe B ∈ Mnm tal
que BA = 1n.
18. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 17
Uma matriz A ∈ Mmn diz-se invert´ıvel `a direita se existe C ∈ Mnm tal que
AC = 1m.
Uma matriz diz-se invert´ıvel se o fˆor `a esquerda e `a direita. Neste caso prova-se
facilmente que B = C e que a matriz A tem de ser quadrada2
, n = m. A matriz
´unica B = C denota-se por A−1
:
AA−1
= A−1
A = 1n. (2.15)
Com efeito, o inverso, quando existe, ´e ´unico. Aqui poder´ıamos falar do grupo das
matrizes invert´ıveis.
Em particular tem-se a regra de invers˜ao do produto:
A, B ∈ Mnn invert´ıveis =⇒ (AB)−1
= B−1
A−1
. (2.16)
Outro tipo de matrizes especiais s˜ao as triangulares superiores:
T = [tij]i=1,...,m
j=1,...,n
, com tij = 0, ∀j < i. (2.17)
Ou seja, T ∈ Mmn tem as entradas todas nulas abaixo da diagonal principal (a
diagonal principal de uma matriz P = [pij] designa os n´umeros pii).
Tamb´em se definem matrizes triangulares inferiores: tij = 0, ∀i < j.
2.1.3 Transposta
Dada uma matriz A ∈ Mmn, definimos a transposta de A = [aij]i=1,...,m
j=1,...,n
como a
matriz AT
∈ Mnm dada por AT
= [aT
ji]j=1,...,n
i=1,...,m
onde
aT
ji = aij. (2.18)
Prova-se com facilidade que a passagem `a transposta do produto verifica:
A ∈ Mmn, B ∈ Mnp =⇒ (AB)T
= BT
AT
. (2.19)
Claro que (AT
)T
= A para qualquer matriz A.
Se A ´e invert´ıvel, ent˜ao prova-se facilmente que (A−1
)T
= (AT
)
−1
.
Agora, uma matriz diz-se sim´etrica se A = AT
. Uma matriz diz-se anti-
sim´etrica se A = −AT
.
O primeiro contributo destas no¸c˜oes est´a na possibilidade de escrever qualquer
matriz quadrada C ∈ Mmm como a soma de uma matriz sim´etrica e de uma anti-
sim´etrica. Essa decomposi¸c˜ao de C est´a em
C =
1
2
C + CT
+
1
2
C − CT
, (2.20)
como o leitor verificar´a.
2
Para ver que n = m, sendo AB = 1m e BA = 1n, atente-se a m = i,j ai,jbi,j = n, o c´alculo
do tra¸co.
19. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 18
2.2 Sistemas de Equa¸c˜oes Lineares
2.2.1 M´etodo de resolu¸c˜ao pela adi¸c˜ao ordenada
Vamos agora estudar os sistemas de m equa¸c˜oes lineares, isto ´e, do 1o
grau, a n
inc´ognitas. Come¸cemos com um exemplo (m, n) = (2, 3) e sua resolu¸c˜ao.
2x + 3y − z = 0
x + 4y = −2z
(2.21)
´e um sistema poss´ıvel indeterminado, o qual se resolve pelo m´etodo de substitui¸c˜ao
como
2x + 3y = z
x + 4y = −4x − 6y 5x = −10y
z = −y
x = −2y
(2.22)
donde, para cada y ∈ R, h´a uma solu¸c˜ao (x, y, z) = (−2y, y, −y).
Outro m´etodo, chamado de adi¸c˜ao ordenada, permite resolver o sistema de
forma mais r´apida.
Utilizando os princ´ıpios elementares de equivalˆencia de equa¸c˜oes, percebemos
que se obt´em um sistema equivalente a (2.21) se multiplicarmos a segunda equa¸c˜ao,
em ambos os termos, por −2. E o mesmo acontece se adicionarmos ordenadamente
esse resultado `a 1a
equa¸c˜ao. Estamos, por hip´otese, a adicionar a mesma quantidade
a ambos os termos, pelo que o novo sistema permanece equivalente.
Conseguimos ‘anular os 2x’ na 1a
equa¸c˜ao.
Fazendo ao mesmo tempo o mesmo para a equa¸c˜ao de baixo, usando a de cima
multiplicada por 2 para ‘anular o z’, obt´em-se:
2x + 3y − z = 0
x + 4y + 2z = 0
−5y − 5z = 0
5x + 10y = 0
z = −y
x = −2y
. (2.23)
Claro que as opera¸c˜oes escolhidas foram as que mais r´apidamente permitiram anular
alguma vari´avel. Este m´etodo tem por isso as suas vantagens sobre o primeiro3
.
Vejamos outro exemplo:
4x + y + z = 0
8x + z = 0
4x − y = 0
4x + y + z = 0
−2y − z = 0
−2y − z = 0
4x + y + z = 0
−2y − z = 0
0 = 0
, (2.24)
´e um sistema poss´ıvel e indeterminado. E outro exemplo:
4x + y = ...
4x − y = ...
8x = ...
−2y = ...
. (2.25)
3
N˜ao ´e prop´osito de um curso de ALGA a procura do melhor algoritmo de resolu¸c˜ao de sistemas.
20. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 19
Neste caso, quaisquer que sejam os valores nas reticˆencias iniciais, o sistema ´e
sempre poss´ıvel e determinado. Mas nem sempre ´e assim. Considere-se o sistema
em x, y:
4x + y = c
8x + 2y = d
4x + y = c
0 = d − 2c
(2.26)
Aqui h´a claramente duas hip´oteses: o sistema ´e poss´ıvel indeterminado se d = 2c,
e imposs´ıvel no caso contr´ario. De qualquer forma o estudo das equa¸c˜oes indepen-
dentes parte dos coeficientes do ‘lado esquerdo’.
2.2.2 Condensa¸c˜ao de uma matriz
Em geral, um sistema de m equa¸c˜oes a n inc´ognitas aparece como
a11x1 + · · · + a1nxn = b1
...
am1x1 + · · · + amnxn = bm
. (2.27)
Claramente podemos escrever (2.27) em termos matriciais:
a11 · · · a1n
...
am1 · · · amn
x1
...
xn
=
b1
...
bm
(2.28)
e logo sucintamente como
AX = B (2.29)
onde A, X, B tˆem correspondˆencia ´obvia com as matrizes anteriores.
Nunca esque¸cendo a posi¸c˜ao de cada inc´ognita xi, i = 1, . . . , n, podemos fazer as
adi¸c˜oes ordenadas sobre as linhas da matriz ampliada [A|B], de um dado sistema,
para o resolver.
Suponhamos, por exemplo, que nos s˜ao dadas as equa¸c˜oes
x − y + z = 0,
x + 3y = 1,
z = −3x + 1 + y
. (2.30)
Ent˜ao a matriz ampliada, seguida da multiplica¸c˜ao e adi¸c˜ao ordenada, resulta em
1 −1 1 | 0
1 3 0 | 1
3 −1 1 | 1
L2−L1, L3−3L1
−−−−−−−−−→
1 −1 1 | 0
0 4 −1 | 1
0 2 −2 | 1
L2−2L3, L2↔L3
−−−−−−−−−−→
1 −1 1 | 0
0 2 −2 | 1
0 0 3 | −1
L1+ 1
2
L2, 3L2+2L3
−−−−−−−−−−−→
1 0 0 | 1
2
0 6 0 | 1
0 0 3 | −1
.
(2.31)
21. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 20
O sistema est´a resolvido, x = 1
2
, y = 1
6
, z = −1
3
. Neste caso, a matriz A ´e quadrada,
pelo que essencialmente fomos ao encontro da sua inversa de modo a obter a solu¸c˜ao
X = A−1
B.
Ao m´etodo anteriormente descrito de resolu¸c˜ao de um sistema d´a-se o nome de
m´etodo de Gauss.
Os exemplos acima mostram o uso da condensa¸c˜ao sobre linhas (ou colunas)
de uma matriz, ou seja a adi¸c˜ao e multiplica¸c˜ao por escalar das linhas (ou colunas)
de uma matriz.
A condensa¸c˜ao sobre as linhas consiste em:
• troca de linhas (para obter elementos n˜ao nulos na diagonal principal ou
simplesmente para simplificar c´alculos)
• multiplica¸c˜ao de uma linha por um escalar n˜ao nulo
• substitui¸c˜ao de uma linha por si pr´opria adicionada de um m´ultiplo n˜ao nulo
de outra linha
• desenvolver este processo de forma ordenada com vista a encontrar uma matriz
triangular superior.
Tamb´em se podem escrever as mesmas regras para a condensa¸c˜ao sobre as col-
unas (a qual n˜ao pode ser feita na resolu¸c˜ao de sistemas, pois estar´ıamos a juntar
coeficientes de inc´ognitas diferentes).
2.2.3 Estudo dos sistemas
Dado o sistema (2.29), ´e imediato concluir que chegamos sempre a um sistema
equivalente do tipo:
ξ11 ξ12 · · · ξ1r · · · ξ1n | η1
0 ξ22 |
0 0
... |
0 · · · 0 ξrr · · · ξrn | ηr
... 0
... 0 |
...
0 0 0 0 | ηm
(2.32)
com r ≤ m, n e os ξii = 0, ∀i = 1, . . . , r.
Os ξ’s resultam da condensa¸c˜ao sobre linhas de A e os η’s resultam das corre-
spondentes transforma¸c˜oes sobre B.
O ´ındice r ´e o n´umero de equa¸c˜oes independentes. Chama-se caracter´ıstica
de linha de A. Se para algum i > r, tivermos ηi = 0, ent˜ao h´a mais ‘equa¸c˜oes
independentes’ na matriz ampliada A|B que em A e o sistema ´e imposs´ıvel. Rec´ıp-
rocamente, de qualquer sistema imposs´ıvel se retira a mesma condi¸c˜ao.
22. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 21
Agora, das primeiras r linhas, vˆe-se bem que o sistema ´e poss´ıvel determinado
sse r = n; ou seja, indeterminado sse r < n. A n − r d´a-se o nome de grau de
indetermina¸c˜ao do sistema (este grau ´e tamb´em a dimens˜ao do espa¸co de solu¸c˜oes
do sistema4
).
Em resumo, pondo r(A) = n´umero de linhas independentes, temos o seguinte
quadro.
r(A) = r(A|B) r(A) < r(A|B)
sistema poss´ıvel s. imposs´ıvel
determinado indeterminado
r(A) = n r(A) < n
sem solu¸c˜oes
(2.33)
2.3 Espa¸co Euclidiano
2.3.1 O espa¸co vectorial Rn
ou espa¸co euclidiano
Temos vindo a considerar as linhas de uma dada matriz e a falar da dependˆencia
linear de um conjunto de linhas. Conv´em ent˜ao considerar o espa¸co M1,n de tais
linhas (com n colunas) e dar-lhe o destaque que merece.
Damos o nome de espa¸co euclidiano ao produto cartesiano Rn
= R × · · · × R
(com n factores). Tamb´em se diz por vezes o espa¸co cartesiano Rn
. Os seus
elementos chamam-se vectores e escrevem-se como n-tuplos ordenados (c1, . . . , cn),
portanto com ci ∈ R.
A adi¸c˜ao de vectores e a multiplica¸c˜ao de um vector por um escalar devolvem-nos
um novo vector (essas opera¸c˜oes s˜ao as mesmas do espa¸co de matrizes acima):
(c1, . . . , cn) + (d1, . . . , dn) = (c1 + d1, . . . , cn + dn),
λ(c1, . . . , cn) = (λc1, . . . , λcn)
(2.34)
∀ci, di, λ ∈ R, i = 1, . . . , n.
Repare-se agora que uma matriz A ∈ Mmn induz uma fun¸c˜ao ou aplica¸c˜ao
A : Rn
−→ Rm
, X −→ AX (2.35)
Esta aplica¸c˜ao tem a propriedade de ser linear5
:
A(λX + µY ) = λAX + µAY, ∀X, Y ∈ Rn
, λ, µ ∈ R. (2.36)
Tal resulta da propriedade distribuitiva do produto sobre a soma. Voltaremos a
estas quest˜oes mais tarde.
4
Isto far´a sentido ap´os a verifica¸c˜ao de que o conjunto de solu¸c˜oes forma um subespa¸co afim.
5
As fun¸c˜oes lineares tomam o nome de aplica¸c˜oes lineares.
23. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 22
2.3.2 Independˆencia linear
Vimos no estudo dos sitemas de equa¸c˜oes lineares a necessidade de fazer anular
linhas de uma dada matriz `a custa de outras linhas. Essa possibilidade d´a lugar a
um conceito em Rn
.
Dizemos que um conjunto (ou um sistema) de m vectores do espa¸co euclidiano
Rn
, ou seja, {L1, . . . , Lm} ⊂ Rn
, ´e um conjunto de vectores linearmente depen-
dentes se podemos escrever um deles como combina¸c˜ao linear dos restantes, isto
´e, se existe um ´ındice i0 e existem escalares α1, . . . , αi0−1, αi0+1, . . . , αm ∈ R tais
que
Li0 = α1L1 + · · · + αi0−1Li0−1 + αi0+1Li0+1 + · · · + αmLm. (2.37)
Repare-se que passando Li0 para o lado direito de (2.37) obtemos o vector nulo
0 escrito como combina¸c˜ao linear n˜ao nula de todos os L1, . . . , Lm.
Uma forma mais simples de dizer o que ´e a dependˆencia linear ser´a pela negativa:
dizemos que m vectores dados L1, . . . , Lm s˜ao linearmente independentes se se
verifica a condi¸c˜ao:
λ1L1 + · · · + λmLm = 0 =⇒ λ1 = · · · = λm = 0. (2.38)
´E um simples problema l´ogico provar que um conjunto de vectores ´e linearmente
independente sse n˜ao ´e linearmente dependente.
Exemplos:
1. Um vector L1 isolado ´e linearmente independente sse L1 = 0. Com efeito, s´o
nesse caso garantimos que λ1L1 = 0 implica λ1 = 0.
2. Os vectores (2, 3), (3, 4) s˜ao linearmente independentes. Com efeito,
λ1(2, 3) + λ2(3, 4) = 0 ⇒
2λ1 + 3λ2 = 0
3λ1 + 4λ2 = 0
⇒
λ1 = 0
λ2 = 0
. (2.39)
3. Se o vector nulo est´a entre os vectores L1, . . . , Lm, ent˜ao este conjunto ´e
linearmente dependente. De facto, podemos escrever 0 como combina¸c˜ao
linear dos restantes vectores. Basta fazer a combina¸c˜ao linear com os escalares
nulos.
4. Num dado subconjunto de Rn
, o n´umero m´aximo de vectores linearmente
independentes que ele poder´a conter ´e n.
O exemplo 4 ´e muito elucidativo. Dito de outra forma: em Rn
quaisquer vectores
L1, . . . , Ln, Ln+1 s˜ao linearmente dependentes.
Com efeito, procurando escrever 0 como combina¸c˜ao linear daqueles, ou seja,
λ1L1 + · · · + λnLn + λn+1Ln+1 = 0, (2.40)
24. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 23
escrevemos o sistema
λ1l11 + · · · + λnln1 + λn+1ln+1,1 = 0
...
λ1l1n + · · · + λnlnn + λn+1ln+1,n = 0
(2.41)
onde Li = (li1, . . . , lin). Como sabemos, tal sistema ´e sempre poss´ıvel indetermi-
nado. Existem ent˜ao solu¸c˜oes λ1, . . . , λn+1 n˜ao nulas, como quer´ıamos.
2.4 A caracter´ıstica e a inversa de novo
2.4.1 Caracter´ıstica de linha vs caracter´ıstica de coluna
Seja M ∈ Mmn uma matriz qualquer. Chamamos caracter´ıstica de linha de
M, denotada rl, ao n´umero m´aximo de linhas linearmente independentes que M
cont´em. J´a nos referimos a esta defini¸c˜ao em sec¸c˜ao anterior.
Chamamos caracter´ıstica de coluna de M, denotada rc, ao n´umero m´aximo
de colunas linearmente independentes que M cont´em.
Dissemos anteriormente como obter rl: efectuando uma condensa¸c˜ao da matriz
de modo a fazer aparecer a matriz de aspecto simples (2.32) — evidentemente,
aqui, sem a parte ampliada. Mas ´e claro que h´a muitos caminhos desde a matriz
inicial M at´e aquela forma can´onica (2.32), pelo que se poderia perguntar se rl n˜ao
depende da escolha do caminho.
Vemos que tal defini¸c˜ao ´e intr´ınseca, independente da condensa¸c˜ao sobre linhas,
tal como se exprimiu acima: se M tem linhas L1, . . . , Lm e fazemos uma troca de
Li por Li + αLj, α ∈ R, vemos que
λ1L1 + · · · + λiLi + · · · + λjLj + · · · + λmLm = 0 (2.42)
tem solu¸c˜oes n˜ao nulas sse
˜λ1L1 + · · · + ˜λi(Li + αLj) + · · · + ˜λjLj + · · · + ˜λmLm = 0 (2.43)
tem solu¸c˜oes n˜ao nulas. S´o temos de fazer a transforma¸c˜ao λj = ˜λi + α˜λj.6
O pr´oximo teorema afirma que a caracter´ıstica de linha ´e igual `a caracter´ıstica
de coluna. A primeira parte da demonstra¸c˜ao assenta na prova de que n˜ao se altera
rl a cada passo para achar rc.
Teorema 5. Em qualquer matriz, rl = rc.
6
Como dissemos em 2.2.3, os sistemas de equa¸c˜oes lineares (independentes ou n˜ao), ap´os con-
densa¸c˜ao, mantˆem-se equivalentes (em particular, com o mesmo n´umero de equa¸c˜oes indepen-
dentes). Poder´ıamos passar a falar em sistemas de vectores.
25. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 24
Demonstra¸c˜ao. Suponha-se
M =
L1
...
Lm
=
l11 · · · l1n
...
lm1 · · · lmn
= C1 · · · Cn . (2.44)
A dependˆencia das linhas estuda-se pelo sistema em λ’s,
λ1l1j + · · · + · · · + λmlmj = 0, ∀j = 1, . . . n. (2.45)
Agora, o passo mais geral da condensa¸c˜ao sobre colunas ser´a a troca Ci ↔ Cj
seguida de Ci → Ci + αCj, para certos i, j e α ∈ R, levando-nos para a matriz
M =
l11 · · · l1j · · · l1i + αl1j · · · l1n
...
...
lm1 · · · lmj · · · lmi + αlmj · · · lmn
. (2.46)
O respectivo sistema de equa¸c˜oes ser´a o mesmo que o anterior excepto para j = j, i:
· · ·
λ1l1j + · · · + λmlmj = 0
· · ·
λ1(l1i + αl1j) + · · · + λm(lmi + αlmj) = 0
· · ·
(2.47)
Mas ´e evidente, rearrumando os termos e pondo α em evidˆencia, que este sistema
´e equivalente a (2.45).
Agora, tal como em 2.2.3, fazendo uma condensa¸c˜ao por colunas de forma or-
denada, chegaremos a uma matriz de aspecto
ξ11 0 0 0 0
ξ21 ξ22 0 0
... 0
...
...
ξrcrc 0 0
...
...
...
ξm1 ξmrc 0 0
(2.48)
com os ξkk = 0, ∀1 ≤ k ≤ rc. Como nunca se alterou rl desde M e agora j´a ´e f´acil
descobrir a caracter´ıstica de linha, fazendo por anular tudo o que est´a abaixo da
diagonal principal de (2.48), deduz-se ent˜ao que rc = rl, como quer´ıamos demon-
strar.
Exemplo:
1 0 3
2 1 2
2 0 6
L3−2L1, C1−2C2
−−−−−−−−−−→
1 0 3
0 1 2
0 0 0
C3−3C1−2C2
−−−−−−−−→
1 0 0
0 1 0
0 0 0
(2.49)
e a caracter´ıstica r = rc = rl neste caso ´e 2.
26. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 25
2.4.2 C´alculo da inversa
Vamos agora estabelecer um m´etodo para encontrar a inversa de uma matriz quadrada
A ∈ Mn,n, supondo que existe.
Repare-se que escrevendo o vector-coluna
Vi0 = 0 · · · 0 1 0 · · · 0
T
(2.50)
(1 no lugar i0 e 0 em todas as outras entradas), vem
BVi0 =
b1i0
...
bni0
(2.51)
para qualquer matriz quadrada B = [bst].
Para encontrar A−1
temos de encontrar os n vectores-coluna Xi tais que AXi =
Vi. Pois da´ı vir´a
A X1 · · · Xn = V1 · · · Vn = 1n. (2.52)
Note-se em particular que A : Rn
→ Rn
induz, no sentido de (2.35), uma
aplica¸c˜ao bijectiva (tem uma inversa7
) sse a matriz A ´e invert´ıvel. Por sua vez,
cada sistema AX = Vi ´e poss´ıvel e determinado sse r(A) = n. Est´a ent˜ao provado
o
Teorema 6. Uma matriz quadrada A ∈ Mn ´e invert´ıvel sse r(A) = n.
Agora, os Xi, 1 ≤ i ≤ n, encontrados acima ser˜ao as colunas de A−1
. Pelo
m´etodo de condensa¸c˜ao sobre linhas, aplicado simultˆaneamente na resolu¸c˜ao dos n
sistemas de n equa¸c˜oes a n inc´ognitas, podemos dar como certo o seguinte algoritmo
para determinar a matriz inversa de A:
A | 1n −→ · · · (condensa¸c˜ao) · · · −→ 1n | A−1
. (2.53)
Exemplo:
1. Para encontrar a inversa de
0 5
−5 3
fazemos
0 5 | 1 0
−5 3 | 0 1
→
−5 3 | 0 1
0 5 | 1 0
→
1 −3
5
| 0 −1
5
0 1 | 1
5
0
→
1 0 | 3
25
−1
5
0 1 | 1
5
0
.
(2.54)
7
Conv´em aqui notar que a inversa de uma aplica¸c˜ao linear bijectiva ´e ainda uma aplica¸c˜ao
linear.
27. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 26
A verifica¸c˜ao ´e imediata:
0 5
−5 3
3
25
−1
5
1
5
0
=
1 0
0 1
. (2.55)
28. Cap´ıtulo 3
3.1 Determinantes
3.1.1 Grupos de permuta¸c˜oes
Consideremos de novo o grupo de permuta¸c˜oes Sn de n objectos, recorde-se, um
grupo com n! elementos.
Um tipo particular de permuta¸c˜oes s˜ao os ciclos. Um ciclo σ ∈ Sn ´e uma
permuta¸c˜ao denotada (a1 a2 · · · ak), com os ai ∈ {1, . . . , n} todos diferentes, que
obedece a
a1 → a2 → a3 → · · · → ak → a1 (3.1)
e que deixa todos os outros elementos, n˜ao referidos, no mesmo lugar.
O natural k ´e a ordem do ciclo.
Como exemplos, em S4, temos
(143) = (431) = (314) =
1 2 3 4
4 2 1 3
,
(123) ◦ (341) = (234) = (34)(24).
(3.2)
Note-se que a fun¸c˜ao composta se lˆe da direita para a esquerda e que, como ´e usual,
deixamos ca´ır o sinal “◦”. `A fun¸c˜ao composta tamb´em se chama produto.
A permuta¸c˜ao inversa de um ciclo escreve-se facilmente. Em particular, as
chamadas transposi¸c˜oes (ij), ou seja ciclos de ordem 2, verificam (ij)−1
= (ij) =
(ji).
Agora, cada permuta¸c˜ao σ ´e um produto de ciclos. Para o vermos come¸camos
por construir o ciclo (1 σ(1) σ(σ(1)) · · · σk1−1
(1)). Concerteza que haver´a um fim,
de tal forma que σ(σk1−1
(1)) = 1, pois σ n˜ao se repete nunca e n ´e finito. A
seguir procuramos o primeiro elemento i0 ∈ {1, . . . , n} que n˜ao est´a entre os σi
(1) e
construimos o ciclo (i0 σ(i0) σ(σ(i0)) · · · σk2−1
(i0)). Pelas raz˜oes anteriores, o ciclo ´e
finito. Repetimos assim e sucessivamente o processo anterior, sabendo que havemos
de parar porque se esgotam os n´umeros. Obtemos finalmente a permuta¸c˜ao dada
29. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 28
como um produto de ciclos, que at´e comutam entre si pois n˜ao tˆem elementos
comuns.
´E quase t˜ao convincente ver um exemplo:
σ =
1 2 3 4 5 6 7 8
6 5 2 1 3 7 4 8
= (1674)(253). (3.3)
Mais ainda, cada permuta¸c˜ao ´e produto de transposi¸c˜oes, pois cada ciclo o ´e:
(a1 a2 · · · ak) = (ak ak−1)(ak ak−2) · · · (ak a2)(ak a1). (3.4)
Fazemos agora a seguinte afirma¸c˜ao: a permuta¸c˜ao identidade ´e sempre o pro-
duto de um n´umero par de transposi¸c˜oes: (1) = (ij)(ij). A demonstra¸c˜ao deste
facto, s´o aparentemente ´obvio, ´e um problema de ordem e combinat´oria que deix-
amos ao leitor para sua pesquisa, [Gro83].
Agora se uma mesma permuta¸c˜ao se decomp˜oe, uma vez, num n´umero l1 de
transposi¸c˜oes e, noutra vez, num n´umero l2 de transposi¸c˜oes, ent˜ao l1 + l2 ´e par.
Equivale a passar, nessa igualdade de decomposi¸c˜oes, todas as transposi¸c˜oes para
um lado, ficando a identidade no outro. Em particular, l1 ´e par sse l2 ´e par. Com
efeito, apenas dois pares, ou dois ´ımpares, somam um par. Em resumo, temos o
Teorema 7. Toda a permuta¸c˜ao σ ∈ Sn ´e produto de transposi¸c˜oes.
A paridade do n´umero de transposi¸c˜oes de qualquer decomposi¸c˜ao de σ num
produto de transposi¸c˜oes ´e um invariante de σ.
Este teorema permite-nos definir rigorosamente o sinal de uma permuta¸c˜ao σ.
Trata-se do valor +1 ou −1, conforme o invariante indicado acima. Ou seja,
sg(σ) = (−1) (3.5)
onde
= n´umero de transposi¸c˜oes numa decomposi¸c˜ao de σ. (3.6)
A conhecida ‘regra dos sinais’ prova de imediato o seguinte
Teorema 8 (B´ezout). Para quaisquer permuta¸c˜oes σ, τ ∈ Sn,
sg(στ) = sg(σ)sg(τ). (3.7)
Em particular, sg(σ) = sg(σ−1
).
Para aplica¸c˜oes futuras, com argumentos de tipo indutivo, conv´em reparar que
podemos escrever a uni˜ao de subconjuntos disjuntos
Sn = S1 ∪ S2 ∪ · · · ∪ Sn (3.8)
onde
Si = {σ : σ(1) = i}. (3.9)
Cada um destes subconjuntos, grosso modo, identifica-se com Sn−1. Para deduzir
tal identifica¸c˜ao, s´o temos de fixar nova numera¸c˜ao dos objectos, suprimindo o 1 no
espa¸co de partida e o i no espa¸co de chegada.
30. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 29
3.1.2 Defini¸c˜ao de determinante
Voltemos agora `as matrizes. Define-se determinante de uma matriz quadrada
A = [aij] ∈ Mn,n como sendo o n´umero real
det A =
σ∈Sn
sg(σ)a1σ1 a2σ2 · · · anσn . (3.10)
A nota¸c˜ao refere σi = σ(i).
Vemos que aquele ´e um somat´orio com n! parcelas. De cada linha i apenas se
escolhe um aiσi
, em cada parcela.
A nota¸c˜ao |A| = det A ´e tamb´em usual.
Por exemplo, para n = 2, temos
a b
c d
= ad − cb. (3.11)
A dedu¸c˜ao da chamada regra de Sarrus e da respectiva regra mnem´onica para
o determinante de ordem 3 ´e um bom exerc´ıcio para o leitor:
a11 a12 a13
a21 a22 a23
a31 a32 a33
= a11a22a33 + a31a12a23 + a13a21a32
− a13a22a31 − a11a23a32 − a12a21a33.
(3.12)
3.1.3 Propriedades do determinante
Suponhamos que ´e dada a matriz A tal como acima.
Tendo em conta que podemos ordenar os factores em cada parcela de (3.10) pelo
´ındice de coluna, que sg(σ) = sg(σ−1
) e que o somat´orio sobre os σ ∈ Sn ´e o mesmo
que o somat´orio sobre os seus inversos, resulta
det A =
σ∈Sn
sg(σ)aσ−1
1 1aσ−1
2 2 · · · aσ−1
n n
=
σ−1=τ∈Sn
sg(τ)aτ11aτ22 · · · aτnn
=
τ∈Sn
sg(τ)aT
1τ1
aT
2τ2
· · · aT
nτn
= det AT
.
(3.13)
Prov´amos o
Teorema 9. Para qualquer matriz A, tem-se det A = det AT
.
Esta ´e a primeira das principais propriedades do determinante. Em sua virtude,
daqui em diante ‘tudo o que se diga’ sobre as linhas ter´a um equivalente sobre as
colunas.
31. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 30
Agora, uma pequena altera¸c˜ao nas linhas de A podemos cometer sem muito
perturbar o seu determinante.
Sejam 1 ≤ i = j ≤ n. Se trocarmos as linhas i e j de A uma pela outra,
aparece-nos a matriz ˜A, e da´ı decorrem as seguintes igualdades:
det ˜A =
σ∈Sn
sg(σ)a1σ1 · · · ajσi
· · · aiσj
· · · anσn
=
σ∈Sn
sg(σ(ij))a1σ1 · · · ajσj
· · · aiσi
· · · anσn
= sg((ij))
σ∈Sn
sg(σ)a1σ1 · · · anσn = −det A.
(3.14)
Em particular, se as linhas i e j forem iguais, ou seja A = ˜A, ent˜ao
det A = 0. (3.15)
Escrevendo agora
A =
a11 · · · a1n
...
an1 · · · ann
=
L1
L2
...
Ln
(3.16)
e logo
det A = det (L1, . . . , Ln), (3.17)
tem-se que o determinante ´e uma aplica¸c˜ao multilinear nas linhas (e nas colunas).
Com efeito, para qualquer´ındice i, det ´e linear na linha i quando se fixam as outras
vari´aveis todas, ou seja, para quaisquer linhas Lj, j = 1, . . . , n, e ˜L e quaisquer
λ, µ ∈ R, det verifica
det (L1, . . . , λLi + µ˜L, . . . , Ln) =
λ det (L1, . . . , Li, . . . , Ln) + µ det (L1, . . . , ˜L, . . . , Ln).
(3.18)
Compare-se esta linearidade1
com aquela descrita em (2.36).
Demostremos (3.18). Suponhamos que a linha ˜L = (˜a1, . . . , ˜an). Como a linha
i da matriz do lado esquerdo ´e igual a (λai1 + µ˜a1, . . . , λain + µ˜an), no c´alculo do
determinante vem
σ∈Sn
sg(σ)a1σ1 · · · (λaiσi
+ µ˜aσi
) · · · anσn
= λ
σ∈Sn
sg(σ)a1σ1 · · · aiσi
· · · anσn + µ
σ∈Sn
sg(σ)a1σ1 · · · ˜aσi
· · · anσn .
(3.19)
1
O conceito de aplica¸c˜ao linear ou de aplica¸c˜ao multilinear ser´a formalizado no cap´ıtulo 4.
32. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 31
Us´amos apenas as propriedades de distributividade e comutatividade de R. A
express˜ao a que se chegou ´e claramente aquela do lado direito de (3.18), como
quer´ıamos.
Vejamos um exemplo de aplica¸c˜ao (como na teoria dos polin´omios em v´arias
vari´aveis):
x2
1 x1x2 0
x1x3 x2
2x3 x3x4
x1x4 x2
2 0
= x2
1x2x3
1 1 0
1 x2 x4
x4 x2 0
=
= x2
1x2x3
1 0 0
1 x2 x4
x4 x2 0
+ x2
1x2x3
0 1 0
1 x2 x4
x4 x2 0
=
= x2
1x2x3(−x2x4 + x2
4) = x2
1x2x3x4(x4 − x2).
(3.20)
Para finalizar, reescrevendo (3.14) na nota¸c˜ao anterior, verificou-se que o deter-
minante ´e uma aplica¸c˜ao multilinear alternada ou anti-sim´etrica:
det (L1, . . . , Li, . . . , Lj, . . . , Ln) =
= − det (L1, . . . , Lj, . . . , Li, . . . , Ln).
(3.21)
Tamb´em se pode escrever (3.18) em dois passos. O respeito pela multiplica¸c˜ao de
uma linha por um escalar:
det (L1, . . . , λLi, . . . , Ln) = λ det (L1, . . . , Li, . . . , Ln) (3.22)
e o respeito pela soma de duas linhas
det (L1, . . . , Li + ˜L, . . . , Ln) =
det (L1, . . . , Li, . . . , Ln) + det (L1, . . . , ˜L, . . . , Ln)
(3.23)
∀Li, ˜L ∈ Rn
, λ ∈ R.
3.1.4 C´alculo de determinantes
Pela defini¸c˜ao, ´e trivial provar que
t11 t12 t13 · · · t1n
0 t22 t23 t2n
0 0 t33 · · · t3n
0 0
...
0 0 0 tnn
= t11t22 · · · tnn. (3.24)
E se a matriz dada for triangular inferior, o resultado ´e an´alogo.
Agora, o processo de condensa¸c˜ao de uma qualquer matriz A ∈ Mnn conduz-nos
a uma matriz triangular. Observamos ent˜ao que h´a uma forma pr´atica de calcular
determinantes, tendo em conta as regras:
33. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 32
• se trocarmos duas linhas (ou colunas) diferentes, o determinante muda de
sinal
• se substituirmos uma linha por ela mesma adicionada de um m´ultiplo de outra
linha, o determinante n˜ao se altera
• se substituirmos uma coluna por ela mesma adicionada de um m´ultiplo de
outra coluna, o determinante n˜ao se altera.
Por exemplo,
1 2 3 4
0 1 −3 5
−1 3 −1 7
3 2 5 4
=
1 2 3 4
0 1 −3 5
0 5 2 11
0 −4 −4 −8
= −4
1 −3 5
5 2 11
1 1 2
=
= −4
1 −3 5
0 17 −14
0 4 −3
= −4
3 −14
1 −3
= −20.
(3.25)
A segunda igualdade resulta de apenas valerem σ ∈ S4 tais que σ(1) = 1. Na quarta
acontece o mesmo.
Teorema 10. Uma qualquer matriz A ´e invert´ıvel sse det A = 0.
De podermos usar a condensa¸c˜ao sobre uma dada matriz para a levar a outra na
forma triangular, sem alterar o seu determinante ou caracter´ıstica, resulta que se
pode supˆor desde j´a que A ´e triangular. Ora, algum dos ajj, j = 1, . . . , n da matriz
triangular (3.24) ´e nulo, ou seja, r(A) < n, sse det A = 0. Invocando o teorema 6,
vˆe-se que dele decorre o teorema anterior.
3.1.5 Regra do produto
Verificaremos primeiro que aplica¸c˜oes multilineares2
alternadas
f : Rn
× · · · × Rn
−→ R
(v1, . . . , vn) −→ f(v1, . . . , vn),
(3.26)
tais como o determinante sobre as linhas ou colunas de uma matriz, existe essen-
cialmente uma.
Para prov´a-lo necessitamos da base can´onica de Rn
, isto ´e, o conjunto de n
vectores
ei = (0, . . . , 0, 1, 0, . . . , 0) (3.27)
2
Recordamos que este conceito pode ser visto no cap´ıtulo 4.
34. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 33
com 1 na i-´esima entrada (cf. (2.50)).
Dizendo de outra forma,
1n =
1 0 · · · 0
0 1 0
... 0
0 0 · · · 1
=
e1
...
en
. (3.28)
´E evidente que qualquer vector de Rn
(o mesmo que uma matriz-linha) satisfaz
(x1, x2, . . . , xn) = x1e1 + x2e2 + · · · + xnen =
n
j=1
xjej. (3.29)
Eis o resultado que refer´ıamos.
Teorema 11. Qualquer aplica¸c˜ao multilinear alternada f sobre n vectores de Rn
verifica
f(A) = det (A) f(1n). (3.30)
Demonstra¸c˜ao. Com efeito, por multilinearidade e por (3.29)
f(A) = f(L1, . . . , Ln)
= f
n
j1=1
a1j1 ej1 ,
n
j2=1
a2j2 ej2 , . . . ,
n
jn=1
anjn ejn
=
n
j1,j2,...,jn=1
a1j1 · · · anjn f(ej1 , . . . , ejn ).
(3.31)
Note-se que, por hip´otese de f ser alternada, tal como em (3.15), resulta
f(ej1 , . . . , ejn ) = 0 (3.32)
no caso em que h´a dois jl iguais, l = 1, . . . , n, e resulta
f(ej1 , . . . , ejn ) = sg( 1 · · · n
j1 · · · jn
) f(e1, . . . , en) (3.33)
no caso em que todos os jl s˜ao diferentes.
Continuamos agora o c´alculo inicial. Aparece a´ı ent˜ao apenas o somat´orio sobre
as permuta¸c˜oes de 1, . . . , n, ou seja
f(A) =
σ∈Sn
a1σ1 · · · anσn sg(σ) f(e1, . . . , en) = det A f(1n) (3.34)
visto que f(e1, . . . , en) = f(1n). Cheg´amos a (3.30), como quer´ıamos demonstrar.
35. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 34
Agora podemos provar um valioso teorema com a regra do produto para os
determinantes.
Teorema 12. Para quaisquer A, B ∈ Mnn, vem
det (AB) = det (A) det (B). (3.35)
Em particular, det (A−1
) = (det A)−1
.
Demonstra¸c˜ao. Fixemos B e consideremos a fun¸c˜ao sobre as matrizes A ∈ (Rn
)n
=
Mnn
f(A) = det (AB) = |AB| (3.36)
com valores reais. ´E trivial verificar que
f(A) = f(L1, . . . , Ln) =
L1B
...
LnB
(3.37)
e, logo, que f ´e multilinear e alternada: lembrar que (Li +λ˜L)B = LiB+λ˜LB, para
cada i e para quaisquer λ, Li, ˜L, e que a pr´opria fun¸c˜ao determinante tem aquelas
propriedades.
Ent˜ao f est´a nas condi¸c˜oes da hip´otese do teorema 11, donde f(A) = |A| f(1n).
Como f(1n) = |1nB| = |B|, a f´ormula anterior lˆe-se |AB| = |A||B|, como quer´ıamos
demonstrar.
Por outras palavras, o determinante do produto de duas quaisquer matrizes ´e o
produto dos determinantes.
Por exemplo,
a b c
0 d e
0 0 f
x 0 0
y z 0
w s t
= adfxzt, (3.38)
o que se tornou muito f´acil de ver.
3.2 Regra de Laplace e aplica¸c˜oes
3.2.1 Regra de Laplace
Suponhamos que ´e dada uma matriz A ∈ Mnn da qual queremos calcular o deter-
minante.
Repare-se agora na decomposi¸c˜ao (3.8) e restringa-se o somat´orio sobre Sn na
defini¸c˜ao (3.10) de determinante apenas ao subconjunto Sj = {σ ∈ Sn : σ1 = j},
36. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 35
com j ∈ {1, . . . , n} pr´eviamente escolhido. Uma vez que σ1 = j est´a fixo, obtemos
σ∈Sj
sg(σ)a1σ1 · · · anσn =
= (−1)j−1
a1j
σ∈Sj
sg( 1 · · · j · · · n
σ2 · · · j · · · σn
)a2σ2 · · · anσn
= (−1)j−1
a1j|A(1,j)|.
(3.39)
Com efeito, o sinal da permuta¸c˜ao σ ∈ Sj, multiplicado por (−1)j−1
, ´e o da mesma
permuta¸c˜ao composta com j −1 trocas de j com σ2, σ3, etc, at´e σj, ou seja, j levado
de 1 at´e `a posi¸c˜ao j. Depois ´e imediato constatar que aparece o determinante da
matriz A(1,j), como se escreveu, a matriz sem linha 1 nem coluna j.
Em geral, define-se
A(i,j) =
a11 · · · a1,j−1 a1,j+1 · · · a1n
...
...
...
...
ai−1,1 · · · ai−1,j−1 ai−1,j+1 · · · ai−1,n
ai+1,1 · · · ai+1,j−1 ai+1,j+1 · · · ai+1,n
...
...
...
...
an1 · · · an,j−1 an,j+1 · · · ann
. (3.40)
Passando o resultado anterior para um somat´orio sobre Sn = ∪n
j=1Sj, vem
σ∈Sn
=
σ∈S1
+ · · · +
σ∈Sn
(3.41)
e logo a regra de Laplace na primeira linha
|A| = a11|A(1,1)| − a12|A(1,2)|+
+ a13|A(1,3)| − · · · + (−1)n−1
a1n|A(1,n)|.
(3.42)
Dito de outra forma, |A| = j(−1)j−1
a1j|A(1,j)|.
Se quisermos fazer o mesmo c´alculo mas a partir de outra linha, s´o temos de
puxar essa linha para o 1o
lugar de tal forma que tudo o resto permane¸ca na mesma
ordem, ou seja, trocando sucessivamente digamos a linha i com a linha i−1, depois,
esta, com a linha i − 2, etc, at´e ao primeiro lugar. ´E o mesmo que considerar as
matrizes A(i,j) e a alternˆancia do sinal em (−1)i−1
, o que acrescentado ao sinal das
parcelas acima vai dar (−1)i−1
(−1)j−1
= (−1)i+j
.
Assim ficou provado o
Teorema 13 (regra de Laplace). Para qualquer ´ındice de linha i, tem-se
|A| =
n
j=1
(−1)i+j
aij|A(i,j)|. (3.43)
37. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 36
Esta regra ´e muito pr´atica; permite calcular determinantes recursivamente sobre
a ordem n das matrizes.
Note-se que tamb´em existe uma regra de Laplace sobre as colunas. ´E simples:
na f´ormula (3.43) fazemos o somat´orio em i em vez de j.
3.2.2 A matriz adjunta
Se na matriz A da sec¸c˜ao anterior, uma matriz n por n qualquer, substituirmos a
linha i pela linha k = i, ent˜ao j´a sabemos que o determinante ´e nulo (tem duas
linhas iguais). Pela regra de Laplace aplicada na linha i, obtemos ent˜ao
0 =
n
j=1
(−1)i+j
akj|A(i,j)|. (3.44)
Como veremos, o n´umero (−1)i+j
|A(i,j)| tem grande importˆancia; designa-se por
complemento alg´ebrico de aij.
`A matriz adj A que tem entradas (j, i) iguais ao complemento alg´ebrico de aij,
ou seja, a matriz transposta da matriz formada pelos complementos alg´ebricos, ou
seja, ainda,
(adj A)ji = (−1)i+j
|A(i,j)|, (3.45)
d´a-se o nome de matriz adjunta de A.
J´a vimos que:
n
j=1
aij(adj A)ji = |A|,
n
j=1
akj(adj A)ji = 0 (3.46)
para k = i. Ora isto ´e equivalente a
A adj A = |A| 1n. (3.47)
Em particular, se A ´e invert´ıvel, ent˜ao
A−1
=
1
|A|
adj A. (3.48)
Eis uma nova solu¸c˜ao para o problema de calcular a inversa de uma matriz.
Exemplos:
1. A f´ormula (3.48) permite demonstrar esse facto bel´ıssimo que ´e o de uma
matriz de coeficientes inteiros e determinante 1 ter inversa tamb´em com coe-
ficientes inteiros.
7 5
11 8
−1
=
8 −5
−11 7
(3.49)
´e um exemplo, calculado pela dita f´ormula.
38. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 37
2. Outro exemplo, com a matriz dada de determinante 56,
−5 2 3
0 1 3
2 4 2
−1
=
1
56
1 3
4 2
−
2 3
4 2
2 3
1 3
−
0 3
2 2
−5 3
2 2
−
−5 3
0 3
0 1
2 4
−
−5 2
2 4
−5 2
0 1
=
1
56
−10 8 3
6 −16 15
−2 24 −5
(3.50)
3.2.3 Regra de Cramer
Suponhamos que temos um sistema de n equa¸c˜oes lineares, independentes, a n
inc´ognitas,
AX = B. (3.51)
Ou seja, de caracter´ıstica n. Logo com A invert´ıvel e logo com uma ´unica solu¸c˜ao.
Pelo exposto na sec¸c˜ao 3.2.2,
X = A−1
B =
1
|A|
(adj A)B =
1
|A| j
(−1)i+j
|A(j,i)|bj (3.52)
ou seja
xi =
a11 · · · b1 · · · a1n
...
...
an1 · · · bn · · · ann
|A|
(3.53)
com B tomando o lugar da coluna i de A.
Esta ´e a chamada regra de Cramer para a resolu¸c˜ao de sistemas poss´ıveis
determinados.
Por exemplo: sendo
x + y + z = 2v
3x − y − z = 2 + v
x + y = 3
, (3.54)
a matriz ampliada do sistema em x, y, z vem a ser
1 1 1 | 2v
3 −1 −1 | 2 + v
1 1 0 | 3
. (3.55)
39. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 38
Aplicando a regra de Cramer encontramos as solu¸c˜oes
x =
1
4
2v 1 1
2 + v −1 −1
3 1 0
=
1
4
2v 1 1
2 + 3v 0 0
3 1 0
=
3v + 2
4
, (3.56)
y =
1
4
1 2v 1
3 2 + v −1
1 3 0
=
−3v + 10
4
, (3.57)
z =
1
4
1 1 2v
3 −1 2 + v
1 1 3
=
1
4
0 0 2v − 3
3 −1 2 + v
1 1 3
=
8v − 12
4
. (3.58)
40. Cap´ıtulo 4
4.1 Espa¸cos vectoriais
4.1.1 Defini¸c˜oes e exemplos
Por espa¸co vectorial sobre o corpo R entende-se um grupo abeliano (V, +)
no qual est˜ao definidas, adicionalmente, opera¸c˜oes de multiplica¸c˜ao por escalar
para cada real α ∈ R,
α : V −→ V, v −→ αv, (4.1)
de tal modo que
α(v1 + v2) = αv1 + αv2 1v = v
(α1 + α2)v = α1v + α2v (αβ)v = α(βv)
(4.2)
∀v, v1, v2 ∈ V, α, α1, α2, β ∈ R.
Aos n´umeros reais chamamos escalares e aos elementos de V vectores. Repare-
se que estamos1
a generalizar os conceitos aprendidos em 2.3.1 a prop´osito do espa¸co
euclidiano Rn
.
Exemplos:
1. Rn
ou Mnm s˜ao espa¸cos vectoriais sobre R j´a bem conhecidos2
.
2. Para qualquer conjunto X e espa¸co vectorial V temos um novo espa¸co vec-
torial V X
= {f : X → V }. Este exemplo generaliza outro, referido como
exemplo de um anel em 1.2.2. Os vectores s˜ao as fun¸c˜oes e a sua soma e
produto por escalar definem-se trivialmente.
1
Dev´ıamos ir mais longe e falar de espa¸cos vectoriais sobre um corpo qualquer. Significaria
que no lugar e no papel dos escalares reais ter´ıamos os elementos de um outro corpo unit´ario (cf.
sec¸c˜ao 1.2.2). As aplica¸c˜oes s˜ao in´umeras. Por´em, note-se que ocorrem logo fen´omenos peculiares
se a chamada caracter´ıstica ou tors˜ao do corpo for n˜ao nula.
2
Observe-se a no¸c˜ao de espa¸co vectorial ser t˜ao simples, por n˜ao requerer a multiplica¸c˜ao de
dois vectores `a semelhan¸ca do espa¸co das matrizes.
41. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 40
3. Recordemos C∞
⊂ · · · ⊂ Ck+1
⊂ Ck
⊂ · · · C0
⊂ RI
onde Ck
´e o espa¸co de
fun¸c˜oes do intervalo I em R, k vezes diferenci´aveis e com derivada de ordem
k cont´ınua. Todos estes s˜ao espa¸cos vectoriais sobre R. S˜ao muito grandes...
4. Um subconjunto U de um espa¸co vectorial V tal que
∀u1, u2 ∈ U, λ ∈ R =⇒ u1 + λu2 ∈ U (4.3)
diz-se um subespa¸co vectorial de V . Claro que, neste caso, U herda uma
estrutura de espa¸co vectorial sobre R.
Conceito central na teoria dos espa¸cos vectoriais ´e o seguinte. Dizemos que
v ∈ V ´e combina¸c˜ao linear de vectores u1, . . . , um se existem escalares α1, . . . , αm
tais que v = i αiui. Note-se que s´o falamos de somas finitas.
Dado um subconjunto S ⊂ V , chamamos espa¸co vectorial gerado por S a
S = combina¸c˜oes lineares de vectores de S . (4.4)
S ´e um subespa¸co vectorial de V .
Apresentemos agora a no¸c˜ao de sistema de vectores linearmente independentes
(sli). Um conjunto, ou sistema, de vectores B = {uα}α∈I diz-se linearmente
independente se qualquer parte finita {u1, . . . , uk} ⊂ B for linearmente indepen-
dente no sentido que j´a conhec´ıamos de (2.38), ou seja, no sentido em que nenhum
ui, i = 1, . . . , k, ´e combina¸c˜ao linear dos restantes, ou seja, ainda, se, supondo que
existem λi ∈ R,
λ1u1 + · · · + λkuk = 0 =⇒ λ1 = · · · = λk = 0. (4.5)
Em presen¸ca de um sli {uα}α∈I, n˜ao h´a duas formas de escrever a mesma com-
bina¸c˜ao linear. Essencialmente, isto vale por v = i αiui = i ˜αiui implicar
i(αi − ˜αi)ui = 0. E logo αi − ˜αi = 0. Ou seja αi = ˜αi, ∀i.
Diz-se, no caso acima, que ´e uma escrita de forma ´unica.
4.1.2 Bases e dimens˜ao
Suponhamos que ´e dado um espa¸co vectorial V sobre R.
Um sli (sistema linearmente independente) B diz-se menor ( ) que o sli B se
∀u ∈ B , u ´e combina¸c˜ao linear de vectores de B. (4.6)
Um sli B diz-se maximal se for maior que todos os outros: ∀B , B B. A
um sli maximal chamamos uma base de V .
Dizemos que V tem dimens˜ao finita se V admite uma base finita.
42. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 41
Teorema 14. Se V tem dimens˜ao finita, ent˜ao todas as bases de V s˜ao finitas e
tˆem o mesmo n´umero de vectores.
Demonstra¸c˜ao. Seja B = {u1, . . . , un} a base finita e B1 outra base qualquer. Ora,
qualquer vector u na segunda base ´e combina¸c˜ao linear de vectores da primeira,
porque B1 B. Portanto existem sempre escalares λ1, . . . , λn com os quais es-
crever u = j λjuj — escrita de forma ´unica. Os vectores de B1 est˜ao assim em
correspondˆencia bi´univoca com vectores (λ1, . . . , λn) de Rn
. Estes tˆem de ser linear-
mente independentes, porque os u ∈ B1 o s˜ao. Mas n˜ao h´a mais do que n vectores
linearmente independentes em Rn
(cf. exemplo 4 da sec¸c˜ao 2.3.2).
Chamamos dimens˜ao de um espa¸co vectorial de dimens˜ao finita V , denotada
dim V , ao n´umero comum de vectores de qualquer base de V .
Dada uma base B ⊂ V de um espa¸co de dimens˜ao qualquer, tem-se B = V ,
pois no caso contr´ario entrar´ıamos em contradi¸c˜ao.
Assim, uma base de V ´e o mesmo que um sistema de vectores linearmente
independente que gera o espa¸co todo.
Muito importante ´e observar que, escolhida uma base, cada vector v ∈ V se
escreve de forma ´unica como combina¸c˜ao linear dos vectores da base.
Exemplos:
1. Os seguintes conjuntos s˜ao subespa¸cos vectoriais dos espa¸cos onde est˜ao con-
tidos:
i) Ua = {(x, y, z) ∈ R3
: a2
(x + y) + z = 0, 3x + y = 0} verifica (4.3), tem
dimens˜ao 1 e uma base {(1, −3, 2a2
)}.
ii) W = {A ∈ Mnn : a11 + 3a1n + an−1,1 − ann = 0} tem dimens˜ao n2
− 1.
Trata-se do espa¸co de todas as matrizes n por n, sujeitas a uma ´unica equa¸c˜ao
linear.
iii) O subespa¸co vectorial de Mn,n das matrizes sim´etricas de ordem n tem
dimens˜ao igual a n(n + 1)/2 (pense-se na ´area do triˆangulo pois s´o contam as
entradas de um lado triangular da matriz).
2. O conjunto Rn[x] = {polin´omios em x de grau ≤ n} ´e um subespa¸co vecto-
rial real, de dimens˜ao n + 1, do espa¸co de todos os polin´omios. Este ´ultimo
tem dimens˜ao ∞ e ´e por sua vez subespa¸co de C∞
R . Uma base de Rn[x] ´e
1, x, x2
, . . . , xn
.
3. Um sistema AX = 0 como em (2.27), portanto um sistema homog´eneo, com
A ∈ Mmn e X ∈ Rn
, d´a origem a um subespa¸co vectorial: Nuc A = {X ∈ Rn
:
AX = 0} ´e subespa¸co vectorial devido `a f´ormula (2.36). A sua dimens˜ao ´e
n−r(A) por que o sistema resolve a equa¸c˜ao de dependˆencia linear das colunas
de A e a caracter´ıstica de linha ´e igual `a caracter´ıstica de coluna.
43. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 42
Repare-se que B B implica B ⊂ B , donde se diz tamb´em que uma base
´e um conjunto minimal de geradores de V .
Sob certas condi¸c˜oes da teoria dos conjuntos, pode-se provar que todo o espa¸co
vectorial admite uma base. Mesmo os de dimens˜ao ∞.
4.1.3 Soma cartesiana e soma directa
Partindo de W, Z dois quaisquer espa¸cos vectoriais, falamos de espa¸co vectorial
produto ou de soma cartesiana de W e Z quando fazemos o produto cartesiano
W × Z e nele tomamos, para estrutura de espa¸co vectorial, a adi¸c˜ao
(w1, z1) + (w2, z2) = (w1 + w2, z1 + z2) (4.7)
e multiplica¸c˜ao por escalar
λ(w, z) = (λw, λz) (4.8)
∀w, w1, w2 ∈ W, z, z1, z2 ∈ Z, λ ∈ R. ´E f´acil perceber que s˜ao satisfeitas as
condi¸c˜oes (4.2).
Se W, Z tˆem dimens˜ao finita, a dimens˜ao do espa¸co vectorial produto ´e sempre
a soma das dimens˜oes.
Exemplo:
1. Rn
= R × R · · · × R.
Sejam agora dados dois subespa¸cos vectoriais U, V de um mesmo espa¸co vectorial
W.
Chamamos soma de U e V ao subespa¸co
U + V = u + v : u ∈ U, v ∈ V . (4.9)
Trata-se de facto de um subespa¸co vectorial, como ´e f´acil provar. Mais ainda
U, V ⊂ U + V . ´E evidente, pois u = u + 0, ∀u ∈ U.
Outra forma de obter um subespa¸co vectorial ´e pela intersec¸c˜ao
U ∩ V (4.10)
dos subespa¸cos dados. Com efeito, ´e claro que a soma de vectores e produto por
escalar de u, v ∈ U ∩ V est´a tanto em U como em V , ou seja, em U ∩ V .
´E claro que um subespa¸co vectorial U de um espa¸co de dim finita W tem ele
pr´oprio dim finita. Basta come¸car num vector = 0 e ir procurando sli cada vez
maiores dentro do subespa¸co U at´e obter um sli maximal. O processo ´e finito por
estar majorado pela dimens˜ao do espa¸co W.
Teorema 15. Se U, V tˆem dimens˜ao finita, ent˜ao
dim(U + V ) = dim U + dim V − dim(U ∩ V ). (4.11)
Em particular, U + V tem dimens˜ao finita.
44. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 43
Demonstra¸c˜ao. Come¸cemos com uma base {u1, . . . , up} de U ∩V , que prolongamos,
como acima, a uma base {u1, . . . , up, up+1, . . . , un} de U. Seja {v1, . . . , vm} uma
base de V . Ent˜ao o conjunto {up+1, . . . , un, v1, . . . , vm} ´e um sistema de vectores
linearmente independentes, pois se fosse
λp+1up+1 + · · · + λnun + α1v1 + · · · + αmvm = 0
⇐⇒ λp+1up+1 + · · · + λnun = −α1v1 − · · · − αmvm
ent˜ao este ´ultimo vector estaria em U ∩ V , pelo que seria combina¸c˜ao linear dos
u1 . . . , up. Mas sendo escrito s´o com os ui, com i > p, tem de ser 0. Ent˜ao todos os
λi, αj s˜ao 0, como quer´ıamos.
´E tamb´em f´acil verificar que qualquer outro vector de U +V ´e combina¸c˜ao linear
daqueles. Ent˜ao est´a provado que {up+1, . . . , un, v1, . . . , vm} ´e uma base. O n´umero
de vectores de tal base ´e n − p + m.
Finalmente, chamamos soma directa a U + V quando os dois subespa¸cos ver-
ificam U ∩ V = {0}. Denota-se por U ⊕ V . A dimens˜ao desta ´e a soma das
dimens˜oes.
4.2 Aplica¸c˜oes lineares
4.2.1 Defini¸c˜oes
Finalmente formalizamos o conceito j´a utilizado em duas ocasi˜oes: em 2.3.1 como
caso particular e em (3.15) a prop´osito da propriedade do determinante de matrizes
ser uma aplica¸c˜ao multilinear.
S˜ao dados dois espa¸cos vectoriais V e W.
Uma fun¸c˜ao f : V → W diz-se uma aplica¸c˜ao linear se
f(v + u) = f(v) + f(u) e f(λu) = λf(u) (4.12)
∀u, v ∈ V, λ ∈ R.
Assim, uma aplica¸c˜ao linear ´e uma aplica¸c˜ao que preserva as estruturas dos
espa¸cos vectoriais em causa. Em particular, tem-se o facto trivial: f(0) = f(0+0) =
0.
´E trivial verificar que a imagem de uma aplica¸c˜ao linear
Im f = f(V ) = f(v) : v ∈ V (4.13)
´e um subespa¸co vectorial de W. Com efeito, f(u) + λf(v) = f(u + λv) tamb´em
est´a na imagem de f, quaisquer que sejam u, v, λ.
Tamb´em, dado um qualquer subespa¸co U ⊂ W, o conjunto imagem rec´ıproca
f∗
U = v ∈ V : f(v) ∈ U (4.14)
45. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 44
´e um subespa¸co vectorial de V .
Em particular f∗
{0}, denotado
Nuc f = v ∈ V : f(v) = 0 , (4.15)
´e um subespa¸co vectorial de V chamado n´ucleo de f.
Deixamos a demonstra¸c˜ao do pr´oximo resultado como um exerc´ıcio.
Teorema 16. Seja f : V → W uma aplica¸c˜ao linear entre espa¸cos vectoriais.
Ent˜ao:
i) f ´e injectiva sse Nuc f = {0}.
ii) f ´e injectiva sse f transforma vectores linearmente independentes em vectores
linearmente independentes.
iii) f ´e sobrejectiva sse o espa¸co gerado por f(B) ´e igual a W, ou seja f(B) = W,
para qualquer base B de V .
iv) f ´e bijectiva sse transforma uma base de V numa base de W.
H´a nomes pr´oprios para f linear e injectiva, sobrejectiva ou bijectiva. Diremos
ent˜ao que f ´e, respectivamente, um monomorfismo, um epimorfismo ou um
isomorfismo.
Se V = W, ent˜ao f : V → V diz-se um endomorfismo. Um isomorfismo
endomorfismo diz-se um automorfismo.
Prove-se, `a parte, que a inversa de uma aplica¸c˜ao linear bijectiva ´e uma aplica¸c˜ao
linear.
O conjunto das aplica¸c˜oes lineares de V para W denota-se por L(V, W).
´E trivial mostrar que a soma ou a composi¸c˜ao de duas aplica¸c˜oes lineares ´e uma
aplica¸c˜ao linear e que o mesmo acontece com o produto de uma aplica¸c˜ao linear
por um escalar. Enfim, prova-se sem dificuldade o
Teorema 17. L(V, W) ´e um espa¸co vectorial sobre R. O espa¸co End (V ) :=
L(V, V ) dos endomorfismos de V ´e um anel e o subconjunto dos automorfismos
Aut(V ) = {isomorfismos de V para V } ´e um grupo.
Contudo, o resultado n˜ao ´e surpreendente: em dim finita h´a correspondˆencia
entre aqueles espa¸cos e, respectivamente, o espa¸co vectorial das matrizes Mnm, o
anel das matrizes quadradas Mnn e o grupo das matrizes invert´ıveis.
4.2.2 Representa¸c˜ao matricial
Sejam V, W espa¸cos vectoriais reais de dimens˜ao finita n, m, respectivamente. Se-
jam B = {v1, . . . , vn}, ˜B = {w1, . . . , wm} bases fixadas em V, W, respectivamente.
Sejam
X =
x1
...
xn
, B =
b1
...
bn
(4.16)
46. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 45
a matriz dos coeficientes de um qualquer vector v ∈ V e, respectivamente, a matriz
dos coeficientes de um vector w0 ∈ W. Ou seja,
v =
n
i=1
xivi = v1 · · · vn
x1
...
xn
, w0 =
m
j=1
bjwj = ˜B B (4.17)
Seja agora f : V → W uma aplica¸c˜ao linear. Denotamos ent˜ao
A = M(f, B, ˜B) (4.18)
a matriz definida da seguinte forma: como para cada 1 ≤ i ≤ n, o vector f(vi) se
escreve de forma ´unica `a custa dos vectores wj, 1 ≤ j ≤ m, existem escalares aji
tais que
f(vi) =
m
j=1
ajiwj. (4.19)
´E ´obvio que A = [aji] ∈ Mmn. A esta matriz damos o nome de matriz da
aplica¸c˜ao linear f nas bases {vi}, {wj}.
Note-se bem que esta representa¸c˜ao depende das bases.
Rec´ıprocamente, fixadas as bases, a cada matriz A ∈ Mmn corresponde uma
´unica aplica¸c˜ao linear f. A linearidade, como condi¸c˜ao, determina un´ıvocamente f
de tal forma que a sua representa¸c˜ao em matriz ´e a matriz dada.
Exemplo:
1. Seja f : R2
→ R2[ξ] definida por
f(x, y) = 2xξ2
+ 3(x + y)ξ + 4x − y. (4.20)
Trata-se com efeito de uma aplica¸c˜ao linear entre espa¸cos vectorias (cf. ex-
emplo 2 da sec¸c˜ao 4.1.2). Considerando as bases can´onicas daqueles espa¸cos,
de um lado B = {(1, 0), (0, 1)}, do outro ˜B = {ξ2
, ξ, 1}, temos
f(1, 0) = 2ξ2
+ 3ξ + 4, f(0, 1) = 3ξ − 1. (4.21)
Donde
M(f, B, ˜B) =
2 0
3 3
4 −1
(4.22)
´e a matriz de f nas bases escolhidas.
2. Consideremos a aplica¸c˜ao identidade 1V : V → V . Podemos tomar a mesma
base no espa¸co de chegada — ali´as ´e quase sempre assim que fazemos quando
47. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 46
tratamos de endomorfismos de um dado espa¸co. Tem-se logo 1V (vi) = vi,
∀1 ≤ i ≤ n, pelo que a representa¸c˜ao matricial ´e
M(1V , B, B) = 1n (4.23)
como era de esperar.
Prova-se naturalmente, sem dificuldade, que a uma equa¸c˜ao linear f(v) = w0
em v corresponde um e um s´o sistema linear AX = B:
f(v) = w0 ⇔
n
i=1
xif(vi) =
m
j=1
bjwj ⇔
⇔
m
j=1
n
i=1
xiajiwj =
m
j=1
bjwj ⇔
⇔
n
i=1
ajixi = bj, ∀j ⇔ AX = B.
(4.24)
Prova-se ainda que o conjunto solu¸c˜ao Cw0 = {v : f(v) = w0} ´e igual a
v0 + Nuc f, onde v0 ´e uma solu¸c˜ao particular, isto ´e, f(v0) = w0. De facto, v ∈ Cw0
sse f(v − v0) = w0 − w0 = 0.
Como j´a foi certamente observado no teorema 16, a dimens˜ao da imagem de
f est´a relacionada com o maior sli contido na imagem, em W, dos vectores de
uma base de V . Ou seja, ´e exactamente a caracter´ıstica da matriz A. Mais ainda,
conclui-se que o grau de indetermina¸c˜ao n − r(A) do sistema acima ´e a dimens˜ao
do n´ucleo de f. Uma vez que n = n − r(A) + r(A), est´a provado o
Teorema 18. dim V = dim Nuc f + dim Im f.
´E um resultado relevante pois n˜ao depende da escolha das bases.
Nesta teoria acresce dizer que segue sem demonstra¸c˜ao a identidade
M(f + λg, B, ˜B) = M(f, B, ˜B) + λM(g, B, ˜B) (4.25)
∀f, g ∈ L(V, W), λ ∈ R.
4.2.3 Composi¸c˜ao vs produto
Sejam V, W, U espa¸cos vectoriais reais de dimens˜ao finita n, m, p, respectivamente.
Sejam B = {v1, . . . , vn}, ˜B = {w1, . . . , wm}, B = {u1, . . . , up} bases fixadas em
V, W, U, respectivamente.
Suponhamos que s˜ao dadas aplica¸c˜oes lineares
V
f
−→ W
g
−→ U. (4.26)
48. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 47
Uma vez que g◦f tamb´em ´e uma aplica¸c˜ao linear, p˜oe-se a quest˜ao de relacionar
as matrizes
A = M(f, B, ˜B), B = M(g, ˜B, B ) (4.27)
com a matriz C = M(g ◦ f, B, B ).
Por defini¸c˜ao, analogamente com (4.19), isto ´e, f(vi) = m
j=1 ajiwj, tem-se
g(wj) =
p
k=1
bkjuk, g ◦ f (vi) =
p
k=1
ckiuk. (4.28)
Mas uma vez que
g ◦ f (vi) = g
m
j=1
ajiwj =
m
j=1
ajig(wj) =
=
m
j=1
p
k=1
ajibkjuk =
p
k=1
m
j=1
bkjajiuk
(4.29)
obt´em-se afinal
C = BA. (4.30)
Repare-se que A ∈ Mmn, B ∈ Mpm, pelo que o resultado C = BA ∈ Mpn faz
pleno sentido.
Est´a descoberta a natureza geom´etrica do produto de matrizes. Toda a teoria
estudada nos cap´ıtulos anteriores passou a fazer parte de um todo coerente.
Recordemos agora a aplica¸c˜ao identidade 1V : V → V e representˆemo-la numa
dada base B = {vi} de V como a matriz M(1V , B, B) = 1n. Pela lei demonstrada da
‘composi¸c˜ao vs produto’, deduz-se logo que a matriz da inversa de um isomorfismo
f : V → W, nas mesmas bases acima, verifica
M(f−1
, ˜B, B) = (M(f, B, ˜B))
−1
. (4.31)
Repare-se que se mudarmos para a base B1 do mesmo espa¸co V temos uma
matriz quadrada
P = M(1V , B, B1) = (M(1V , B1, B))−1
(4.32)
(a qual n˜ao tem nada que ser a matriz identidade). Uma tal matriz P chama-se
uma matriz de mudan¸ca de base.
Vejamos como se transforma em geral a matriz de uma aplica¸c˜ao linear qualquer
como a f : V → W inicial. Suponhamos que, al´em da mudan¸ca de bases em V ,
descrita por P, temos a mudan¸ca de bases ˜B para ˜B1 em W, descrita pela matriz
Q = M(1W , ˜B1, ˜B). Sendo A1 = M(f, B1, ˜B1), resulta de se ter f = 1W ◦ f ◦ 1V , de
(4.27) e de (4.30) que
A = QA1P. (4.33)
49. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 48
Em particular, se f : V → V ´e um endomorfismo e usamos a mesma base dos
dois lados, uma mudan¸ca de bases, de ambos os lados, descrita por P, produz o
efeito A = P−1
A1P.
Exemplos:
1. Consideremos o exemplo 1 da sec¸c˜ao 4.2.2 e, em W = R2[ξ], mudemos da
base ˜B = {ξ2
, ξ, 1} para a base ˜B1 = {(ξ + 2)2
, (ξ + 2), 1}. Imediatamente
calculamos
ξ2
= (ξ + 2)2
− 4(ξ + 2) + 4
ξ = (ξ + 2) − 2
1 = 1
(4.34)
pelo que
Q = M(1W , ˜B, ˜B1) =
1 0 0
−4 1 0
4 −2 1
. (4.35)
Logo
M(f, B, ˜B1) = Q
2 0
3 3
4 −1
=
2 0
−5 3
6 −7
. (4.36)
Podemos usar este resultado para escrever3
f na nova base:
f(x, y) = 2x(ξ + 2)2
+ (−5x + 3y)(ξ + 2) + 6x − 7y. (4.37)
Lembrar que tamb´em as matrizes, fixadas as bases, determinam un´ıvocamente
as aplica¸c˜oes lineares.
2. Como exemplo de aplica¸c˜ao, temos que se pode definir o determinante de
um endomorfismo f : V → V . Basta escrever
det f = det (M(f, B, B)). (4.38)
´E trivial provar, por (4.32) e (4.33), que (4.38) n˜ao depende da escolha da
base. Por exemplo, se f(v) = κv, ent˜ao det f = κn
.
4.2.4 Valores e vectores pr´oprios
Suponhamos que ´e dado um endomorfismo f : V → V de um espa¸co vectorial V
sobre R. Interessa-nos encontrar as direc¸c˜oes em V , socorrendo-nos aqui de uma
3 ´E o desenvolvimento de Taylor do polin´omio em ξ em torno de −2.
50. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 49
linguagem geom´etrica, sobre as quais a imagem de f se expande ou se contrai. Ou
seja, interessam as direc¸c˜oes n˜ao nulas u ∈ V tais que
f(u) = λ0u (4.39)
para algum λ0 ∈ R. Um vector como u chama-se um vector pr´oprio de f asso-
ciado ao valor pr´oprio λ0.
Assumamos que V tem dimens˜ao finita n e que uma sua base foi pr´eviamente
escolhida. ´E claro que a equa¸c˜ao f(u) − λu = 0 tem solu¸c˜oes em u, λ, u = 0, sse o
sistema homog´eneo (A − λ1n)X = 0 ´e poss´ıvel indeterminado, quando representa-
mos por A a matriz de f (veja-se (4.24)).
Escrevendo o polin´omio caracter´ıstico de A,
pA(λ) = det (A − λ1n), (4.40)
diz´ıamos que o sistema tem solu¸c˜ao (u, λ0) sse λ0 ´e uma ra´ız de pA, ou seja,
λ0 ´e valor pr´oprio de A ⇐⇒ pA(λ0) = 0. (4.41)
Com efeito, se aquele determinante ´e nulo, a matriz A − λ01n tem caracter´ıstica
< n e logo o sistema tem solu¸c˜oes u ∈ V n˜ao nulas. E rec´ıprocamente.
Prova-se, reflectindo um pouco sobre as defini¸c˜oes, que pA ´e de facto um polin´omio
em λ, que o seu grau ´e n, que o coeficiente do termo λn
´e (−1)n
e que o termo in-
dependente ´e |A|.
Exemplo:
1. Seja f(x, y) = (2x, 3x − y) de R2
para si mesmo. A sua matriz na base
can´onica (1, 0), (0, 1) e o respectivo polin´omio caracter´ıstico s˜ao
A =
2 0
3 −1
, pA =
2 − λ 0
3 −1 − λ
= (λ − 2)(λ + 1). (4.42)
Ent˜ao os valores pr´oprios s˜ao 2 e −1. Os vectores pr´oprios associados resultam
de resolver, por exemplo, f(x, y) = 2(x, y). Isto ´e equivalente a (2x, 3x−y)−
2(x, y) = 0, ou ainda x = y. Segue portanto que os vectores em U2 = {(y, y) :
y ∈ R} = (1, 1) s˜ao associados ao valor pr´oprio 2. Fazendo o mesmo para
−1, vˆe-se logo que o respectivo subespa¸co pr´oprio ´e U−1 = (0, 1) .
Dissemos bem no exemplo anterior. Prova-se sem dificuldade que o subespa¸co
pr´oprio de V associado ao valor pr´oprio λ0 de f,
Uλ0 = u ∈ V : f(u) = λ0u , (4.43)
´e um subespa¸co vectorial. A sua dimens˜ao ´e a multiplicidade geom´etrica de λ0.
Esta distingue-se da multiplicidade alg´ebrica de λ0, que ´e a multiplicidade do
valor pr´oprio λ0 como ra´ız de pA.
51. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 50
H´a, no m´aximo, tantas direc¸c˜oes pr´oprias linearmente independentes dentro de
Uλ0 quanto a multiplicidade alg´ebrica de λ0. Ou seja,
m.g. λ0 ≤ m.a. λ0. (4.44)
O caso da matriz
3 3
0 3
mostra-nos o problema que est´a em procurar uma
base de vectores pr´oprios. No exemplo vertente, de valor pr´oprio 3, 1 = m.g. 3 ≤
m.a. 3 = 2.
Seguramente para valores pr´oprios distintos h´a independˆencia linear, como diz
o
Teorema 19. Vectores pr´oprios u1, . . . , uk ∈ V de uma aplica¸c˜ao linear f associ-
ados a valores pr´oprios distintos λ1, . . . , λk, respectivamente, formam um sistema
de vectores linearmente independente.
Demonstra¸c˜ao. Por indu¸c˜ao em k. Sendo o resultado claro para k = 1, admitamo-
lo como v´alido para k e provˆemo-lo para k + 1. Podemos j´a supˆor λk+1 = 0.
Suponhamos, por absurdo, que existem escalares α1, . . . , αk tais que
uk+1 = α1u1 + · · · + αkuk.
Aplicando ent˜ao f de ambos os lados temos, por defini¸c˜ao e por linearidade,
λk+1uk+1 = λ1α1u1 + · · · + λkαkuk.
Ou seja, igualando a uk+1, temos
α1u1 + · · · + αkuk =
λ1α1
λk+1
u1 + · · · +
λkαk
λk+1
uk.
Agora, para vectores linearmente independentes, h´a unicidade da escrita de uma
combina¸c˜ao linear. Usando a hip´otese de indu¸c˜ao, s´o podemos ter ent˜ao λi
λk+1
=
1, ∀1 ≤ i ≤ k. Mas isto contradiz o facto de os λi serem todos distintos.
Outra forma de enunciar o teorema ´e simplesmente dizer que os diferentes sube-
spa¸cos vectoriais pr´oprios
Uλ1 ⊕ · · · ⊕ Uλk
(4.45)
est˜ao em soma directa.
4.2.5 Matrizes semelhantes
Duas matrizes quadradas A, A1 de ordem n dizem-se semelhantes se existe uma
matriz invert´ıvel P de ordem n tal que
A1 = PAP−1
. (4.46)
52. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 51
Trata-se de uma rela¸c˜ao de equivalˆencia entre matrizes, cf. 1.1.2. Por exemplo,
a propriedade de transitividade resulta de
A = PA1P−1
& A1 = QA2Q−1
(4.47)
implicar
A = PQA2Q−1
P−1
= (PQ)A2(PQ)−1
. (4.48)
A reflexividade e simetria s˜ao ainda mais simples de ver.
J´a vimos que s˜ao semelhantes as v´arias matrizes M(f, B, B) de um endomorfismo
f representadas nas diferentes bases B de um mesmo espa¸co vectorial.
Pela mesma raz˜ao de representarem endomorfismos e de os vectores pr´oprios
destes serem independentes da base fixada, o polin´omio caracter´ıstico de matrizes
semelhantes n˜ao se altera:
pA(λ) = pA1 (λ). (4.49)
Mas pode e deve-se verificar este facto directamente da defini¸c˜ao de pA1 .
Uma matriz diz-se diagonaliz´avel se for semelhante a uma matriz diagonal.
Podemos agora afirmar sint´eticamente que um endomorfismo admite uma base
de vectores pr´oprios sse a sua representa¸c˜ao matricial ´e diagonaliz´avel.
A melhor aproxima¸c˜ao ao problema de diagonaliza¸c˜ao de uma matriz ´e dada,
grosso modo, pelo teorema da forma can´onica de Jordan, que estudaremos mais
tarde.
Para finalizar, lembramos que h´a invariantes num´ericos da classe de equivalˆencia
por semelhan¸ca de cada matriz. O primeiro, j´a visto no exemplo 2 de 4.2.3, ´e o
determinante.
O mesmo se passa com o tra¸co de uma matriz. Chamamos tra¸co de A `a soma
das entradas da diagonal principal.
Tr : Mn,n −→ R, Tr A =
n
i=1
aii (4.50)
´e uma aplica¸c˜ao linear `a qual acresce a propriedade
Tr (AB) = Tr (BA) (4.51)
para quaisquer matrizes A, B ∈ Mn,n.
Donde Tr A1 = Tr (PAP−1
) = Tr (P−1
PA) = Tr A para matrizes semelhantes.
53. Cap´ıtulo 5
5.1 Geometria do Espa¸co Euclidiano
5.1.1 Produto interno euclidiano
No espa¸co euclidiano Rn
, os problemas m´etricos, ´etimo de problemas de medi¸c˜ao, s˜ao
entendidos como aqueles que envolvem quest˜oes sobre o produto interno euclidiano.
Trata-se de um conceito matem´atico que joga o papel da r´egua e do compasso, ou
seja, dos instrumentos de medida de distˆancias e ˆangulos. Assim ser´a tamb´em
em geral, como veremos mais tarde, em qualquer espa¸co vectorial munido de um
dispositivo em tudo semelhante e ainda designado de produto interno.
Comecemos pela presente situa¸c˜ao.
O produto interno euclidiano consiste na fun¸c˜ao1
Rn
× Rn
−→ R, (u, v) −→ u, v =
n
i=1
xiyi (5.1)
onde se admite u = (x1, . . . , xn), v = (y1, . . . , yn).
´E imediato constatar que o produto interno ´e uma aplica¸c˜ao bilinear, ou seja, lin-
ear em u quando se fixa v e vice-versa. Basta ali´as verific´a-lo de um lado, porque tem
a propriedade adicional de ser sim´etrico. Assim, ∀u, u1, u2, v, v1, v2 ∈ Rn
, λ, µ ∈ R,
u1 + λu2, v1 + µv2 = u1, v1 + µv2 + λ u2, v1 + µv2 =
= u1, v1 + µ u1, v2 + λ u2, v1 + λµ u2, v2 ,
u, v = v, u .
(5.2)
Verifica-se tamb´em que u, u ≥ 0, com igualdade sse u = 0.
Posto isto, pode-se definir a norma de um vector, associada ao produto interno
euclidiano, como sendo
u = u, u = x2
1 + · · · + x2
n. (5.3)
1
Roga-se ao leitor o cuidado de n˜ao confundir os parˆenteses do p.i. com os de subespa¸co gerado.
54. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 53
O leitor, numa primeira abordagem, poder´a aqui reconhecer formalmente o teorema
de Pit´agoras.
O produto interno euclidiano respeita mesmo a decomposi¸c˜ao de Rn
como soma
directa Rn1
⊕ Rn2
, onde n = n1 + n2, de espa¸cos com produto interno. ´E imediato
provar pela defini¸c˜ao, em sentido dos ´ındices f´acil de entender, que se tem
u, v n = u1, v1 n1 + u2, v2 n2 (5.4)
onde u = u1 + u2 e v = v1 + v2 representa a decomposi¸c˜ao, ´unica, na soma directa.
Daqui segue de facto o teorema de Pit´agoras, mas vˆe-lo-emos adiante noutra forma,
mais geral.
Como exemplo a destacar, calculemos o produto interno de alguns pares de
vectores em Rn
. Seja ei = (0, . . . , 0, 1, 0, . . . , 0), i = 1, . . . , n, a base can´onica;
ent˜ao
ei, ei = 02
+ · · · + 02
+ 12
+ 02
+ · · · + 02
= 1
ei, ej = 02
+ · · · + 0.1 + · · · + 1.0 + · · · + 02
= 0
(5.5)
para i = j.
A norma euclidiana obedece `a desigualdade de Cauchy
| u, v | ≤ u v , com igualdade sse u, v s˜ao colineares. (5.6)
A demonstra¸c˜ao pode ser feita por indu¸c˜ao ou pela an´alise do bin´omio descriminante
da par´abola u+λv, u+λv em λ, a qual como j´a vimos est´a sempre acima do eixo
dos λ’s.
Repare-se agora nas propriedades, f´aceis de provar, para todos os vectores e
escalares,
λu = |λ| u , u + v ≤ u + v . (5.7)
A segunda chama-se desigualdade triangular.
A desigualdade de Cauchy permite definir o ˆangulo entre dois vectores
(u, v) = arccos
u, v
u v
(5.8)
com a determina¸c˜ao de arccos, e.g., entre 0 e π.
5.1.2 Ortogonalidade
Seja U ⊂ Rn
um subconjunto qualquer, n˜ao vazio. Define-se o ortogonal de U
como o subconjunto
U⊥
= v ∈ Rn
: u, v = 0, ∀u ∈ U . (5.9)
Tem-se que U⊥
´e sempre um subespa¸co vectorial.
55. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 54
Por linearidade, ´e evidente que U⊥
aparece como espa¸co solu¸c˜ao do sistema
homog´eneo em v = (x1, . . . , xn) de, digamos, k equa¸c˜oes lineares:
u1, v = 0, u2, v = 0, . . . , uk, v = 0 (5.10)
onde u1, . . . , uk ´e um sistema de vectores linearmente independente maximal dentro
de U, ou seja, uma base de U (subespa¸co gerado por U). Logo dim U⊥
= n − k.
Como U⊥
∩ U = {0}, est´a provado o
Teorema 20. Para qualquer subconjunto U do espa¸co euclidiano, temos a decom-
posi¸c˜ao em soma directa
Rn
= U⊥
⊕ U . (5.11)
Em particular, dim U⊥
= n − dim U .
Seja V um subespa¸co vectorial; de modo que Rn
= V ⊕ V ⊥
.
Podemos definir aplica¸c˜oes lineares π : Rn
→ V e π⊥
: Rn
→ V ⊥
dadas pela
decomposi¸c˜ao ´unica, ∀w ∈ Rn
, w = w1 + w2 com w1 ∈ V, w2 ∈ V ⊥
: escrevemos
ent˜ao π(w) = w1, π⊥
(w) = w2. Tˆem-se ent˜ao as rela¸c˜oes:
1Rn = π + π⊥
, π ◦ π⊥
= 0, π⊥
◦ π = 0,
π ◦ π = π π⊥
◦ π⊥
= π⊥
, ker π = V ⊥
ker π⊥
= V.
(5.12)
π e π⊥
s˜ao de facto lineares e chamam-se projec¸c˜oes ortogonais.
Repare-se que a sucess˜ao de aplica¸c˜oes lineares
0 −→ V ⊥ ι
−→ Rn π
−→ V −→ 0 (5.13)
com ι a aplica¸c˜ao de inclus˜ao, ι(w) = w, verifica em cada espa¸co que a imagem da
aplica¸c˜ao anterior ´e igual ao n´ucleo da seguinte.
´E claro que {0}⊥
= Rn
, Rn⊥
= {0}. Mais cuidado ´e preciso ter em verificar que
(U⊥
)⊥
= U . (5.14)
Em particular, para um subespa¸co vectorial V ⊂ Rn
, tem-se (V ⊥
)⊥
= V . (´E pela
dedu¸c˜ao da dimens˜ao, vista no teorema acima, que se afirma a inclus˜ao do ortogonal
do ortogonal em V .)
Por exemplo em R2
, o ortogonal ao vector (a, b), suposto = 0, ´e a recta gerada
por (−b, a).
Em R3
, o ortogonal a (a, b, c), suposto = 0, ´e o plano (dim 2) gerado pelo
sistema de vectores linearmente dependente (−b, a, 0), (−c, 0, a), (0, c, −b). Com
efeito, todos os trˆes vectores s˜ao ortogonais a (a, b, c), como se vˆe por exemplo no
caso do primeiro, (−b, a, 0), (a, b, c) = −ba + ab + 0c = 0, e tem-se a combina¸c˜ao
linear −c(−b, a, 0)+b(−c, 0, a)+a(0, c, −b) = 0, donde apenas dois em trˆes daqueles
vectores s˜ao linearmente independentes.
56. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 55
Escrevemos agora duas identidades cuja verifica¸c˜ao ´e um exerc´ıcio. Primeiro, a
do paralelogramo
u + v 2
+ u − v 2
= 2 u 2
+ 2 v 2
(5.15)
e, segundo, a identidade de Pit´agoras generalizada: se u ⊥ v, ou seja, u, v = 0,
ent˜ao
u + v 2
= u 2
+ v 2
. (5.16)
Muitos problemas surgem em geometria euclidiana dos subespa¸cos de Rn
para
os quais certas bases s˜ao mais indicadas que outras.
Dizemos, para come¸car, que um vector u ´e unit´ario ou normado se u = 1.
Define-se base ortonormada como uma base {u1, . . . , un} do espa¸co euclidiano
formada de vectores unit´arios e ortogonais entre si. Ou seja,
uα, uβ = δαβ =
1 se α = β
0 se α = β
(5.17)
Os δαβ s˜ao chamados de s´ımbolos de Kronecker e correspondem `as entradas
da matriz 1n.
Exemplos:
1. A c´elebre base can´onica de Rn
´e uma base ortonormada, cf. (5.5).
2. Seja U o subespa¸co vectorial de R4
gerado por u1 = (1, 2, 3, 0) e u2 =
(2, 1, 4, −1). Portanto U = {λ1u1 + λ2u2 : λ1, λ2 ∈ R}. ´E f´acil ver que
os dois geradores s˜ao linearmente independentes, ie. formam uma base de U.
A projec¸c˜ao de u2 sobre a recta ortogonal a u1 dentro de U ´e u2 = u2 − v
onde v = u1, u2
u1
u1
2 . Com efeito,
u1, u2 = u1, u2 − u1, u2
u1, u1
u1
2
= 0
e, por outro lado, u2 = u2 + v com v sobre o eixo u1. Ent˜ao
˜u1 =
u1
u1
=
1
√
14
(1, 2, 3, 0) e ˜u2 =
u2
u2
=
1
√
182
(6, −9, 4, −7) (5.18)
formam outra base de U, desta feita uma base ortonormada: ˜ui, ˜uj = δij,
i, j = 1, 2.
Agora, U⊥
´e dado pelos vectores (x, y, z, w) solu¸c˜ao de
x + 2y + 3z = 0
2x + y + 4z − w = 0
. (5.19)