SlideShare uma empresa Scribd logo
1 de 73
Baixar para ler offline
Prontu´ario de
´Algebra Linear e Geometria Anal´ıtica
R. Albuquerque
14 de Fevereiro de 2013
Prontu´ario de
´Algebra Linear e Geometria Anal´ıtica
Segunda vers˜ao
Rui Albuquerque
rpa@uevora.pt
Departamento de Matem´atica da Universidade de ´Evora
Rua Rom˜ao Ramalho, 59, 7000-671 ´Evora, Portugal
Introdu¸c˜ao
Estes apontamentos serviram de guia `a disciplina ´Algebra Linear e Geometria
Anal´ıtica das licenciaturas em ´areas da Engenharia e da F´ısica da Universidade de
´Evora do ano lectivo 2008/09. A mat´eria segue a das aulas te´oricas, complementada
com exemplos e problemas novos.
Percorrem-se diversos temas da ´algebra ligados `a geometria dos espa¸cos vec-
toriais e das aplica¸c˜oes lineares, estruturas fundamentais da F´ısica-Matem´atica-
Engenharia.
2
Desejamos cumprir objectivos pr´aticos e concretos de transmiss˜ao do conheci-
mento. Todavia, queremos que estas notas contrariem, ou mesmo n˜ao permitam, a
redu¸c˜ao da mat´eria “a um punhado de receitas” e a desvaloriza¸c˜ao do saber te´orico.
E por duas raz˜oes: nem o conhecimento pr´atico ser´a sempre ´util, nem “o saber
te´orico ocupa assim tanto lugar”, parafraseando o c´elebre ad´agio popular.
O conhecimento te´orico dever´a ser ali´as o esteio de toda a forma¸c˜ao cient´ıfico-
t´ecnica de base.
Vemos a necessidade, como em qualquer outra disciplina nuclear da Matem´atica,
de demonstrar os teoremas e proposi¸c˜oes que vamos escrevendo. Estas demon-
stra¸c˜oes apoiam-se em defini¸c˜oes e, naturalmente, em teoremas e proposi¸c˜oes anteri-
ores. Assumimos de conhecimento do leitor outras teorias ou delas uma ligeir´ıssima
parte, como a dos conjuntos, da l´ogica, da geometria euclidiana ou dos n´umeros
naturais.
Explicada a extens˜ao aparente do conte´udo, deve o leitor acompanhar-se de uma
folha de papel e l´apis para resolver algumas afirma¸c˜oes n˜ao provadas — aquelas
que s˜ao apenas auxiliares de objectivos maiores ou que julgamos ser˜ao exerc´ıcios
interessantes.
Vejamos um resumo dos cap´ıtulos.
Come¸camos com a ´algebra abstracta, que tem algumas defini¸c˜oes essenciais para
a parte linear da mat´eria. S˜ao particularmente importantes a no¸c˜ao de fun¸c˜ao e
a no¸c˜ao de grupo, que desde cedo devem ser assimiladas. Outras defini¸c˜oes neste
primeiro cap´ıtulo servem apenas para ilustrar problemas com que os matem´aticos se
debatem, esperando que este contacto traga mais luz que permita ao leitor superar
alguns dos purismos que a teoria exige.
Segue-se o estudo das matrizes e dos sistemas de equa¸c˜oes lineares, onde reina o
espa¸co vectorial Rn
posto que nos limitamos a coeficientes reais. Para os sistemas,
invocamos princ´ıpios cl´assicos de equivalˆencia ou indepedˆencia de equa¸c˜oes. Para
levar `a compreens˜ao da no¸c˜ao de caracter´ıstica de uma matriz e `a de indepedˆencia
linear de um sistema de vectores.
Neste contexto segue o cap´ıtulo dos determinantes para matrizes quadradas de
coeficientes em R. Apoia-se em elementos da teoria dos grupos de permuta¸c˜oes.
Depois vemos as propriedades multilineares da fun¸c˜ao determinante, a linguagem
que permitir´a o aluno interessado prosseguir em Geometria-F´ısica modernas.
O cerne da ´Algebra Linear encontra-se no cap´ıtulo quatro, com a introdu¸c˜ao e
manuseio dos conceitos de espa¸co vectorial e aplica¸c˜ao linear.
Mesmo em dimens˜ao finita, em que escolhida uma base poderemos fazer a iden-
tifica¸c˜ao de um dado espa¸co vectorial com Rn
, os conceitos abstractos s˜ao os mais
valiosos. S˜ao as bases e a dimens˜ao do espa¸co, a partir da no¸c˜ao fundamental de
sistema de vectores linearmente indepedente, s˜ao os exemplos em dimens˜ao infinita,
´e o retorno `as matrizes com o importante conceito de representa¸c˜ao e s˜ao, final-
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 3
mente, as transforma¸c˜oes lineares entre espa¸cos vectoriais e a procura de vectores
pr´oprios, como direc¸c˜oes singulares que s˜ao, de um endomorfismo linear.
No cap´ıtulo cinco mostramos aplica¸c˜oes na geometria do espa¸co euclidiano Rn
,
com o seu produto interno can´onico: o mais elementar produto interno decorre da
generaliza¸c˜ao do teorema de Pit´agoras. ´E de notar que nesse modelo se verifica o
axioma das paralelas para hiperplanos afins. Temos por isso tamb´em uma geometria
euclidiana no sentido axiom´atico.
Apresentamos uma classifica¸c˜ao dos s´olidos plat´onicos, exemplo da geometria
anal´ıtica e combinat´oria n˜ao usual no contexto de cursos como este. Por muitos
considerada uma autˆentica maravilha da matem´atica, aqueles s´olidos poli´edricos,
infelizmente, ainda s˜ao pouco conhecidos dos estudantes. A nossa necessidade de
referir os poliedros vem de uma sec¸c˜ao final, em que se define volume como “´area
da base vezes altura’, a qual tem m´ultiplas aplica¸c˜oes e literalmente nos permite
fechar o c´ırculo, retornando `as matrizes e aos determinantes de cap´ıtulos iniciais.
Na elabora¸c˜ao deste prontu´ario fizemos uso dos manuais dos nossos mestres,
[Agu83], [Mac90] e [Mon89], e de outras gratas referˆencias para n´os como a de
[Aud03].
Tamb´em benefici´amos da consulta `a enciclop´edia [Wik] e assim poder´a e dever´a
acontecer, acautele-se a falta de demonstra¸c˜oes, com o leitor ´avido de mais con-
hecimento.
Conte´udo
1 6
1.1 T´opicos elementares da Teoria dos Conjuntos . . . . . . . . . . . . 6
1.1.1 Primeiras no¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.2 Rela¸c˜oes de equivalˆencia . . . . . . . . . . . . . . . . . . . . 7
1.1.3 Fun¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 T´opicos de Estruturas Alg´ebricas . . . . . . . . . . . . . . . . . . . 9
1.2.1 Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 An´eis e Corpos . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 14
2.1 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.1 Primeiras defini¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.2 Matrizes especiais . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.3 Transposta . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Sistemas de Equa¸c˜oes Lineares . . . . . . . . . . . . . . . . . . . . . 18
2.2.1 M´etodo de resolu¸c˜ao pela adi¸c˜ao ordenada . . . . . . . . . . 18
2.2.2 Condensa¸c˜ao de uma matriz . . . . . . . . . . . . . . . . . . 19
2.2.3 Estudo dos sistemas . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Espa¸co Euclidiano . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.1 O espa¸co vectorial Rn
ou espa¸co euclidiano . . . . . . . . . . 21
2.3.2 Independˆencia linear . . . . . . . . . . . . . . . . . . . . . . 22
2.4 A caracter´ıstica e a inversa de novo . . . . . . . . . . . . . . . . . . 23
2.4.1 Caracter´ıstica de linha vs caracter´ıstica de coluna . . . . . . 23
2.4.2 C´alculo da inversa . . . . . . . . . . . . . . . . . . . . . . . 25
3 27
3.1 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1.1 Grupos de permuta¸c˜oes . . . . . . . . . . . . . . . . . . . . . 27
3.1.2 Defini¸c˜ao de determinante . . . . . . . . . . . . . . . . . . . 29
3.1.3 Propriedades do determinante . . . . . . . . . . . . . . . . . 29
3.1.4 C´alculo de determinantes . . . . . . . . . . . . . . . . . . . . 31
3.1.5 Regra do produto . . . . . . . . . . . . . . . . . . . . . . . . 32
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 5
3.2 Regra de Laplace e aplica¸c˜oes . . . . . . . . . . . . . . . . . . . . . 34
3.2.1 Regra de Laplace . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.2 A matriz adjunta . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.3 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . 37
4 39
4.1 Espa¸cos vectoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.1.1 Defini¸c˜oes e exemplos . . . . . . . . . . . . . . . . . . . . . . 39
4.1.2 Bases e dimens˜ao . . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.3 Soma cartesiana e soma directa . . . . . . . . . . . . . . . . 42
4.2 Aplica¸c˜oes lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.1 Defini¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.2 Representa¸c˜ao matricial . . . . . . . . . . . . . . . . . . . . 44
4.2.3 Composi¸c˜ao vs produto . . . . . . . . . . . . . . . . . . . . 46
4.2.4 Valores e vectores pr´oprios . . . . . . . . . . . . . . . . . . . 48
4.2.5 Matrizes semelhantes . . . . . . . . . . . . . . . . . . . . . . 50
5 52
5.1 Geometria do Espa¸co Euclidiano . . . . . . . . . . . . . . . . . . . . 52
5.1.1 Produto interno euclidiano . . . . . . . . . . . . . . . . . . . 52
5.1.2 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.1.3 Subespa¸cos afins . . . . . . . . . . . . . . . . . . . . . . . . 56
5.1.4 Problemas m´etricos em subespa¸cos afins . . . . . . . . . . . 57
5.2 Geometria de R3
. . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2.1 Equa¸c˜oes de rectas e planos . . . . . . . . . . . . . . . . . . 59
5.2.2 Algumas f´ormulas de distˆancias . . . . . . . . . . . . . . . . 60
5.2.3 Pol´ıgonos e poliedros . . . . . . . . . . . . . . . . . . . . . . 61
5.2.4 Comprimentos, ´areas e volumes . . . . . . . . . . . . . . . . 65
Cap´ıtulo 1
1.1 T´opicos elementares da Teoria dos Conjuntos
1.1.1 Primeiras no¸c˜oes
Ami´ude necessitamos de referir aquilo que se conhece como conjuntos e descrever
as suas rela¸c˜oes, que se entendem como rela¸c˜oes que os elementos desses conjuntos,
e de outros, satisfazem entre si.
Os conjuntos designam-se por letras: A, B, C, .... Se escrevemos x ∈ A, quere-
mos dizer que x pertence a A ou, o que ´e o mesmo, x ´e elemento de A.
Novas rela¸c˜oes/nota¸c˜oes: chamamos intersec¸c˜ao e reuni˜ao, respectivamente,
aos conjuntos
A ∩ B = {x : x ∈ A e x ∈ B}, A ∪ B = {x : x ∈ A ou x ∈ B}. (1.1)
Ao dizermos A ´e subconjunto de B, em s´ımbolos, A ⊂ B, significamos que ∀x ∈
A, x ∈ B.
O conjunto B  A ´e o conjunto {x : x ∈ B e x /∈ A}. Sabendo, de antem˜ao,
o “universo” a que todos os elementos pertencem, podemos escrever e designar por
complementar de B o conjunto Bc
= {x : x /∈ B}.
Poder-se-´a pensar tamb´em no conjunto vazio ∅ como o complementar do “uni-
verso”. ´E o conjunto sem elementos.
Da l´ogica bivalente (l´ogica natural constru´ıda ao longo da evolu¸c˜ao humana de
milh˜oes de anos), resultam as seguintes leis de Morgan:
Ac
∩ Bc
= (A ∪ B)c
Ac
∪ Bc
= (A ∩ B)c
. (1.2)
Claro que (Ac
)c
= A, donde a segunda lei tamb´em resulta da primeira.
Outras constru¸c˜oes importantes de conjuntos s˜ao, por exemplo, o produto
cartesiano de A e B:
A × B = {(a, b) : a ∈ A, b ∈ B}. (1.3)
Os novos elementos “(a, b)” chamam-se pares ordenados.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 7
Note-se que nem todos os subconjuntos de A × B podem ser escritos, de novo,
como produtos cartesianos de subconjuntos de A e B. Por exemplo, tal ´e o caso da
diagonal de um conjunto A, ou seja, ∆(A) = {(a, a) ∈ A × A : a ∈ A}, a qual ´e
distinta de A × A se A tem mais do que um elemento.
Claro que (A ∪ B) × C = A × C ∪ B × C. E analogamente para ∩ no lugar de
∪.
1.1.2 Rela¸c˜oes de equivalˆencia
Algum tipo de rela¸c˜oes entre elementos de um ou v´arios conjuntos ´e particular-
mente ´util na conceptualiza¸c˜ao de novas propriedades e distin¸c˜oes. Por exemplo,
a rela¸c˜ao de ordem total em R est´a intr´ınsecamente ligada aos fundamentos da
An´alise Matem´atica.
Tratamos, neste momento, das rela¸c˜oes de equivalˆencia, as quais decomp˜oem
um dado conjunto X em classes de equivalˆencia. Lembremos que uma rela¸c˜ao
consiste numa determinada escolha de pares ordenados. Dizemos que uma rela¸c˜ao
∼ em X ´e uma rela¸c˜ao de equivalˆencia se:
∀x ∈ X, x ∼ x (reflexividade),
∀x ∈ X, x ∼ y ⇒ y ∼ x (simetria),
∀x, y, z ∈ X, x ∼ y & y ∼ z ⇒ x ∼ z (transitividade).
(1.4)
Claro que as tais classes de equivalˆencia s˜ao dadas por um representante: Cx =
{y : y ∈ X e x ∼ y}. Note-se que o papel de x ´e mesmo e apenas o de representante
da sua classe. ´E f´acil ver que:
Cx ∩ Cx1 = ∅ ⇔ x ∼ x1. (1.5)
Com efeito, se ∃y : x ∼ y e x1 ∼ y, ent˜ao pela simetria e transitividade vem x ∼ x1.
E rec´ıprocamente.
Assim, neste tipo de rela¸c˜oes, as classes ou n˜ao se tocam, ou s˜ao as mesmas.
Mais ainda, qualquer decomposi¸c˜ao de um dado conjunto Z como uni˜ao de
subconjuntos n˜ao vazios e disjuntos dois-a-dois,
Z =
α
Zα, tal que Zα ∩ Zα = ∅, ∀α = α , (1.6)
d´a origem a uma ´unica rela¸c˜ao de equivalˆencia em Z, a saber:
x ∼ y ⇐⇒ ∃α : x, y ∈ Zα. (1.7)
O conjunto dos α’s, isto ´e, formado como o conjunto das classes de equivalˆencia,
denota-se por Z/ ∼.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 8
1.1.3 Fun¸c˜oes
Conceito fundamental em matem´atica ´e o de fun¸c˜ao, um ‘dispositivo’ que estabelece
uma correspondˆencia entre um dado conjunto X, chamado de partida, e outro
conjunto Y , dito de chegada. Tamb´em se chama a uma fun¸c˜ao uma aplica¸c˜ao.
Denota-se por
f : X −→ Y, x ∈ X −→ y = f(x) ∈ Y. (1.8)
Uma tal correspondˆencia s´o ´e uma fun¸c˜ao quando a cada x ∈ X, um objecto, se
atribui um, e um s´o, valor ou imagem y = f(x) ∈ Y .
A fun¸c˜ao diz-se injectiva se, para x’s distintos em X, f atribui valores f(x)’s
tamb´em distintos. Formalmente,
∀x1, x2 ∈ X, x1 = x2 =⇒ f(x1) = f(x2). (1.9)
Logicamente, esta afirma¸c˜ao ´e equivalente a
∀x1, x2 ∈ X, f(x1) = f(x2) =⇒ x1 = x2. (1.10)
A fun¸c˜ao ´e sobrejectiva se todo o y ´e imagem de algum x por meio de f:
∀y ∈ Y, ∃x ∈ X : y = f(x). (1.11)
A fun¸c˜ao ´e bijectiva se for injectiva e sobrejectiva. Neste caso pode-se definir
uma fun¸c˜ao chamada de inversa, a saber, a fun¸c˜ao f−1
: Y −→ X dada por
∀y ∈ Y, o valor de f−1
(y) ´e o ´unico x : f(x) = y. (1.12)
Necessitamos, com frequˆencia, de outras formas de obter novas fun¸c˜oes.
Podemos compˆor duas fun¸c˜oes dadas f : X → Y e g : Z → W, por certa ordem,
desde que, por exemplo, Y, Z tenham pontos em comum. Obtemos, com efeito, a
fun¸c˜ao composta g ◦ f : X → W definida por (g ◦ f)(x) = g(f(x)) e onde X ´e o
dom´ınio onde faz sentido essa mesma express˜ao, isto ´e,
X = {x ∈ X : f(x) ∈ Z}. (1.13)
Dado um conjunto X chamamos fun¸c˜ao identidade a 1X : X → X, 1X(x) = x.
Uma fun¸c˜ao f : X → Y tem uma inversa `a esquerda, isto ´e, ∃g : Y → X tal
que g ◦ f = 1X se, e s´o se1
, f for injectiva.
Uma fun¸c˜ao f : X → Y tem uma inversa `a direita, isto ´e, ∃h : Y → X tal
que f ◦ h = 1Y sse f for sobrejectiva.
As duas afirma¸c˜oes anteriores s˜ao exerc´ıcios para o leitor. Delas se conclui, no
caso em que f ´e bijectiva, h = g = f−1
.
1
Daqui em diante, como abreviatura de “se, e s´o se,” tomamos “sse”. Significa o mesmo que
“equivalente”.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 9
Uma rela¸c˜ao bem estabelecida entre um par de conjuntos2
´e a seguinte, denotada
:
A B sse existe fun¸c˜ao bijectiva entre A e B. (1.14)
Trata-se de uma rela¸c˜ao de equivalˆencia, como ´e f´acil provar.
Outras ‘identifica¸c˜oes’ se podem naturalmente estabelecer. Por exemplo, para
trˆes conjuntos dados, tem-se A × (B × C) = (A × B) × C.
1.2 T´opicos de Estruturas Alg´ebricas
1.2.1 Grupos
A no¸c˜ao alg´ebrica simultˆaneamente mais elementar e necess´aria ´e a de grupo.
Um conjunto G munido de uma opera¸c˜ao bin´aria
G × G → G, (a, b) → ab, (1.15)
que satisfaz
- associatividade : ∀a, b, c ∈ G, (ab)c = a(bc),
- existe elemento neutro : ∃e ∈ G : ∀a ∈ G, ae = ea = a,
- todos os elementos tˆem inverso : ∀a ∈ G, ∃b ∈ G : ab = ba = e,
(1.16)
chama-se um grupo.
Prova-se facilmente que o elemento neutro ´e ´unico e que o inverso de cada
elemento tamb´em ´e ´unico. O truque est´a, em ambos os casos, em come¸car por
supˆor que existem dois elementos e acabar por chegar a um absurdo.
Us´amos acima a nota¸c˜ao multiplicativa. Por vezes usa-se a aditivia. Na primeira
nota¸c˜ao, o elemento neutro designa-se por e ou por 1. Na segunda, por 0. Na
primeira nota¸c˜ao, o inverso de a denota-se por a−1
, e na segunda denota-se por −a
e chama-se oposto ou sim´etrico de a.
Exemplos:
1. (R, +) ´e um grupo com a opera¸c˜ao de adi¸c˜ao + usual.
2. (R  {0}, ·) ´e um grupo com a opera¸c˜ao de multiplica¸c˜ao usual.
3. Seja dado um conjunto X e seja
G := A(X) = {f : X → X| f ´e bijectiva} (1.17)
o conjunto das fun¸c˜oes bijectivas de X para X. Ent˜ao G ´e um grupo se
tomarmos como opera¸c˜ao a composi¸c˜ao de fun¸c˜oes. Com efeito, se f, g ∈ G,
2
Evitemos desde j´a o paradoxo que consiste em tomar “o conjunto de todos os conjuntos”.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 10
ent˜ao f◦g tamb´em est´a em G porque tamb´em ´e uma fun¸c˜ao bijectiva. Vejamos
a associatividade: duas fun¸c˜oes com o mesmo espa¸co de partida e de chegada
s˜ao iguais se, a cada objecto, fazem corresponder a mesma imagem. Ent˜ao,
por defini¸c˜ao, tomando um terceiro elemento h ∈ G e qualquer x ∈ X,
(g ◦ f) ◦ h (x) = (g ◦ f)(h(x)) = g(f(h(x))) = g ◦ (f ◦ h) (x).
Donde (g◦f)◦h = g◦(f ◦h), como quer´ıamos. Agora, o elemento neutro de G
´e naturalmente a fun¸c˜ao identidade 1X. E o inverso de f coincide exactamente
com a fun¸c˜ao inversa, como se esperava.
Nos grupos dos exemplos 1 e 2 acima, as opera¸c˜oes, bem conhecidas, s˜ao comu-
tativas.
Um grupo G qualquer diz-se comutativo ou abeliano se
ab = ba, ∀a, b ∈ G. (1.18)
O exemplo 3 de h´a pouco n˜ao ´e comutativo em geral. Repare-se no grupo de
permuta¸c˜oes de n ∈ N elementos, ou grupo sim´etrico Sn, o qual consiste no
grupo A(X) com X = {1, 2, 3, . . . , n}. ´E simples concluir que A(X) = Sn tem n!
elementos.
Se n ≥ 3, ent˜ao aquele grupo n˜ao ´e comutativo. Basta pensar nas seguintes
fun¸c˜oes (em cima est˜ao os objectos, em baixo as respectivas imagens):
f =
1 2 3
1 3 2
, g =
1 2 3
2 1 3
, (1.19)
admitindo ainda que f, g fixam todos os i ≥ 4. Resulta ent˜ao
f ◦ g =
1 2 3
3 1 2
, g ◦ f =
1 2 3
2 3 1
(1.20)
onde se rende expl´ıcita a falta de comutatividade.
H´a muitos mais grupos n˜ao comutativos que comutativos.
H´a exemplos, como o de grupo de permuta¸c˜oes, que explicam muito. Veja-se o
seguinte teorema c´elebre.
Teorema 1 (Cayley). Todo o grupo G ´e subgrupo de um grupo de permuta¸c˜oes.
A no¸c˜ao de subgrupo ´e a de um subconjunto que herda a estrutura do grupo
em que est´a contido. Portanto, um subconjunto fechado para a opera¸c˜ao do grupo
e para a passagem ao inverso.
Vejamos a demonstra¸c˜ao do teorema de Cayley.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 11
Demonstra¸c˜ao. Com efeito, a cada g ∈ G associamos a seguinte permuta¸c˜ao Lg do
pr´oprio grupo G: Lg : G → G, Lg(h) = gh. Vem ent˜ao que
Lg1g2 (h) = g1g2h = Lg1 (Lg2 (h)) = Lg1 ◦ Lg2 (h), ∀g1, g2, h ∈ G (1.21)
pelo que a estrutura da imagem de L como subgrupo de A(G),
L : G −→ A(G), g → Lg, (1.22)
´e a mesma estrutura de G, pois que L ´e injectiva como se poder´a verificar.
Note-se que a aplica¸c˜ao L est´a subjacente no enunciado do teorema de Cayley.
Raramente, claro, a aplica¸c˜ao L ´e sobrejectiva.
1.2.2 An´eis e Corpos
A no¸c˜ao que se segue ´e muito rica, ainda que dispens´avel num curso de ´Algebra
Linear.
Seja A um conjunto munido de duas opera¸c˜oes, + e ‘vezes’ ·, tais que
- (A, +) ´e grupo comutativo
- a opera¸c˜ao · ´e associativa
- d˜ao-se as propriedades distribuitivas:
a(b + c) = ab + ac, (a + b)c = ac + bc, ∀a, b, c ∈ A.
(1.23)
Dizemos ent˜ao que A ´e um anel. Se · ´e comutativa, o anel A diz-se comutativo
ou abeliano. Se existe elemento neutro 1 da multiplica¸c˜ao, o anel diz-se unit´ario.
(Z, +, ·) ´e o exemplo prim´ario. N˜ao menos o s˜ao o anel dos n´umeros pares,
2Z, ou os m´ultiplos de 3, ou 4, etc... Os an´eis kZ = {kn : n ∈ Z} s˜ao todos
comutativos, mas s´o Z ´e unit´ario.
Outro exemplo menos trivial ´e o anel de fun¸c˜oes RX
, onde X ´e um espa¸co fixado
de in´ıcio.
RX
= {f : X → R} (1.24)
tem soma e produto de fun¸c˜oes bem definidos: ∀f1, f2 ∈ RX
, f1 +f2 e f1f2 definem-
se obviamente por
(f1 + f2)(x) = f1(x) + f2(x), (f1f2)(x) = f1(x)f2(x). (1.25)
RX
´e um anel e provar´a a sua utilidade mais `a frente.
Nos an´eis unit´arios p˜oe-se a quest˜ao de saber quais s˜ao os elementos invert´ıveis
para a multiplica¸c˜ao. Mais ainda, um tal anel A cont´em um grupo U ⊂ A consti-
tu´ıdo pelos elementos invert´ıveis. Por exemplo, o anel Z tem U = {−1, 1}. J´a o
anel Q tem U = Q  {0}.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 12
´E claro que 0 nunca ser´a invert´ıvel: prova-se que 0 · a = 0, ∀a ∈ A.
Um anel K comutativo, unit´ario e com U = K  {0} chama-se um corpo.
S˜ao exemplos de corpos: Q, R, C.
Nos corpos vale a lei do anulamento do produto:
ab = 0 =⇒ a = 0 ou b = 0. (1.26)
Tamb´em s´o nos corpos podemos invocar em geral a lei do corte:
ax = b ⇐⇒ x = a−1
b. (1.27)
Estas leis demonstram-se com grande facilidade. Veremos em seguida que h´a corpos
finitos.
Um famoso teorema de Euclides garante que, se tivermos dois n´umeros inteiros
m, n, ent˜ao existem dois n´umeros inteiros ´unicos q e r (chamados quociente e
resto) tais que
0 ≤ r ≤ n − 1 e m = qn + r. (1.28)
Dizemos que r ´e o resto de m mod n. Se somarmos ou multiplicarmos dois m1, m2 ∈
Z, temos
m1 + m2 = (q1n + r1) + (q2n + r2) = (q1 + q2)n + (r1 + r2),
m1m2 = (q1q2n + r1q2 + q2r1)n + r1r2
(1.29)
Ent˜ao vemos que o resto da soma e do produto mod n ´e o mesmo que o resto mod n
da soma e do produto dos restos, respectivamente.
´E trivial verificar agora que as opera¸c˜oes de + e ‘vezes’ habituais, mas “com
n’s fora”, verificam todas as propriedades de anel, pois elas provˆem das respectivas
propriedades do anel dos inteiros. Assim, prova-se o
Teorema 2. O conjunto dos restos Zn = {0, 1, . . . , n − 1} ´e um anel com a soma
e o produto acima.
D´a-se a Zn o nome de anel dos restos mod n.
Por exemplo, o anel Z5 tem as seguintes tabelas de opera¸c˜oes:
+ 0 1 2 3 4
0 0 1 2 3 4
1 1 2 3 4 0
2 2 3 4 0 1
3 3 4 0 1 2
4 4 0 1 2 3
· 0 1 2 3 4
0 0 0 0 0 0
1 0 1 2 3 4
2 0 2 4 1 3
3 0 3 1 4 2
4 0 4 3 2 1
(1.30)
Curiosamente, vˆe-se que x2
= 3 n˜ao tem solu¸c˜oes mod 5, ou seja em Z5. H´a ent˜ao
lugar para um estudo de novo tipo de equa¸c˜oes alg´ebricas.
Um resultado importante nesta teoria finaliza o nosso cap´ıtulo.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 13
Teorema 3. Zn ´e corpo sse n ´e n´umero primo.
Demonstra¸c˜ao. Suponhamos que Zn ´e corpo e que ab = n, com 1 < a, b < n. Mas
isto ´e o mesmo que ab = 0 mod n e ent˜ao, valendo a lei do corte, resulta a = 0 ou
b = 0, o que ´e absurdo. Assim, n n˜ao tem divisores pr´oprios, ie. ´e primo.
Suponhamos rec´ıprocamente que n ´e primo. Ent˜ao para cada a ∈ Z0 h´a sempre
solu¸c˜oes inteiras x, y de ax + ny = 1 (tal decorre recursivamente do algoritmo
de Euclides, o poder escrever-se assim o mdc de dois quaisquer inteiros a e n).
Obviamente, em Zn temos ax + ny = ax = 1 mod n, pelo que todos os elementos
a ∈ Zn  0 tˆem inverso. E est˜ao verificadas as condi¸c˜oes para termos um corpo.
Cap´ıtulo 2
2.1 Matrizes
2.1.1 Primeiras defini¸c˜oes
Damos o nome de matriz a uma tabela A = [aij]i=1,...,p
j=1,...,q
com entradas ou coefi-
cientes1
aij ∈ R.
O ´ındice p ´e o n´umero de linhas e q o de colunas. Denotamos
A =





a11 a12 · · · a1q
a21 a22 a2q
...
...
...
ap1 ap2 · · · apq





. (2.1)
p e q s˜ao as dimens˜oes da matriz A. Faz jeito chamar
Mp,q = {A : A ´e uma matriz de p linhas e q colunas}. (2.2)
O interesse das matrizes est´a, como veremos mais tarde, na representa¸c˜ao das
aplica¸c˜oes lineares que elas possibilitam.
A estrutura de grupo de (R, +) passa autom´aticamente para Mpq. Dadas quais-
quer matrizes A, B ∈ Mpq, sendo A = [aij] e B = [bij], i = 1, . . . , p, j = 1, . . . , q,
temos por defini¸c˜ao
A + B = [aij + bij], (2.3)
permanecendo em Mpq.
Se λ ∈ R, ent˜ao denotamos por λA a matriz [λaij], com as mesmas dimens˜oes.
Em seguida definimos a multiplica¸c˜ao de duas matrizes. Tamb´em aqui h´a
uma condi¸c˜ao nos ´ındices. Esta opera¸c˜ao tem uma ordem. Logo pomos uma matriz
`a esquerda e outra `a direita, como um par ordenado, e a condi¸c˜ao ´e que, para as
multiplicarmos, a da esquerda deve ter n´umero de colunas igual ao n´umero de linhas
da da direita.
1
Poder´ıamos deixar estes aij pertencerem a um corpo K ou mesmo um anel qualquer pr´evia-
mente fixado, mas aqui prosseguimos apenas com matrizes reais.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 15
Assim
Mpq × Mql −→ Mpl
(A, B) −→ AB.
(2.4)
Atente-se bem no espa¸co de chegada, aquele onde aparece o resultado. O produto
M = AB define-se ent˜ao como segue: pondo M = [ξij]i=1,...,p
j=1,...,l
, temos
ξij = ai1b1j + · · · + aiqbqj =
q
k=1
aikbkj. (2.5)
Prova-se facilmente que esta multiplica¸c˜ao ´e associativa: se A, B s˜ao como acima
e C ∈ Mlr, ent˜ao estamos habilitados a fazer tanto (AB)C como A(BC). Com
alguma surpresa, tem-se ent˜ao
(AB)C = A(BC). (2.6)
Com efeito, sendo M = AB = [ξst]s=1,...,p
t=1,...,l
e BC = [ηuv]u=1,...,l
v=1,...,r
, o elemento gen´erico
de ´ındice (s, v) do produto do lado esquerdo de (2.6) ´e igual a
l
t=1
ξstctv =
l
t=1
q
k=1
(askbkt)ctv =
q
k=1
l
t=1
ask(bktctv) =
q
k=1
askηkv. (2.7)
Us´amos a associatividade e distributividade dos n´umeros reais para reagrupar as
parcelas. O resultado a que se chegou representa o elemento gen´erico de ´ındice
(s, v) do produto do lado direito de (2.6), ou seja A(BC).
Outra propriedade v´alida ´e a distributividade `a esquerda e `a direita: se A, B ∈
Mpq e C, D ∈ Mql, ent˜ao
A(C + D) = AC + AD
(A + B)C = AC + BC.
(2.8)
Note que as igualdades fazem sentido no cˆomputo das dimens˜oes das matrizes. A
demonstra¸c˜ao daquelas igualdades ´e trivial.
Exemplos:
2 3 1
−2 0 1



4 5 3
1 2 5
2 4 0


 =
13 20 21
−6 −6 −6
, (2.9)
2 3 4



−2
3
1


 = 9,



−2
3
1


 2 3 4 =



−4 −6 −8
6 9 12
2 3 4


 . (2.10)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 16
Como se vˆe, as matrizes n˜ao permutam no produto. Dizemos que duas matrizes
dadas A e B permutam ou comutam se AB = BA. Isso n˜ao acontece em geral,
mesmo se forem quadradas.
´E importante notar que Mpp, chamado o espa¸co das matrizes quadradas, ´e
uma anel com a soma e produto introduzidos, pois tal espa¸co ´e fechado para o
produto. O ´ındice de linhas p igual ao ´ındice de colunas tamb´em se diz a ordem
de cada matriz quadrada.
Repare-se agora que, para qualquer matriz A ∈ Mpq,





1 0 · · · 0
0 1 0
... 0
0 0 · · · 1








a11 · · · a1q
...
ap1 · · · apq


 =



a11 · · · a1q
...
ap1 · · · apq


 , (2.11)



a11 · · · a1q
...
ap1 · · · apq








1 0 · · · 0
0 1 0
... 0
0 0 · · · 1





=



a11 · · · a1q
...
ap1 · · · apq


 . (2.12)
Uma matriz quadrada D = [dij] de ordem p diz-se diagonal se dij = 0, ∀i = j.
Chamamos matriz identidade, e denotamo-la por 1p, `a matriz diagonal que tem
dii = 1, ∀i = 1, . . . , p.
As f´ormulas (2.11,2.12) reescrevem-se portanto como
1pA = A e A1q = A. (2.13)
No caso das matrizes quadradas temos, em particular, um elemento neutro da
multiplica¸c˜ao. Destaca-se assim o
Teorema 4. O espa¸co das matrizes quadradas Mpp ´e um anel unit´ario.
Neste espa¸co nem sequer se d´a a lei do anulamento do produto. Veja-se o caso:
0 1
0 0
1 0
0 0
=
0 0
0 0
. (2.14)
2.1.2 Matrizes especiais
´E claro que o espa¸co das matrizes Mm,n, como tabelas de n´umeros reais, se identifica
com Rmn
. O leitor poder´a identificar neste grande espa¸co mais do que um simples
produto cartesiano. H´a uma estrutura de espa¸co vectorial — o que ser´a trivial de
verificar quando explicarmos do que tal se trata.
Uma matriz A ∈ Mmn diz-se invert´ıvel `a esquerda se existe B ∈ Mnm tal
que BA = 1n.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 17
Uma matriz A ∈ Mmn diz-se invert´ıvel `a direita se existe C ∈ Mnm tal que
AC = 1m.
Uma matriz diz-se invert´ıvel se o fˆor `a esquerda e `a direita. Neste caso prova-se
facilmente que B = C e que a matriz A tem de ser quadrada2
, n = m. A matriz
´unica B = C denota-se por A−1
:
AA−1
= A−1
A = 1n. (2.15)
Com efeito, o inverso, quando existe, ´e ´unico. Aqui poder´ıamos falar do grupo das
matrizes invert´ıveis.
Em particular tem-se a regra de invers˜ao do produto:
A, B ∈ Mnn invert´ıveis =⇒ (AB)−1
= B−1
A−1
. (2.16)
Outro tipo de matrizes especiais s˜ao as triangulares superiores:
T = [tij]i=1,...,m
j=1,...,n
, com tij = 0, ∀j < i. (2.17)
Ou seja, T ∈ Mmn tem as entradas todas nulas abaixo da diagonal principal (a
diagonal principal de uma matriz P = [pij] designa os n´umeros pii).
Tamb´em se definem matrizes triangulares inferiores: tij = 0, ∀i < j.
2.1.3 Transposta
Dada uma matriz A ∈ Mmn, definimos a transposta de A = [aij]i=1,...,m
j=1,...,n
como a
matriz AT
∈ Mnm dada por AT
= [aT
ji]j=1,...,n
i=1,...,m
onde
aT
ji = aij. (2.18)
Prova-se com facilidade que a passagem `a transposta do produto verifica:
A ∈ Mmn, B ∈ Mnp =⇒ (AB)T
= BT
AT
. (2.19)
Claro que (AT
)T
= A para qualquer matriz A.
Se A ´e invert´ıvel, ent˜ao prova-se facilmente que (A−1
)T
= (AT
)
−1
.
Agora, uma matriz diz-se sim´etrica se A = AT
. Uma matriz diz-se anti-
sim´etrica se A = −AT
.
O primeiro contributo destas no¸c˜oes est´a na possibilidade de escrever qualquer
matriz quadrada C ∈ Mmm como a soma de uma matriz sim´etrica e de uma anti-
sim´etrica. Essa decomposi¸c˜ao de C est´a em
C =
1
2
C + CT
+
1
2
C − CT
, (2.20)
como o leitor verificar´a.
2
Para ver que n = m, sendo AB = 1m e BA = 1n, atente-se a m = i,j ai,jbi,j = n, o c´alculo
do tra¸co.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 18
2.2 Sistemas de Equa¸c˜oes Lineares
2.2.1 M´etodo de resolu¸c˜ao pela adi¸c˜ao ordenada
Vamos agora estudar os sistemas de m equa¸c˜oes lineares, isto ´e, do 1o
grau, a n
inc´ognitas. Come¸cemos com um exemplo (m, n) = (2, 3) e sua resolu¸c˜ao.
2x + 3y − z = 0
x + 4y = −2z
(2.21)
´e um sistema poss´ıvel indeterminado, o qual se resolve pelo m´etodo de substitui¸c˜ao
como
2x + 3y = z
x + 4y = −4x − 6y 5x = −10y
z = −y
x = −2y
(2.22)
donde, para cada y ∈ R, h´a uma solu¸c˜ao (x, y, z) = (−2y, y, −y).
Outro m´etodo, chamado de adi¸c˜ao ordenada, permite resolver o sistema de
forma mais r´apida.
Utilizando os princ´ıpios elementares de equivalˆencia de equa¸c˜oes, percebemos
que se obt´em um sistema equivalente a (2.21) se multiplicarmos a segunda equa¸c˜ao,
em ambos os termos, por −2. E o mesmo acontece se adicionarmos ordenadamente
esse resultado `a 1a
equa¸c˜ao. Estamos, por hip´otese, a adicionar a mesma quantidade
a ambos os termos, pelo que o novo sistema permanece equivalente.
Conseguimos ‘anular os 2x’ na 1a
equa¸c˜ao.
Fazendo ao mesmo tempo o mesmo para a equa¸c˜ao de baixo, usando a de cima
multiplicada por 2 para ‘anular o z’, obt´em-se:
2x + 3y − z = 0
x + 4y + 2z = 0
−5y − 5z = 0
5x + 10y = 0
z = −y
x = −2y
. (2.23)
Claro que as opera¸c˜oes escolhidas foram as que mais r´apidamente permitiram anular
alguma vari´avel. Este m´etodo tem por isso as suas vantagens sobre o primeiro3
.
Vejamos outro exemplo:



4x + y + z = 0
8x + z = 0
4x − y = 0



4x + y + z = 0
−2y − z = 0
−2y − z = 0



4x + y + z = 0
−2y − z = 0
0 = 0
, (2.24)
´e um sistema poss´ıvel e indeterminado. E outro exemplo:
4x + y = ...
4x − y = ...
8x = ...
−2y = ...
. (2.25)
3
N˜ao ´e prop´osito de um curso de ALGA a procura do melhor algoritmo de resolu¸c˜ao de sistemas.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 19
Neste caso, quaisquer que sejam os valores nas reticˆencias iniciais, o sistema ´e
sempre poss´ıvel e determinado. Mas nem sempre ´e assim. Considere-se o sistema
em x, y:
4x + y = c
8x + 2y = d
4x + y = c
0 = d − 2c
(2.26)
Aqui h´a claramente duas hip´oteses: o sistema ´e poss´ıvel indeterminado se d = 2c,
e imposs´ıvel no caso contr´ario. De qualquer forma o estudo das equa¸c˜oes indepen-
dentes parte dos coeficientes do ‘lado esquerdo’.
2.2.2 Condensa¸c˜ao de uma matriz
Em geral, um sistema de m equa¸c˜oes a n inc´ognitas aparece como



a11x1 + · · · + a1nxn = b1
...
am1x1 + · · · + amnxn = bm
. (2.27)
Claramente podemos escrever (2.27) em termos matriciais:



a11 · · · a1n
...
am1 · · · amn






x1
...
xn


 =



b1
...
bm


 (2.28)
e logo sucintamente como
AX = B (2.29)
onde A, X, B tˆem correspondˆencia ´obvia com as matrizes anteriores.
Nunca esque¸cendo a posi¸c˜ao de cada inc´ognita xi, i = 1, . . . , n, podemos fazer as
adi¸c˜oes ordenadas sobre as linhas da matriz ampliada [A|B], de um dado sistema,
para o resolver.
Suponhamos, por exemplo, que nos s˜ao dadas as equa¸c˜oes



x − y + z = 0,
x + 3y = 1,
z = −3x + 1 + y
. (2.30)
Ent˜ao a matriz ampliada, seguida da multiplica¸c˜ao e adi¸c˜ao ordenada, resulta em



1 −1 1 | 0
1 3 0 | 1
3 −1 1 | 1



L2−L1, L3−3L1
−−−−−−−−−→



1 −1 1 | 0
0 4 −1 | 1
0 2 −2 | 1



L2−2L3, L2↔L3
−−−−−−−−−−→



1 −1 1 | 0
0 2 −2 | 1
0 0 3 | −1



L1+ 1
2
L2, 3L2+2L3
−−−−−−−−−−−→



1 0 0 | 1
2
0 6 0 | 1
0 0 3 | −1


 .
(2.31)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 20
O sistema est´a resolvido, x = 1
2
, y = 1
6
, z = −1
3
. Neste caso, a matriz A ´e quadrada,
pelo que essencialmente fomos ao encontro da sua inversa de modo a obter a solu¸c˜ao
X = A−1
B.
Ao m´etodo anteriormente descrito de resolu¸c˜ao de um sistema d´a-se o nome de
m´etodo de Gauss.
Os exemplos acima mostram o uso da condensa¸c˜ao sobre linhas (ou colunas)
de uma matriz, ou seja a adi¸c˜ao e multiplica¸c˜ao por escalar das linhas (ou colunas)
de uma matriz.
A condensa¸c˜ao sobre as linhas consiste em:
• troca de linhas (para obter elementos n˜ao nulos na diagonal principal ou
simplesmente para simplificar c´alculos)
• multiplica¸c˜ao de uma linha por um escalar n˜ao nulo
• substitui¸c˜ao de uma linha por si pr´opria adicionada de um m´ultiplo n˜ao nulo
de outra linha
• desenvolver este processo de forma ordenada com vista a encontrar uma matriz
triangular superior.
Tamb´em se podem escrever as mesmas regras para a condensa¸c˜ao sobre as col-
unas (a qual n˜ao pode ser feita na resolu¸c˜ao de sistemas, pois estar´ıamos a juntar
coeficientes de inc´ognitas diferentes).
2.2.3 Estudo dos sistemas
Dado o sistema (2.29), ´e imediato concluir que chegamos sempre a um sistema
equivalente do tipo:










ξ11 ξ12 · · · ξ1r · · · ξ1n | η1
0 ξ22 |
0 0
... |
0 · · · 0 ξrr · · · ξrn | ηr
... 0
... 0 |
...
0 0 0 0 | ηm










(2.32)
com r ≤ m, n e os ξii = 0, ∀i = 1, . . . , r.
Os ξ’s resultam da condensa¸c˜ao sobre linhas de A e os η’s resultam das corre-
spondentes transforma¸c˜oes sobre B.
O ´ındice r ´e o n´umero de equa¸c˜oes independentes. Chama-se caracter´ıstica
de linha de A. Se para algum i > r, tivermos ηi = 0, ent˜ao h´a mais ‘equa¸c˜oes
independentes’ na matriz ampliada A|B que em A e o sistema ´e imposs´ıvel. Rec´ıp-
rocamente, de qualquer sistema imposs´ıvel se retira a mesma condi¸c˜ao.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 21
Agora, das primeiras r linhas, vˆe-se bem que o sistema ´e poss´ıvel determinado
sse r = n; ou seja, indeterminado sse r < n. A n − r d´a-se o nome de grau de
indetermina¸c˜ao do sistema (este grau ´e tamb´em a dimens˜ao do espa¸co de solu¸c˜oes
do sistema4
).
Em resumo, pondo r(A) = n´umero de linhas independentes, temos o seguinte
quadro.
r(A) = r(A|B) r(A) < r(A|B)
sistema poss´ıvel s. imposs´ıvel
determinado indeterminado
r(A) = n r(A) < n
sem solu¸c˜oes
(2.33)
2.3 Espa¸co Euclidiano
2.3.1 O espa¸co vectorial Rn
ou espa¸co euclidiano
Temos vindo a considerar as linhas de uma dada matriz e a falar da dependˆencia
linear de um conjunto de linhas. Conv´em ent˜ao considerar o espa¸co M1,n de tais
linhas (com n colunas) e dar-lhe o destaque que merece.
Damos o nome de espa¸co euclidiano ao produto cartesiano Rn
= R × · · · × R
(com n factores). Tamb´em se diz por vezes o espa¸co cartesiano Rn
. Os seus
elementos chamam-se vectores e escrevem-se como n-tuplos ordenados (c1, . . . , cn),
portanto com ci ∈ R.
A adi¸c˜ao de vectores e a multiplica¸c˜ao de um vector por um escalar devolvem-nos
um novo vector (essas opera¸c˜oes s˜ao as mesmas do espa¸co de matrizes acima):
(c1, . . . , cn) + (d1, . . . , dn) = (c1 + d1, . . . , cn + dn),
λ(c1, . . . , cn) = (λc1, . . . , λcn)
(2.34)
∀ci, di, λ ∈ R, i = 1, . . . , n.
Repare-se agora que uma matriz A ∈ Mmn induz uma fun¸c˜ao ou aplica¸c˜ao
A : Rn
−→ Rm
, X −→ AX (2.35)
Esta aplica¸c˜ao tem a propriedade de ser linear5
:
A(λX + µY ) = λAX + µAY, ∀X, Y ∈ Rn
, λ, µ ∈ R. (2.36)
Tal resulta da propriedade distribuitiva do produto sobre a soma. Voltaremos a
estas quest˜oes mais tarde.
4
Isto far´a sentido ap´os a verifica¸c˜ao de que o conjunto de solu¸c˜oes forma um subespa¸co afim.
5
As fun¸c˜oes lineares tomam o nome de aplica¸c˜oes lineares.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 22
2.3.2 Independˆencia linear
Vimos no estudo dos sitemas de equa¸c˜oes lineares a necessidade de fazer anular
linhas de uma dada matriz `a custa de outras linhas. Essa possibilidade d´a lugar a
um conceito em Rn
.
Dizemos que um conjunto (ou um sistema) de m vectores do espa¸co euclidiano
Rn
, ou seja, {L1, . . . , Lm} ⊂ Rn
, ´e um conjunto de vectores linearmente depen-
dentes se podemos escrever um deles como combina¸c˜ao linear dos restantes, isto
´e, se existe um ´ındice i0 e existem escalares α1, . . . , αi0−1, αi0+1, . . . , αm ∈ R tais
que
Li0 = α1L1 + · · · + αi0−1Li0−1 + αi0+1Li0+1 + · · · + αmLm. (2.37)
Repare-se que passando Li0 para o lado direito de (2.37) obtemos o vector nulo
0 escrito como combina¸c˜ao linear n˜ao nula de todos os L1, . . . , Lm.
Uma forma mais simples de dizer o que ´e a dependˆencia linear ser´a pela negativa:
dizemos que m vectores dados L1, . . . , Lm s˜ao linearmente independentes se se
verifica a condi¸c˜ao:
λ1L1 + · · · + λmLm = 0 =⇒ λ1 = · · · = λm = 0. (2.38)
´E um simples problema l´ogico provar que um conjunto de vectores ´e linearmente
independente sse n˜ao ´e linearmente dependente.
Exemplos:
1. Um vector L1 isolado ´e linearmente independente sse L1 = 0. Com efeito, s´o
nesse caso garantimos que λ1L1 = 0 implica λ1 = 0.
2. Os vectores (2, 3), (3, 4) s˜ao linearmente independentes. Com efeito,
λ1(2, 3) + λ2(3, 4) = 0 ⇒
2λ1 + 3λ2 = 0
3λ1 + 4λ2 = 0
⇒
λ1 = 0
λ2 = 0
. (2.39)
3. Se o vector nulo est´a entre os vectores L1, . . . , Lm, ent˜ao este conjunto ´e
linearmente dependente. De facto, podemos escrever 0 como combina¸c˜ao
linear dos restantes vectores. Basta fazer a combina¸c˜ao linear com os escalares
nulos.
4. Num dado subconjunto de Rn
, o n´umero m´aximo de vectores linearmente
independentes que ele poder´a conter ´e n.
O exemplo 4 ´e muito elucidativo. Dito de outra forma: em Rn
quaisquer vectores
L1, . . . , Ln, Ln+1 s˜ao linearmente dependentes.
Com efeito, procurando escrever 0 como combina¸c˜ao linear daqueles, ou seja,
λ1L1 + · · · + λnLn + λn+1Ln+1 = 0, (2.40)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 23
escrevemos o sistema



λ1l11 + · · · + λnln1 + λn+1ln+1,1 = 0
...
λ1l1n + · · · + λnlnn + λn+1ln+1,n = 0
(2.41)
onde Li = (li1, . . . , lin). Como sabemos, tal sistema ´e sempre poss´ıvel indetermi-
nado. Existem ent˜ao solu¸c˜oes λ1, . . . , λn+1 n˜ao nulas, como quer´ıamos.
2.4 A caracter´ıstica e a inversa de novo
2.4.1 Caracter´ıstica de linha vs caracter´ıstica de coluna
Seja M ∈ Mmn uma matriz qualquer. Chamamos caracter´ıstica de linha de
M, denotada rl, ao n´umero m´aximo de linhas linearmente independentes que M
cont´em. J´a nos referimos a esta defini¸c˜ao em sec¸c˜ao anterior.
Chamamos caracter´ıstica de coluna de M, denotada rc, ao n´umero m´aximo
de colunas linearmente independentes que M cont´em.
Dissemos anteriormente como obter rl: efectuando uma condensa¸c˜ao da matriz
de modo a fazer aparecer a matriz de aspecto simples (2.32) — evidentemente,
aqui, sem a parte ampliada. Mas ´e claro que h´a muitos caminhos desde a matriz
inicial M at´e aquela forma can´onica (2.32), pelo que se poderia perguntar se rl n˜ao
depende da escolha do caminho.
Vemos que tal defini¸c˜ao ´e intr´ınseca, independente da condensa¸c˜ao sobre linhas,
tal como se exprimiu acima: se M tem linhas L1, . . . , Lm e fazemos uma troca de
Li por Li + αLj, α ∈ R, vemos que
λ1L1 + · · · + λiLi + · · · + λjLj + · · · + λmLm = 0 (2.42)
tem solu¸c˜oes n˜ao nulas sse
˜λ1L1 + · · · + ˜λi(Li + αLj) + · · · + ˜λjLj + · · · + ˜λmLm = 0 (2.43)
tem solu¸c˜oes n˜ao nulas. S´o temos de fazer a transforma¸c˜ao λj = ˜λi + α˜λj.6
O pr´oximo teorema afirma que a caracter´ıstica de linha ´e igual `a caracter´ıstica
de coluna. A primeira parte da demonstra¸c˜ao assenta na prova de que n˜ao se altera
rl a cada passo para achar rc.
Teorema 5. Em qualquer matriz, rl = rc.
6
Como dissemos em 2.2.3, os sistemas de equa¸c˜oes lineares (independentes ou n˜ao), ap´os con-
densa¸c˜ao, mantˆem-se equivalentes (em particular, com o mesmo n´umero de equa¸c˜oes indepen-
dentes). Poder´ıamos passar a falar em sistemas de vectores.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 24
Demonstra¸c˜ao. Suponha-se
M =



L1
...
Lm


 =



l11 · · · l1n
...
lm1 · · · lmn


 = C1 · · · Cn . (2.44)
A dependˆencia das linhas estuda-se pelo sistema em λ’s,
λ1l1j + · · · + · · · + λmlmj = 0, ∀j = 1, . . . n. (2.45)
Agora, o passo mais geral da condensa¸c˜ao sobre colunas ser´a a troca Ci ↔ Cj
seguida de Ci → Ci + αCj, para certos i, j e α ∈ R, levando-nos para a matriz
M =



l11 · · · l1j · · · l1i + αl1j · · · l1n
...
...
lm1 · · · lmj · · · lmi + αlmj · · · lmn


 . (2.46)
O respectivo sistema de equa¸c˜oes ser´a o mesmo que o anterior excepto para j = j, i:



· · ·
λ1l1j + · · · + λmlmj = 0
· · ·
λ1(l1i + αl1j) + · · · + λm(lmi + αlmj) = 0
· · ·
(2.47)
Mas ´e evidente, rearrumando os termos e pondo α em evidˆencia, que este sistema
´e equivalente a (2.45).
Agora, tal como em 2.2.3, fazendo uma condensa¸c˜ao por colunas de forma or-
denada, chegaremos a uma matriz de aspecto











ξ11 0 0 0 0
ξ21 ξ22 0 0
... 0
...
...
ξrcrc 0 0
...
...
...
ξm1 ξmrc 0 0











(2.48)
com os ξkk = 0, ∀1 ≤ k ≤ rc. Como nunca se alterou rl desde M e agora j´a ´e f´acil
descobrir a caracter´ıstica de linha, fazendo por anular tudo o que est´a abaixo da
diagonal principal de (2.48), deduz-se ent˜ao que rc = rl, como quer´ıamos demon-
strar.
Exemplo:



1 0 3
2 1 2
2 0 6



L3−2L1, C1−2C2
−−−−−−−−−−→



1 0 3
0 1 2
0 0 0



C3−3C1−2C2
−−−−−−−−→



1 0 0
0 1 0
0 0 0


 (2.49)
e a caracter´ıstica r = rc = rl neste caso ´e 2.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 25
2.4.2 C´alculo da inversa
Vamos agora estabelecer um m´etodo para encontrar a inversa de uma matriz quadrada
A ∈ Mn,n, supondo que existe.
Repare-se que escrevendo o vector-coluna
Vi0 = 0 · · · 0 1 0 · · · 0
T
(2.50)
(1 no lugar i0 e 0 em todas as outras entradas), vem
BVi0 =



b1i0
...
bni0


 (2.51)
para qualquer matriz quadrada B = [bst].
Para encontrar A−1
temos de encontrar os n vectores-coluna Xi tais que AXi =
Vi. Pois da´ı vir´a
A X1 · · · Xn = V1 · · · Vn = 1n. (2.52)
Note-se em particular que A : Rn
→ Rn
induz, no sentido de (2.35), uma
aplica¸c˜ao bijectiva (tem uma inversa7
) sse a matriz A ´e invert´ıvel. Por sua vez,
cada sistema AX = Vi ´e poss´ıvel e determinado sse r(A) = n. Est´a ent˜ao provado
o
Teorema 6. Uma matriz quadrada A ∈ Mn ´e invert´ıvel sse r(A) = n.
Agora, os Xi, 1 ≤ i ≤ n, encontrados acima ser˜ao as colunas de A−1
. Pelo
m´etodo de condensa¸c˜ao sobre linhas, aplicado simultˆaneamente na resolu¸c˜ao dos n
sistemas de n equa¸c˜oes a n inc´ognitas, podemos dar como certo o seguinte algoritmo
para determinar a matriz inversa de A:
A | 1n −→ · · · (condensa¸c˜ao) · · · −→ 1n | A−1
. (2.53)
Exemplo:
1. Para encontrar a inversa de
0 5
−5 3
fazemos
0 5 | 1 0
−5 3 | 0 1
→
−5 3 | 0 1
0 5 | 1 0
→
1 −3
5
| 0 −1
5
0 1 | 1
5
0
→
1 0 | 3
25
−1
5
0 1 | 1
5
0
.
(2.54)
7
Conv´em aqui notar que a inversa de uma aplica¸c˜ao linear bijectiva ´e ainda uma aplica¸c˜ao
linear.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 26
A verifica¸c˜ao ´e imediata:
0 5
−5 3
3
25
−1
5
1
5
0
=
1 0
0 1
. (2.55)
Cap´ıtulo 3
3.1 Determinantes
3.1.1 Grupos de permuta¸c˜oes
Consideremos de novo o grupo de permuta¸c˜oes Sn de n objectos, recorde-se, um
grupo com n! elementos.
Um tipo particular de permuta¸c˜oes s˜ao os ciclos. Um ciclo σ ∈ Sn ´e uma
permuta¸c˜ao denotada (a1 a2 · · · ak), com os ai ∈ {1, . . . , n} todos diferentes, que
obedece a
a1 → a2 → a3 → · · · → ak → a1 (3.1)
e que deixa todos os outros elementos, n˜ao referidos, no mesmo lugar.
O natural k ´e a ordem do ciclo.
Como exemplos, em S4, temos
(143) = (431) = (314) =
1 2 3 4
4 2 1 3
,
(123) ◦ (341) = (234) = (34)(24).
(3.2)
Note-se que a fun¸c˜ao composta se lˆe da direita para a esquerda e que, como ´e usual,
deixamos ca´ır o sinal “◦”. `A fun¸c˜ao composta tamb´em se chama produto.
A permuta¸c˜ao inversa de um ciclo escreve-se facilmente. Em particular, as
chamadas transposi¸c˜oes (ij), ou seja ciclos de ordem 2, verificam (ij)−1
= (ij) =
(ji).
Agora, cada permuta¸c˜ao σ ´e um produto de ciclos. Para o vermos come¸camos
por construir o ciclo (1 σ(1) σ(σ(1)) · · · σk1−1
(1)). Concerteza que haver´a um fim,
de tal forma que σ(σk1−1
(1)) = 1, pois σ n˜ao se repete nunca e n ´e finito. A
seguir procuramos o primeiro elemento i0 ∈ {1, . . . , n} que n˜ao est´a entre os σi
(1) e
construimos o ciclo (i0 σ(i0) σ(σ(i0)) · · · σk2−1
(i0)). Pelas raz˜oes anteriores, o ciclo ´e
finito. Repetimos assim e sucessivamente o processo anterior, sabendo que havemos
de parar porque se esgotam os n´umeros. Obtemos finalmente a permuta¸c˜ao dada
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 28
como um produto de ciclos, que at´e comutam entre si pois n˜ao tˆem elementos
comuns.
´E quase t˜ao convincente ver um exemplo:
σ =
1 2 3 4 5 6 7 8
6 5 2 1 3 7 4 8
= (1674)(253). (3.3)
Mais ainda, cada permuta¸c˜ao ´e produto de transposi¸c˜oes, pois cada ciclo o ´e:
(a1 a2 · · · ak) = (ak ak−1)(ak ak−2) · · · (ak a2)(ak a1). (3.4)
Fazemos agora a seguinte afirma¸c˜ao: a permuta¸c˜ao identidade ´e sempre o pro-
duto de um n´umero par de transposi¸c˜oes: (1) = (ij)(ij). A demonstra¸c˜ao deste
facto, s´o aparentemente ´obvio, ´e um problema de ordem e combinat´oria que deix-
amos ao leitor para sua pesquisa, [Gro83].
Agora se uma mesma permuta¸c˜ao se decomp˜oe, uma vez, num n´umero l1 de
transposi¸c˜oes e, noutra vez, num n´umero l2 de transposi¸c˜oes, ent˜ao l1 + l2 ´e par.
Equivale a passar, nessa igualdade de decomposi¸c˜oes, todas as transposi¸c˜oes para
um lado, ficando a identidade no outro. Em particular, l1 ´e par sse l2 ´e par. Com
efeito, apenas dois pares, ou dois ´ımpares, somam um par. Em resumo, temos o
Teorema 7. Toda a permuta¸c˜ao σ ∈ Sn ´e produto de transposi¸c˜oes.
A paridade do n´umero de transposi¸c˜oes de qualquer decomposi¸c˜ao de σ num
produto de transposi¸c˜oes ´e um invariante de σ.
Este teorema permite-nos definir rigorosamente o sinal de uma permuta¸c˜ao σ.
Trata-se do valor +1 ou −1, conforme o invariante indicado acima. Ou seja,
sg(σ) = (−1) (3.5)
onde
= n´umero de transposi¸c˜oes numa decomposi¸c˜ao de σ. (3.6)
A conhecida ‘regra dos sinais’ prova de imediato o seguinte
Teorema 8 (B´ezout). Para quaisquer permuta¸c˜oes σ, τ ∈ Sn,
sg(στ) = sg(σ)sg(τ). (3.7)
Em particular, sg(σ) = sg(σ−1
).
Para aplica¸c˜oes futuras, com argumentos de tipo indutivo, conv´em reparar que
podemos escrever a uni˜ao de subconjuntos disjuntos
Sn = S1 ∪ S2 ∪ · · · ∪ Sn (3.8)
onde
Si = {σ : σ(1) = i}. (3.9)
Cada um destes subconjuntos, grosso modo, identifica-se com Sn−1. Para deduzir
tal identifica¸c˜ao, s´o temos de fixar nova numera¸c˜ao dos objectos, suprimindo o 1 no
espa¸co de partida e o i no espa¸co de chegada.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 29
3.1.2 Defini¸c˜ao de determinante
Voltemos agora `as matrizes. Define-se determinante de uma matriz quadrada
A = [aij] ∈ Mn,n como sendo o n´umero real
det A =
σ∈Sn
sg(σ)a1σ1 a2σ2 · · · anσn . (3.10)
A nota¸c˜ao refere σi = σ(i).
Vemos que aquele ´e um somat´orio com n! parcelas. De cada linha i apenas se
escolhe um aiσi
, em cada parcela.
A nota¸c˜ao |A| = det A ´e tamb´em usual.
Por exemplo, para n = 2, temos
a b
c d
= ad − cb. (3.11)
A dedu¸c˜ao da chamada regra de Sarrus e da respectiva regra mnem´onica para
o determinante de ordem 3 ´e um bom exerc´ıcio para o leitor:
a11 a12 a13
a21 a22 a23
a31 a32 a33
= a11a22a33 + a31a12a23 + a13a21a32
− a13a22a31 − a11a23a32 − a12a21a33.
(3.12)
3.1.3 Propriedades do determinante
Suponhamos que ´e dada a matriz A tal como acima.
Tendo em conta que podemos ordenar os factores em cada parcela de (3.10) pelo
´ındice de coluna, que sg(σ) = sg(σ−1
) e que o somat´orio sobre os σ ∈ Sn ´e o mesmo
que o somat´orio sobre os seus inversos, resulta
det A =
σ∈Sn
sg(σ)aσ−1
1 1aσ−1
2 2 · · · aσ−1
n n
=
σ−1=τ∈Sn
sg(τ)aτ11aτ22 · · · aτnn
=
τ∈Sn
sg(τ)aT
1τ1
aT
2τ2
· · · aT
nτn
= det AT
.
(3.13)
Prov´amos o
Teorema 9. Para qualquer matriz A, tem-se det A = det AT
.
Esta ´e a primeira das principais propriedades do determinante. Em sua virtude,
daqui em diante ‘tudo o que se diga’ sobre as linhas ter´a um equivalente sobre as
colunas.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 30
Agora, uma pequena altera¸c˜ao nas linhas de A podemos cometer sem muito
perturbar o seu determinante.
Sejam 1 ≤ i = j ≤ n. Se trocarmos as linhas i e j de A uma pela outra,
aparece-nos a matriz ˜A, e da´ı decorrem as seguintes igualdades:
det ˜A =
σ∈Sn
sg(σ)a1σ1 · · · ajσi
· · · aiσj
· · · anσn
=
σ∈Sn
sg(σ(ij))a1σ1 · · · ajσj
· · · aiσi
· · · anσn
= sg((ij))
σ∈Sn
sg(σ)a1σ1 · · · anσn = −det A.
(3.14)
Em particular, se as linhas i e j forem iguais, ou seja A = ˜A, ent˜ao
det A = 0. (3.15)
Escrevendo agora
A =



a11 · · · a1n
...
an1 · · · ann


 =





L1
L2
...
Ln





(3.16)
e logo
det A = det (L1, . . . , Ln), (3.17)
tem-se que o determinante ´e uma aplica¸c˜ao multilinear nas linhas (e nas colunas).
Com efeito, para qualquer´ındice i, det ´e linear na linha i quando se fixam as outras
vari´aveis todas, ou seja, para quaisquer linhas Lj, j = 1, . . . , n, e ˜L e quaisquer
λ, µ ∈ R, det verifica
det (L1, . . . , λLi + µ˜L, . . . , Ln) =
λ det (L1, . . . , Li, . . . , Ln) + µ det (L1, . . . , ˜L, . . . , Ln).
(3.18)
Compare-se esta linearidade1
com aquela descrita em (2.36).
Demostremos (3.18). Suponhamos que a linha ˜L = (˜a1, . . . , ˜an). Como a linha
i da matriz do lado esquerdo ´e igual a (λai1 + µ˜a1, . . . , λain + µ˜an), no c´alculo do
determinante vem
σ∈Sn
sg(σ)a1σ1 · · · (λaiσi
+ µ˜aσi
) · · · anσn
= λ
σ∈Sn
sg(σ)a1σ1 · · · aiσi
· · · anσn + µ
σ∈Sn
sg(σ)a1σ1 · · · ˜aσi
· · · anσn .
(3.19)
1
O conceito de aplica¸c˜ao linear ou de aplica¸c˜ao multilinear ser´a formalizado no cap´ıtulo 4.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 31
Us´amos apenas as propriedades de distributividade e comutatividade de R. A
express˜ao a que se chegou ´e claramente aquela do lado direito de (3.18), como
quer´ıamos.
Vejamos um exemplo de aplica¸c˜ao (como na teoria dos polin´omios em v´arias
vari´aveis):
x2
1 x1x2 0
x1x3 x2
2x3 x3x4
x1x4 x2
2 0
= x2
1x2x3
1 1 0
1 x2 x4
x4 x2 0
=
= x2
1x2x3
1 0 0
1 x2 x4
x4 x2 0
+ x2
1x2x3
0 1 0
1 x2 x4
x4 x2 0
=
= x2
1x2x3(−x2x4 + x2
4) = x2
1x2x3x4(x4 − x2).
(3.20)
Para finalizar, reescrevendo (3.14) na nota¸c˜ao anterior, verificou-se que o deter-
minante ´e uma aplica¸c˜ao multilinear alternada ou anti-sim´etrica:
det (L1, . . . , Li, . . . , Lj, . . . , Ln) =
= − det (L1, . . . , Lj, . . . , Li, . . . , Ln).
(3.21)
Tamb´em se pode escrever (3.18) em dois passos. O respeito pela multiplica¸c˜ao de
uma linha por um escalar:
det (L1, . . . , λLi, . . . , Ln) = λ det (L1, . . . , Li, . . . , Ln) (3.22)
e o respeito pela soma de duas linhas
det (L1, . . . , Li + ˜L, . . . , Ln) =
det (L1, . . . , Li, . . . , Ln) + det (L1, . . . , ˜L, . . . , Ln)
(3.23)
∀Li, ˜L ∈ Rn
, λ ∈ R.
3.1.4 C´alculo de determinantes
Pela defini¸c˜ao, ´e trivial provar que
t11 t12 t13 · · · t1n
0 t22 t23 t2n
0 0 t33 · · · t3n
0 0
...
0 0 0 tnn
= t11t22 · · · tnn. (3.24)
E se a matriz dada for triangular inferior, o resultado ´e an´alogo.
Agora, o processo de condensa¸c˜ao de uma qualquer matriz A ∈ Mnn conduz-nos
a uma matriz triangular. Observamos ent˜ao que h´a uma forma pr´atica de calcular
determinantes, tendo em conta as regras:
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 32
• se trocarmos duas linhas (ou colunas) diferentes, o determinante muda de
sinal
• se substituirmos uma linha por ela mesma adicionada de um m´ultiplo de outra
linha, o determinante n˜ao se altera
• se substituirmos uma coluna por ela mesma adicionada de um m´ultiplo de
outra coluna, o determinante n˜ao se altera.
Por exemplo,
1 2 3 4
0 1 −3 5
−1 3 −1 7
3 2 5 4
=
1 2 3 4
0 1 −3 5
0 5 2 11
0 −4 −4 −8
= −4
1 −3 5
5 2 11
1 1 2
=
= −4
1 −3 5
0 17 −14
0 4 −3
= −4
3 −14
1 −3
= −20.
(3.25)
A segunda igualdade resulta de apenas valerem σ ∈ S4 tais que σ(1) = 1. Na quarta
acontece o mesmo.
Teorema 10. Uma qualquer matriz A ´e invert´ıvel sse det A = 0.
De podermos usar a condensa¸c˜ao sobre uma dada matriz para a levar a outra na
forma triangular, sem alterar o seu determinante ou caracter´ıstica, resulta que se
pode supˆor desde j´a que A ´e triangular. Ora, algum dos ajj, j = 1, . . . , n da matriz
triangular (3.24) ´e nulo, ou seja, r(A) < n, sse det A = 0. Invocando o teorema 6,
vˆe-se que dele decorre o teorema anterior.
3.1.5 Regra do produto
Verificaremos primeiro que aplica¸c˜oes multilineares2
alternadas
f : Rn
× · · · × Rn
−→ R
(v1, . . . , vn) −→ f(v1, . . . , vn),
(3.26)
tais como o determinante sobre as linhas ou colunas de uma matriz, existe essen-
cialmente uma.
Para prov´a-lo necessitamos da base can´onica de Rn
, isto ´e, o conjunto de n
vectores
ei = (0, . . . , 0, 1, 0, . . . , 0) (3.27)
2
Recordamos que este conceito pode ser visto no cap´ıtulo 4.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 33
com 1 na i-´esima entrada (cf. (2.50)).
Dizendo de outra forma,
1n =





1 0 · · · 0
0 1 0
... 0
0 0 · · · 1





=



e1
...
en


 . (3.28)
´E evidente que qualquer vector de Rn
(o mesmo que uma matriz-linha) satisfaz
(x1, x2, . . . , xn) = x1e1 + x2e2 + · · · + xnen =
n
j=1
xjej. (3.29)
Eis o resultado que refer´ıamos.
Teorema 11. Qualquer aplica¸c˜ao multilinear alternada f sobre n vectores de Rn
verifica
f(A) = det (A) f(1n). (3.30)
Demonstra¸c˜ao. Com efeito, por multilinearidade e por (3.29)
f(A) = f(L1, . . . , Ln)
= f
n
j1=1
a1j1 ej1 ,
n
j2=1
a2j2 ej2 , . . . ,
n
jn=1
anjn ejn
=
n
j1,j2,...,jn=1
a1j1 · · · anjn f(ej1 , . . . , ejn ).
(3.31)
Note-se que, por hip´otese de f ser alternada, tal como em (3.15), resulta
f(ej1 , . . . , ejn ) = 0 (3.32)
no caso em que h´a dois jl iguais, l = 1, . . . , n, e resulta
f(ej1 , . . . , ejn ) = sg( 1 · · · n
j1 · · · jn
) f(e1, . . . , en) (3.33)
no caso em que todos os jl s˜ao diferentes.
Continuamos agora o c´alculo inicial. Aparece a´ı ent˜ao apenas o somat´orio sobre
as permuta¸c˜oes de 1, . . . , n, ou seja
f(A) =
σ∈Sn
a1σ1 · · · anσn sg(σ) f(e1, . . . , en) = det A f(1n) (3.34)
visto que f(e1, . . . , en) = f(1n). Cheg´amos a (3.30), como quer´ıamos demonstrar.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 34
Agora podemos provar um valioso teorema com a regra do produto para os
determinantes.
Teorema 12. Para quaisquer A, B ∈ Mnn, vem
det (AB) = det (A) det (B). (3.35)
Em particular, det (A−1
) = (det A)−1
.
Demonstra¸c˜ao. Fixemos B e consideremos a fun¸c˜ao sobre as matrizes A ∈ (Rn
)n
=
Mnn
f(A) = det (AB) = |AB| (3.36)
com valores reais. ´E trivial verificar que
f(A) = f(L1, . . . , Ln) =
L1B
...
LnB
(3.37)
e, logo, que f ´e multilinear e alternada: lembrar que (Li +λ˜L)B = LiB+λ˜LB, para
cada i e para quaisquer λ, Li, ˜L, e que a pr´opria fun¸c˜ao determinante tem aquelas
propriedades.
Ent˜ao f est´a nas condi¸c˜oes da hip´otese do teorema 11, donde f(A) = |A| f(1n).
Como f(1n) = |1nB| = |B|, a f´ormula anterior lˆe-se |AB| = |A||B|, como quer´ıamos
demonstrar.
Por outras palavras, o determinante do produto de duas quaisquer matrizes ´e o
produto dos determinantes.
Por exemplo, 


a b c
0 d e
0 0 f






x 0 0
y z 0
w s t


 = adfxzt, (3.38)
o que se tornou muito f´acil de ver.
3.2 Regra de Laplace e aplica¸c˜oes
3.2.1 Regra de Laplace
Suponhamos que ´e dada uma matriz A ∈ Mnn da qual queremos calcular o deter-
minante.
Repare-se agora na decomposi¸c˜ao (3.8) e restringa-se o somat´orio sobre Sn na
defini¸c˜ao (3.10) de determinante apenas ao subconjunto Sj = {σ ∈ Sn : σ1 = j},
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 35
com j ∈ {1, . . . , n} pr´eviamente escolhido. Uma vez que σ1 = j est´a fixo, obtemos
σ∈Sj
sg(σ)a1σ1 · · · anσn =
= (−1)j−1
a1j
σ∈Sj
sg( 1 · · · j · · · n
σ2 · · · j · · · σn
)a2σ2 · · · anσn
= (−1)j−1
a1j|A(1,j)|.
(3.39)
Com efeito, o sinal da permuta¸c˜ao σ ∈ Sj, multiplicado por (−1)j−1
, ´e o da mesma
permuta¸c˜ao composta com j −1 trocas de j com σ2, σ3, etc, at´e σj, ou seja, j levado
de 1 at´e `a posi¸c˜ao j. Depois ´e imediato constatar que aparece o determinante da
matriz A(1,j), como se escreveu, a matriz sem linha 1 nem coluna j.
Em geral, define-se
A(i,j) =










a11 · · · a1,j−1 a1,j+1 · · · a1n
...
...
...
...
ai−1,1 · · · ai−1,j−1 ai−1,j+1 · · · ai−1,n
ai+1,1 · · · ai+1,j−1 ai+1,j+1 · · · ai+1,n
...
...
...
...
an1 · · · an,j−1 an,j+1 · · · ann










. (3.40)
Passando o resultado anterior para um somat´orio sobre Sn = ∪n
j=1Sj, vem
σ∈Sn
=
σ∈S1
+ · · · +
σ∈Sn
(3.41)
e logo a regra de Laplace na primeira linha
|A| = a11|A(1,1)| − a12|A(1,2)|+
+ a13|A(1,3)| − · · · + (−1)n−1
a1n|A(1,n)|.
(3.42)
Dito de outra forma, |A| = j(−1)j−1
a1j|A(1,j)|.
Se quisermos fazer o mesmo c´alculo mas a partir de outra linha, s´o temos de
puxar essa linha para o 1o
lugar de tal forma que tudo o resto permane¸ca na mesma
ordem, ou seja, trocando sucessivamente digamos a linha i com a linha i−1, depois,
esta, com a linha i − 2, etc, at´e ao primeiro lugar. ´E o mesmo que considerar as
matrizes A(i,j) e a alternˆancia do sinal em (−1)i−1
, o que acrescentado ao sinal das
parcelas acima vai dar (−1)i−1
(−1)j−1
= (−1)i+j
.
Assim ficou provado o
Teorema 13 (regra de Laplace). Para qualquer ´ındice de linha i, tem-se
|A| =
n
j=1
(−1)i+j
aij|A(i,j)|. (3.43)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 36
Esta regra ´e muito pr´atica; permite calcular determinantes recursivamente sobre
a ordem n das matrizes.
Note-se que tamb´em existe uma regra de Laplace sobre as colunas. ´E simples:
na f´ormula (3.43) fazemos o somat´orio em i em vez de j.
3.2.2 A matriz adjunta
Se na matriz A da sec¸c˜ao anterior, uma matriz n por n qualquer, substituirmos a
linha i pela linha k = i, ent˜ao j´a sabemos que o determinante ´e nulo (tem duas
linhas iguais). Pela regra de Laplace aplicada na linha i, obtemos ent˜ao
0 =
n
j=1
(−1)i+j
akj|A(i,j)|. (3.44)
Como veremos, o n´umero (−1)i+j
|A(i,j)| tem grande importˆancia; designa-se por
complemento alg´ebrico de aij.
`A matriz adj A que tem entradas (j, i) iguais ao complemento alg´ebrico de aij,
ou seja, a matriz transposta da matriz formada pelos complementos alg´ebricos, ou
seja, ainda,
(adj A)ji = (−1)i+j
|A(i,j)|, (3.45)
d´a-se o nome de matriz adjunta de A.
J´a vimos que:
n
j=1
aij(adj A)ji = |A|,
n
j=1
akj(adj A)ji = 0 (3.46)
para k = i. Ora isto ´e equivalente a
A adj A = |A| 1n. (3.47)
Em particular, se A ´e invert´ıvel, ent˜ao
A−1
=
1
|A|
adj A. (3.48)
Eis uma nova solu¸c˜ao para o problema de calcular a inversa de uma matriz.
Exemplos:
1. A f´ormula (3.48) permite demonstrar esse facto bel´ıssimo que ´e o de uma
matriz de coeficientes inteiros e determinante 1 ter inversa tamb´em com coe-
ficientes inteiros.
7 5
11 8
−1
=
8 −5
−11 7
(3.49)
´e um exemplo, calculado pela dita f´ormula.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 37
2. Outro exemplo, com a matriz dada de determinante 56,



−5 2 3
0 1 3
2 4 2



−1
=
1
56











1 3
4 2
−
2 3
4 2
2 3
1 3
−
0 3
2 2
−5 3
2 2
−
−5 3
0 3
0 1
2 4
−
−5 2
2 4
−5 2
0 1











=
1
56



−10 8 3
6 −16 15
−2 24 −5



(3.50)
3.2.3 Regra de Cramer
Suponhamos que temos um sistema de n equa¸c˜oes lineares, independentes, a n
inc´ognitas,
AX = B. (3.51)
Ou seja, de caracter´ıstica n. Logo com A invert´ıvel e logo com uma ´unica solu¸c˜ao.
Pelo exposto na sec¸c˜ao 3.2.2,
X = A−1
B =
1
|A|
(adj A)B =
1
|A| j
(−1)i+j
|A(j,i)|bj (3.52)
ou seja
xi =
a11 · · · b1 · · · a1n
...
...
an1 · · · bn · · · ann
|A|
(3.53)
com B tomando o lugar da coluna i de A.
Esta ´e a chamada regra de Cramer para a resolu¸c˜ao de sistemas poss´ıveis
determinados.
Por exemplo: sendo 


x + y + z = 2v
3x − y − z = 2 + v
x + y = 3
, (3.54)
a matriz ampliada do sistema em x, y, z vem a ser



1 1 1 | 2v
3 −1 −1 | 2 + v
1 1 0 | 3


 . (3.55)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 38
Aplicando a regra de Cramer encontramos as solu¸c˜oes
x =
1
4
2v 1 1
2 + v −1 −1
3 1 0
=
1
4
2v 1 1
2 + 3v 0 0
3 1 0
=
3v + 2
4
, (3.56)
y =
1
4
1 2v 1
3 2 + v −1
1 3 0
=
−3v + 10
4
, (3.57)
z =
1
4
1 1 2v
3 −1 2 + v
1 1 3
=
1
4
0 0 2v − 3
3 −1 2 + v
1 1 3
=
8v − 12
4
. (3.58)
Cap´ıtulo 4
4.1 Espa¸cos vectoriais
4.1.1 Defini¸c˜oes e exemplos
Por espa¸co vectorial sobre o corpo R entende-se um grupo abeliano (V, +)
no qual est˜ao definidas, adicionalmente, opera¸c˜oes de multiplica¸c˜ao por escalar
para cada real α ∈ R,
α : V −→ V, v −→ αv, (4.1)
de tal modo que
α(v1 + v2) = αv1 + αv2 1v = v
(α1 + α2)v = α1v + α2v (αβ)v = α(βv)
(4.2)
∀v, v1, v2 ∈ V, α, α1, α2, β ∈ R.
Aos n´umeros reais chamamos escalares e aos elementos de V vectores. Repare-
se que estamos1
a generalizar os conceitos aprendidos em 2.3.1 a prop´osito do espa¸co
euclidiano Rn
.
Exemplos:
1. Rn
ou Mnm s˜ao espa¸cos vectoriais sobre R j´a bem conhecidos2
.
2. Para qualquer conjunto X e espa¸co vectorial V temos um novo espa¸co vec-
torial V X
= {f : X → V }. Este exemplo generaliza outro, referido como
exemplo de um anel em 1.2.2. Os vectores s˜ao as fun¸c˜oes e a sua soma e
produto por escalar definem-se trivialmente.
1
Dev´ıamos ir mais longe e falar de espa¸cos vectoriais sobre um corpo qualquer. Significaria
que no lugar e no papel dos escalares reais ter´ıamos os elementos de um outro corpo unit´ario (cf.
sec¸c˜ao 1.2.2). As aplica¸c˜oes s˜ao in´umeras. Por´em, note-se que ocorrem logo fen´omenos peculiares
se a chamada caracter´ıstica ou tors˜ao do corpo for n˜ao nula.
2
Observe-se a no¸c˜ao de espa¸co vectorial ser t˜ao simples, por n˜ao requerer a multiplica¸c˜ao de
dois vectores `a semelhan¸ca do espa¸co das matrizes.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 40
3. Recordemos C∞
⊂ · · · ⊂ Ck+1
⊂ Ck
⊂ · · · C0
⊂ RI
onde Ck
´e o espa¸co de
fun¸c˜oes do intervalo I em R, k vezes diferenci´aveis e com derivada de ordem
k cont´ınua. Todos estes s˜ao espa¸cos vectoriais sobre R. S˜ao muito grandes...
4. Um subconjunto U de um espa¸co vectorial V tal que
∀u1, u2 ∈ U, λ ∈ R =⇒ u1 + λu2 ∈ U (4.3)
diz-se um subespa¸co vectorial de V . Claro que, neste caso, U herda uma
estrutura de espa¸co vectorial sobre R.
Conceito central na teoria dos espa¸cos vectoriais ´e o seguinte. Dizemos que
v ∈ V ´e combina¸c˜ao linear de vectores u1, . . . , um se existem escalares α1, . . . , αm
tais que v = i αiui. Note-se que s´o falamos de somas finitas.
Dado um subconjunto S ⊂ V , chamamos espa¸co vectorial gerado por S a
S = combina¸c˜oes lineares de vectores de S . (4.4)
S ´e um subespa¸co vectorial de V .
Apresentemos agora a no¸c˜ao de sistema de vectores linearmente independentes
(sli). Um conjunto, ou sistema, de vectores B = {uα}α∈I diz-se linearmente
independente se qualquer parte finita {u1, . . . , uk} ⊂ B for linearmente indepen-
dente no sentido que j´a conhec´ıamos de (2.38), ou seja, no sentido em que nenhum
ui, i = 1, . . . , k, ´e combina¸c˜ao linear dos restantes, ou seja, ainda, se, supondo que
existem λi ∈ R,
λ1u1 + · · · + λkuk = 0 =⇒ λ1 = · · · = λk = 0. (4.5)
Em presen¸ca de um sli {uα}α∈I, n˜ao h´a duas formas de escrever a mesma com-
bina¸c˜ao linear. Essencialmente, isto vale por v = i αiui = i ˜αiui implicar
i(αi − ˜αi)ui = 0. E logo αi − ˜αi = 0. Ou seja αi = ˜αi, ∀i.
Diz-se, no caso acima, que ´e uma escrita de forma ´unica.
4.1.2 Bases e dimens˜ao
Suponhamos que ´e dado um espa¸co vectorial V sobre R.
Um sli (sistema linearmente independente) B diz-se menor ( ) que o sli B se
∀u ∈ B , u ´e combina¸c˜ao linear de vectores de B. (4.6)
Um sli B diz-se maximal se for maior que todos os outros: ∀B , B B. A
um sli maximal chamamos uma base de V .
Dizemos que V tem dimens˜ao finita se V admite uma base finita.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 41
Teorema 14. Se V tem dimens˜ao finita, ent˜ao todas as bases de V s˜ao finitas e
tˆem o mesmo n´umero de vectores.
Demonstra¸c˜ao. Seja B = {u1, . . . , un} a base finita e B1 outra base qualquer. Ora,
qualquer vector u na segunda base ´e combina¸c˜ao linear de vectores da primeira,
porque B1 B. Portanto existem sempre escalares λ1, . . . , λn com os quais es-
crever u = j λjuj — escrita de forma ´unica. Os vectores de B1 est˜ao assim em
correspondˆencia bi´univoca com vectores (λ1, . . . , λn) de Rn
. Estes tˆem de ser linear-
mente independentes, porque os u ∈ B1 o s˜ao. Mas n˜ao h´a mais do que n vectores
linearmente independentes em Rn
(cf. exemplo 4 da sec¸c˜ao 2.3.2).
Chamamos dimens˜ao de um espa¸co vectorial de dimens˜ao finita V , denotada
dim V , ao n´umero comum de vectores de qualquer base de V .
Dada uma base B ⊂ V de um espa¸co de dimens˜ao qualquer, tem-se B = V ,
pois no caso contr´ario entrar´ıamos em contradi¸c˜ao.
Assim, uma base de V ´e o mesmo que um sistema de vectores linearmente
independente que gera o espa¸co todo.
Muito importante ´e observar que, escolhida uma base, cada vector v ∈ V se
escreve de forma ´unica como combina¸c˜ao linear dos vectores da base.
Exemplos:
1. Os seguintes conjuntos s˜ao subespa¸cos vectoriais dos espa¸cos onde est˜ao con-
tidos:
i) Ua = {(x, y, z) ∈ R3
: a2
(x + y) + z = 0, 3x + y = 0} verifica (4.3), tem
dimens˜ao 1 e uma base {(1, −3, 2a2
)}.
ii) W = {A ∈ Mnn : a11 + 3a1n + an−1,1 − ann = 0} tem dimens˜ao n2
− 1.
Trata-se do espa¸co de todas as matrizes n por n, sujeitas a uma ´unica equa¸c˜ao
linear.
iii) O subespa¸co vectorial de Mn,n das matrizes sim´etricas de ordem n tem
dimens˜ao igual a n(n + 1)/2 (pense-se na ´area do triˆangulo pois s´o contam as
entradas de um lado triangular da matriz).
2. O conjunto Rn[x] = {polin´omios em x de grau ≤ n} ´e um subespa¸co vecto-
rial real, de dimens˜ao n + 1, do espa¸co de todos os polin´omios. Este ´ultimo
tem dimens˜ao ∞ e ´e por sua vez subespa¸co de C∞
R . Uma base de Rn[x] ´e
1, x, x2
, . . . , xn
.
3. Um sistema AX = 0 como em (2.27), portanto um sistema homog´eneo, com
A ∈ Mmn e X ∈ Rn
, d´a origem a um subespa¸co vectorial: Nuc A = {X ∈ Rn
:
AX = 0} ´e subespa¸co vectorial devido `a f´ormula (2.36). A sua dimens˜ao ´e
n−r(A) por que o sistema resolve a equa¸c˜ao de dependˆencia linear das colunas
de A e a caracter´ıstica de linha ´e igual `a caracter´ıstica de coluna.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 42
Repare-se que B B implica B ⊂ B , donde se diz tamb´em que uma base
´e um conjunto minimal de geradores de V .
Sob certas condi¸c˜oes da teoria dos conjuntos, pode-se provar que todo o espa¸co
vectorial admite uma base. Mesmo os de dimens˜ao ∞.
4.1.3 Soma cartesiana e soma directa
Partindo de W, Z dois quaisquer espa¸cos vectoriais, falamos de espa¸co vectorial
produto ou de soma cartesiana de W e Z quando fazemos o produto cartesiano
W × Z e nele tomamos, para estrutura de espa¸co vectorial, a adi¸c˜ao
(w1, z1) + (w2, z2) = (w1 + w2, z1 + z2) (4.7)
e multiplica¸c˜ao por escalar
λ(w, z) = (λw, λz) (4.8)
∀w, w1, w2 ∈ W, z, z1, z2 ∈ Z, λ ∈ R. ´E f´acil perceber que s˜ao satisfeitas as
condi¸c˜oes (4.2).
Se W, Z tˆem dimens˜ao finita, a dimens˜ao do espa¸co vectorial produto ´e sempre
a soma das dimens˜oes.
Exemplo:
1. Rn
= R × R · · · × R.
Sejam agora dados dois subespa¸cos vectoriais U, V de um mesmo espa¸co vectorial
W.
Chamamos soma de U e V ao subespa¸co
U + V = u + v : u ∈ U, v ∈ V . (4.9)
Trata-se de facto de um subespa¸co vectorial, como ´e f´acil provar. Mais ainda
U, V ⊂ U + V . ´E evidente, pois u = u + 0, ∀u ∈ U.
Outra forma de obter um subespa¸co vectorial ´e pela intersec¸c˜ao
U ∩ V (4.10)
dos subespa¸cos dados. Com efeito, ´e claro que a soma de vectores e produto por
escalar de u, v ∈ U ∩ V est´a tanto em U como em V , ou seja, em U ∩ V .
´E claro que um subespa¸co vectorial U de um espa¸co de dim finita W tem ele
pr´oprio dim finita. Basta come¸car num vector = 0 e ir procurando sli cada vez
maiores dentro do subespa¸co U at´e obter um sli maximal. O processo ´e finito por
estar majorado pela dimens˜ao do espa¸co W.
Teorema 15. Se U, V tˆem dimens˜ao finita, ent˜ao
dim(U + V ) = dim U + dim V − dim(U ∩ V ). (4.11)
Em particular, U + V tem dimens˜ao finita.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 43
Demonstra¸c˜ao. Come¸cemos com uma base {u1, . . . , up} de U ∩V , que prolongamos,
como acima, a uma base {u1, . . . , up, up+1, . . . , un} de U. Seja {v1, . . . , vm} uma
base de V . Ent˜ao o conjunto {up+1, . . . , un, v1, . . . , vm} ´e um sistema de vectores
linearmente independentes, pois se fosse
λp+1up+1 + · · · + λnun + α1v1 + · · · + αmvm = 0
⇐⇒ λp+1up+1 + · · · + λnun = −α1v1 − · · · − αmvm
ent˜ao este ´ultimo vector estaria em U ∩ V , pelo que seria combina¸c˜ao linear dos
u1 . . . , up. Mas sendo escrito s´o com os ui, com i > p, tem de ser 0. Ent˜ao todos os
λi, αj s˜ao 0, como quer´ıamos.
´E tamb´em f´acil verificar que qualquer outro vector de U +V ´e combina¸c˜ao linear
daqueles. Ent˜ao est´a provado que {up+1, . . . , un, v1, . . . , vm} ´e uma base. O n´umero
de vectores de tal base ´e n − p + m.
Finalmente, chamamos soma directa a U + V quando os dois subespa¸cos ver-
ificam U ∩ V = {0}. Denota-se por U ⊕ V . A dimens˜ao desta ´e a soma das
dimens˜oes.
4.2 Aplica¸c˜oes lineares
4.2.1 Defini¸c˜oes
Finalmente formalizamos o conceito j´a utilizado em duas ocasi˜oes: em 2.3.1 como
caso particular e em (3.15) a prop´osito da propriedade do determinante de matrizes
ser uma aplica¸c˜ao multilinear.
S˜ao dados dois espa¸cos vectoriais V e W.
Uma fun¸c˜ao f : V → W diz-se uma aplica¸c˜ao linear se
f(v + u) = f(v) + f(u) e f(λu) = λf(u) (4.12)
∀u, v ∈ V, λ ∈ R.
Assim, uma aplica¸c˜ao linear ´e uma aplica¸c˜ao que preserva as estruturas dos
espa¸cos vectoriais em causa. Em particular, tem-se o facto trivial: f(0) = f(0+0) =
0.
´E trivial verificar que a imagem de uma aplica¸c˜ao linear
Im f = f(V ) = f(v) : v ∈ V (4.13)
´e um subespa¸co vectorial de W. Com efeito, f(u) + λf(v) = f(u + λv) tamb´em
est´a na imagem de f, quaisquer que sejam u, v, λ.
Tamb´em, dado um qualquer subespa¸co U ⊂ W, o conjunto imagem rec´ıproca
f∗
U = v ∈ V : f(v) ∈ U (4.14)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 44
´e um subespa¸co vectorial de V .
Em particular f∗
{0}, denotado
Nuc f = v ∈ V : f(v) = 0 , (4.15)
´e um subespa¸co vectorial de V chamado n´ucleo de f.
Deixamos a demonstra¸c˜ao do pr´oximo resultado como um exerc´ıcio.
Teorema 16. Seja f : V → W uma aplica¸c˜ao linear entre espa¸cos vectoriais.
Ent˜ao:
i) f ´e injectiva sse Nuc f = {0}.
ii) f ´e injectiva sse f transforma vectores linearmente independentes em vectores
linearmente independentes.
iii) f ´e sobrejectiva sse o espa¸co gerado por f(B) ´e igual a W, ou seja f(B) = W,
para qualquer base B de V .
iv) f ´e bijectiva sse transforma uma base de V numa base de W.
H´a nomes pr´oprios para f linear e injectiva, sobrejectiva ou bijectiva. Diremos
ent˜ao que f ´e, respectivamente, um monomorfismo, um epimorfismo ou um
isomorfismo.
Se V = W, ent˜ao f : V → V diz-se um endomorfismo. Um isomorfismo
endomorfismo diz-se um automorfismo.
Prove-se, `a parte, que a inversa de uma aplica¸c˜ao linear bijectiva ´e uma aplica¸c˜ao
linear.
O conjunto das aplica¸c˜oes lineares de V para W denota-se por L(V, W).
´E trivial mostrar que a soma ou a composi¸c˜ao de duas aplica¸c˜oes lineares ´e uma
aplica¸c˜ao linear e que o mesmo acontece com o produto de uma aplica¸c˜ao linear
por um escalar. Enfim, prova-se sem dificuldade o
Teorema 17. L(V, W) ´e um espa¸co vectorial sobre R. O espa¸co End (V ) :=
L(V, V ) dos endomorfismos de V ´e um anel e o subconjunto dos automorfismos
Aut(V ) = {isomorfismos de V para V } ´e um grupo.
Contudo, o resultado n˜ao ´e surpreendente: em dim finita h´a correspondˆencia
entre aqueles espa¸cos e, respectivamente, o espa¸co vectorial das matrizes Mnm, o
anel das matrizes quadradas Mnn e o grupo das matrizes invert´ıveis.
4.2.2 Representa¸c˜ao matricial
Sejam V, W espa¸cos vectoriais reais de dimens˜ao finita n, m, respectivamente. Se-
jam B = {v1, . . . , vn}, ˜B = {w1, . . . , wm} bases fixadas em V, W, respectivamente.
Sejam
X =



x1
...
xn


 , B =



b1
...
bn


 (4.16)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 45
a matriz dos coeficientes de um qualquer vector v ∈ V e, respectivamente, a matriz
dos coeficientes de um vector w0 ∈ W. Ou seja,
v =
n
i=1
xivi = v1 · · · vn



x1
...
xn


 , w0 =
m
j=1
bjwj = ˜B B (4.17)
Seja agora f : V → W uma aplica¸c˜ao linear. Denotamos ent˜ao
A = M(f, B, ˜B) (4.18)
a matriz definida da seguinte forma: como para cada 1 ≤ i ≤ n, o vector f(vi) se
escreve de forma ´unica `a custa dos vectores wj, 1 ≤ j ≤ m, existem escalares aji
tais que
f(vi) =
m
j=1
ajiwj. (4.19)
´E ´obvio que A = [aji] ∈ Mmn. A esta matriz damos o nome de matriz da
aplica¸c˜ao linear f nas bases {vi}, {wj}.
Note-se bem que esta representa¸c˜ao depende das bases.
Rec´ıprocamente, fixadas as bases, a cada matriz A ∈ Mmn corresponde uma
´unica aplica¸c˜ao linear f. A linearidade, como condi¸c˜ao, determina un´ıvocamente f
de tal forma que a sua representa¸c˜ao em matriz ´e a matriz dada.
Exemplo:
1. Seja f : R2
→ R2[ξ] definida por
f(x, y) = 2xξ2
+ 3(x + y)ξ + 4x − y. (4.20)
Trata-se com efeito de uma aplica¸c˜ao linear entre espa¸cos vectorias (cf. ex-
emplo 2 da sec¸c˜ao 4.1.2). Considerando as bases can´onicas daqueles espa¸cos,
de um lado B = {(1, 0), (0, 1)}, do outro ˜B = {ξ2
, ξ, 1}, temos
f(1, 0) = 2ξ2
+ 3ξ + 4, f(0, 1) = 3ξ − 1. (4.21)
Donde
M(f, B, ˜B) =



2 0
3 3
4 −1


 (4.22)
´e a matriz de f nas bases escolhidas.
2. Consideremos a aplica¸c˜ao identidade 1V : V → V . Podemos tomar a mesma
base no espa¸co de chegada — ali´as ´e quase sempre assim que fazemos quando
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 46
tratamos de endomorfismos de um dado espa¸co. Tem-se logo 1V (vi) = vi,
∀1 ≤ i ≤ n, pelo que a representa¸c˜ao matricial ´e
M(1V , B, B) = 1n (4.23)
como era de esperar.
Prova-se naturalmente, sem dificuldade, que a uma equa¸c˜ao linear f(v) = w0
em v corresponde um e um s´o sistema linear AX = B:
f(v) = w0 ⇔
n
i=1
xif(vi) =
m
j=1
bjwj ⇔
⇔
m
j=1
n
i=1
xiajiwj =
m
j=1
bjwj ⇔
⇔
n
i=1
ajixi = bj, ∀j ⇔ AX = B.
(4.24)
Prova-se ainda que o conjunto solu¸c˜ao Cw0 = {v : f(v) = w0} ´e igual a
v0 + Nuc f, onde v0 ´e uma solu¸c˜ao particular, isto ´e, f(v0) = w0. De facto, v ∈ Cw0
sse f(v − v0) = w0 − w0 = 0.
Como j´a foi certamente observado no teorema 16, a dimens˜ao da imagem de
f est´a relacionada com o maior sli contido na imagem, em W, dos vectores de
uma base de V . Ou seja, ´e exactamente a caracter´ıstica da matriz A. Mais ainda,
conclui-se que o grau de indetermina¸c˜ao n − r(A) do sistema acima ´e a dimens˜ao
do n´ucleo de f. Uma vez que n = n − r(A) + r(A), est´a provado o
Teorema 18. dim V = dim Nuc f + dim Im f.
´E um resultado relevante pois n˜ao depende da escolha das bases.
Nesta teoria acresce dizer que segue sem demonstra¸c˜ao a identidade
M(f + λg, B, ˜B) = M(f, B, ˜B) + λM(g, B, ˜B) (4.25)
∀f, g ∈ L(V, W), λ ∈ R.
4.2.3 Composi¸c˜ao vs produto
Sejam V, W, U espa¸cos vectoriais reais de dimens˜ao finita n, m, p, respectivamente.
Sejam B = {v1, . . . , vn}, ˜B = {w1, . . . , wm}, B = {u1, . . . , up} bases fixadas em
V, W, U, respectivamente.
Suponhamos que s˜ao dadas aplica¸c˜oes lineares
V
f
−→ W
g
−→ U. (4.26)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 47
Uma vez que g◦f tamb´em ´e uma aplica¸c˜ao linear, p˜oe-se a quest˜ao de relacionar
as matrizes
A = M(f, B, ˜B), B = M(g, ˜B, B ) (4.27)
com a matriz C = M(g ◦ f, B, B ).
Por defini¸c˜ao, analogamente com (4.19), isto ´e, f(vi) = m
j=1 ajiwj, tem-se
g(wj) =
p
k=1
bkjuk, g ◦ f (vi) =
p
k=1
ckiuk. (4.28)
Mas uma vez que
g ◦ f (vi) = g
m
j=1
ajiwj =
m
j=1
ajig(wj) =
=
m
j=1
p
k=1
ajibkjuk =
p
k=1
m
j=1
bkjajiuk
(4.29)
obt´em-se afinal
C = BA. (4.30)
Repare-se que A ∈ Mmn, B ∈ Mpm, pelo que o resultado C = BA ∈ Mpn faz
pleno sentido.
Est´a descoberta a natureza geom´etrica do produto de matrizes. Toda a teoria
estudada nos cap´ıtulos anteriores passou a fazer parte de um todo coerente.
Recordemos agora a aplica¸c˜ao identidade 1V : V → V e representˆemo-la numa
dada base B = {vi} de V como a matriz M(1V , B, B) = 1n. Pela lei demonstrada da
‘composi¸c˜ao vs produto’, deduz-se logo que a matriz da inversa de um isomorfismo
f : V → W, nas mesmas bases acima, verifica
M(f−1
, ˜B, B) = (M(f, B, ˜B))
−1
. (4.31)
Repare-se que se mudarmos para a base B1 do mesmo espa¸co V temos uma
matriz quadrada
P = M(1V , B, B1) = (M(1V , B1, B))−1
(4.32)
(a qual n˜ao tem nada que ser a matriz identidade). Uma tal matriz P chama-se
uma matriz de mudan¸ca de base.
Vejamos como se transforma em geral a matriz de uma aplica¸c˜ao linear qualquer
como a f : V → W inicial. Suponhamos que, al´em da mudan¸ca de bases em V ,
descrita por P, temos a mudan¸ca de bases ˜B para ˜B1 em W, descrita pela matriz
Q = M(1W , ˜B1, ˜B). Sendo A1 = M(f, B1, ˜B1), resulta de se ter f = 1W ◦ f ◦ 1V , de
(4.27) e de (4.30) que
A = QA1P. (4.33)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 48
Em particular, se f : V → V ´e um endomorfismo e usamos a mesma base dos
dois lados, uma mudan¸ca de bases, de ambos os lados, descrita por P, produz o
efeito A = P−1
A1P.
Exemplos:
1. Consideremos o exemplo 1 da sec¸c˜ao 4.2.2 e, em W = R2[ξ], mudemos da
base ˜B = {ξ2
, ξ, 1} para a base ˜B1 = {(ξ + 2)2
, (ξ + 2), 1}. Imediatamente
calculamos
ξ2
= (ξ + 2)2
− 4(ξ + 2) + 4
ξ = (ξ + 2) − 2
1 = 1
(4.34)
pelo que
Q = M(1W , ˜B, ˜B1) =



1 0 0
−4 1 0
4 −2 1


 . (4.35)
Logo
M(f, B, ˜B1) = Q



2 0
3 3
4 −1


 =



2 0
−5 3
6 −7


 . (4.36)
Podemos usar este resultado para escrever3
f na nova base:
f(x, y) = 2x(ξ + 2)2
+ (−5x + 3y)(ξ + 2) + 6x − 7y. (4.37)
Lembrar que tamb´em as matrizes, fixadas as bases, determinam un´ıvocamente
as aplica¸c˜oes lineares.
2. Como exemplo de aplica¸c˜ao, temos que se pode definir o determinante de
um endomorfismo f : V → V . Basta escrever
det f = det (M(f, B, B)). (4.38)
´E trivial provar, por (4.32) e (4.33), que (4.38) n˜ao depende da escolha da
base. Por exemplo, se f(v) = κv, ent˜ao det f = κn
.
4.2.4 Valores e vectores pr´oprios
Suponhamos que ´e dado um endomorfismo f : V → V de um espa¸co vectorial V
sobre R. Interessa-nos encontrar as direc¸c˜oes em V , socorrendo-nos aqui de uma
3 ´E o desenvolvimento de Taylor do polin´omio em ξ em torno de −2.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 49
linguagem geom´etrica, sobre as quais a imagem de f se expande ou se contrai. Ou
seja, interessam as direc¸c˜oes n˜ao nulas u ∈ V tais que
f(u) = λ0u (4.39)
para algum λ0 ∈ R. Um vector como u chama-se um vector pr´oprio de f asso-
ciado ao valor pr´oprio λ0.
Assumamos que V tem dimens˜ao finita n e que uma sua base foi pr´eviamente
escolhida. ´E claro que a equa¸c˜ao f(u) − λu = 0 tem solu¸c˜oes em u, λ, u = 0, sse o
sistema homog´eneo (A − λ1n)X = 0 ´e poss´ıvel indeterminado, quando representa-
mos por A a matriz de f (veja-se (4.24)).
Escrevendo o polin´omio caracter´ıstico de A,
pA(λ) = det (A − λ1n), (4.40)
diz´ıamos que o sistema tem solu¸c˜ao (u, λ0) sse λ0 ´e uma ra´ız de pA, ou seja,
λ0 ´e valor pr´oprio de A ⇐⇒ pA(λ0) = 0. (4.41)
Com efeito, se aquele determinante ´e nulo, a matriz A − λ01n tem caracter´ıstica
< n e logo o sistema tem solu¸c˜oes u ∈ V n˜ao nulas. E rec´ıprocamente.
Prova-se, reflectindo um pouco sobre as defini¸c˜oes, que pA ´e de facto um polin´omio
em λ, que o seu grau ´e n, que o coeficiente do termo λn
´e (−1)n
e que o termo in-
dependente ´e |A|.
Exemplo:
1. Seja f(x, y) = (2x, 3x − y) de R2
para si mesmo. A sua matriz na base
can´onica (1, 0), (0, 1) e o respectivo polin´omio caracter´ıstico s˜ao
A =
2 0
3 −1
, pA =
2 − λ 0
3 −1 − λ
= (λ − 2)(λ + 1). (4.42)
Ent˜ao os valores pr´oprios s˜ao 2 e −1. Os vectores pr´oprios associados resultam
de resolver, por exemplo, f(x, y) = 2(x, y). Isto ´e equivalente a (2x, 3x−y)−
2(x, y) = 0, ou ainda x = y. Segue portanto que os vectores em U2 = {(y, y) :
y ∈ R} = (1, 1) s˜ao associados ao valor pr´oprio 2. Fazendo o mesmo para
−1, vˆe-se logo que o respectivo subespa¸co pr´oprio ´e U−1 = (0, 1) .
Dissemos bem no exemplo anterior. Prova-se sem dificuldade que o subespa¸co
pr´oprio de V associado ao valor pr´oprio λ0 de f,
Uλ0 = u ∈ V : f(u) = λ0u , (4.43)
´e um subespa¸co vectorial. A sua dimens˜ao ´e a multiplicidade geom´etrica de λ0.
Esta distingue-se da multiplicidade alg´ebrica de λ0, que ´e a multiplicidade do
valor pr´oprio λ0 como ra´ız de pA.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 50
H´a, no m´aximo, tantas direc¸c˜oes pr´oprias linearmente independentes dentro de
Uλ0 quanto a multiplicidade alg´ebrica de λ0. Ou seja,
m.g. λ0 ≤ m.a. λ0. (4.44)
O caso da matriz
3 3
0 3
mostra-nos o problema que est´a em procurar uma
base de vectores pr´oprios. No exemplo vertente, de valor pr´oprio 3, 1 = m.g. 3 ≤
m.a. 3 = 2.
Seguramente para valores pr´oprios distintos h´a independˆencia linear, como diz
o
Teorema 19. Vectores pr´oprios u1, . . . , uk ∈ V de uma aplica¸c˜ao linear f associ-
ados a valores pr´oprios distintos λ1, . . . , λk, respectivamente, formam um sistema
de vectores linearmente independente.
Demonstra¸c˜ao. Por indu¸c˜ao em k. Sendo o resultado claro para k = 1, admitamo-
lo como v´alido para k e provˆemo-lo para k + 1. Podemos j´a supˆor λk+1 = 0.
Suponhamos, por absurdo, que existem escalares α1, . . . , αk tais que
uk+1 = α1u1 + · · · + αkuk.
Aplicando ent˜ao f de ambos os lados temos, por defini¸c˜ao e por linearidade,
λk+1uk+1 = λ1α1u1 + · · · + λkαkuk.
Ou seja, igualando a uk+1, temos
α1u1 + · · · + αkuk =
λ1α1
λk+1
u1 + · · · +
λkαk
λk+1
uk.
Agora, para vectores linearmente independentes, h´a unicidade da escrita de uma
combina¸c˜ao linear. Usando a hip´otese de indu¸c˜ao, s´o podemos ter ent˜ao λi
λk+1
=
1, ∀1 ≤ i ≤ k. Mas isto contradiz o facto de os λi serem todos distintos.
Outra forma de enunciar o teorema ´e simplesmente dizer que os diferentes sube-
spa¸cos vectoriais pr´oprios
Uλ1 ⊕ · · · ⊕ Uλk
(4.45)
est˜ao em soma directa.
4.2.5 Matrizes semelhantes
Duas matrizes quadradas A, A1 de ordem n dizem-se semelhantes se existe uma
matriz invert´ıvel P de ordem n tal que
A1 = PAP−1
. (4.46)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 51
Trata-se de uma rela¸c˜ao de equivalˆencia entre matrizes, cf. 1.1.2. Por exemplo,
a propriedade de transitividade resulta de
A = PA1P−1
& A1 = QA2Q−1
(4.47)
implicar
A = PQA2Q−1
P−1
= (PQ)A2(PQ)−1
. (4.48)
A reflexividade e simetria s˜ao ainda mais simples de ver.
J´a vimos que s˜ao semelhantes as v´arias matrizes M(f, B, B) de um endomorfismo
f representadas nas diferentes bases B de um mesmo espa¸co vectorial.
Pela mesma raz˜ao de representarem endomorfismos e de os vectores pr´oprios
destes serem independentes da base fixada, o polin´omio caracter´ıstico de matrizes
semelhantes n˜ao se altera:
pA(λ) = pA1 (λ). (4.49)
Mas pode e deve-se verificar este facto directamente da defini¸c˜ao de pA1 .
Uma matriz diz-se diagonaliz´avel se for semelhante a uma matriz diagonal.
Podemos agora afirmar sint´eticamente que um endomorfismo admite uma base
de vectores pr´oprios sse a sua representa¸c˜ao matricial ´e diagonaliz´avel.
A melhor aproxima¸c˜ao ao problema de diagonaliza¸c˜ao de uma matriz ´e dada,
grosso modo, pelo teorema da forma can´onica de Jordan, que estudaremos mais
tarde.
Para finalizar, lembramos que h´a invariantes num´ericos da classe de equivalˆencia
por semelhan¸ca de cada matriz. O primeiro, j´a visto no exemplo 2 de 4.2.3, ´e o
determinante.
O mesmo se passa com o tra¸co de uma matriz. Chamamos tra¸co de A `a soma
das entradas da diagonal principal.
Tr : Mn,n −→ R, Tr A =
n
i=1
aii (4.50)
´e uma aplica¸c˜ao linear `a qual acresce a propriedade
Tr (AB) = Tr (BA) (4.51)
para quaisquer matrizes A, B ∈ Mn,n.
Donde Tr A1 = Tr (PAP−1
) = Tr (P−1
PA) = Tr A para matrizes semelhantes.
Cap´ıtulo 5
5.1 Geometria do Espa¸co Euclidiano
5.1.1 Produto interno euclidiano
No espa¸co euclidiano Rn
, os problemas m´etricos, ´etimo de problemas de medi¸c˜ao, s˜ao
entendidos como aqueles que envolvem quest˜oes sobre o produto interno euclidiano.
Trata-se de um conceito matem´atico que joga o papel da r´egua e do compasso, ou
seja, dos instrumentos de medida de distˆancias e ˆangulos. Assim ser´a tamb´em
em geral, como veremos mais tarde, em qualquer espa¸co vectorial munido de um
dispositivo em tudo semelhante e ainda designado de produto interno.
Comecemos pela presente situa¸c˜ao.
O produto interno euclidiano consiste na fun¸c˜ao1
Rn
× Rn
−→ R, (u, v) −→ u, v =
n
i=1
xiyi (5.1)
onde se admite u = (x1, . . . , xn), v = (y1, . . . , yn).
´E imediato constatar que o produto interno ´e uma aplica¸c˜ao bilinear, ou seja, lin-
ear em u quando se fixa v e vice-versa. Basta ali´as verific´a-lo de um lado, porque tem
a propriedade adicional de ser sim´etrico. Assim, ∀u, u1, u2, v, v1, v2 ∈ Rn
, λ, µ ∈ R,
u1 + λu2, v1 + µv2 = u1, v1 + µv2 + λ u2, v1 + µv2 =
= u1, v1 + µ u1, v2 + λ u2, v1 + λµ u2, v2 ,
u, v = v, u .
(5.2)
Verifica-se tamb´em que u, u ≥ 0, com igualdade sse u = 0.
Posto isto, pode-se definir a norma de um vector, associada ao produto interno
euclidiano, como sendo
u = u, u = x2
1 + · · · + x2
n. (5.3)
1
Roga-se ao leitor o cuidado de n˜ao confundir os parˆenteses do p.i. com os de subespa¸co gerado.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 53
O leitor, numa primeira abordagem, poder´a aqui reconhecer formalmente o teorema
de Pit´agoras.
O produto interno euclidiano respeita mesmo a decomposi¸c˜ao de Rn
como soma
directa Rn1
⊕ Rn2
, onde n = n1 + n2, de espa¸cos com produto interno. ´E imediato
provar pela defini¸c˜ao, em sentido dos ´ındices f´acil de entender, que se tem
u, v n = u1, v1 n1 + u2, v2 n2 (5.4)
onde u = u1 + u2 e v = v1 + v2 representa a decomposi¸c˜ao, ´unica, na soma directa.
Daqui segue de facto o teorema de Pit´agoras, mas vˆe-lo-emos adiante noutra forma,
mais geral.
Como exemplo a destacar, calculemos o produto interno de alguns pares de
vectores em Rn
. Seja ei = (0, . . . , 0, 1, 0, . . . , 0), i = 1, . . . , n, a base can´onica;
ent˜ao
ei, ei = 02
+ · · · + 02
+ 12
+ 02
+ · · · + 02
= 1
ei, ej = 02
+ · · · + 0.1 + · · · + 1.0 + · · · + 02
= 0
(5.5)
para i = j.
A norma euclidiana obedece `a desigualdade de Cauchy
| u, v | ≤ u v , com igualdade sse u, v s˜ao colineares. (5.6)
A demonstra¸c˜ao pode ser feita por indu¸c˜ao ou pela an´alise do bin´omio descriminante
da par´abola u+λv, u+λv em λ, a qual como j´a vimos est´a sempre acima do eixo
dos λ’s.
Repare-se agora nas propriedades, f´aceis de provar, para todos os vectores e
escalares,
λu = |λ| u , u + v ≤ u + v . (5.7)
A segunda chama-se desigualdade triangular.
A desigualdade de Cauchy permite definir o ˆangulo entre dois vectores
(u, v) = arccos
u, v
u v
(5.8)
com a determina¸c˜ao de arccos, e.g., entre 0 e π.
5.1.2 Ortogonalidade
Seja U ⊂ Rn
um subconjunto qualquer, n˜ao vazio. Define-se o ortogonal de U
como o subconjunto
U⊥
= v ∈ Rn
: u, v = 0, ∀u ∈ U . (5.9)
Tem-se que U⊥
´e sempre um subespa¸co vectorial.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 54
Por linearidade, ´e evidente que U⊥
aparece como espa¸co solu¸c˜ao do sistema
homog´eneo em v = (x1, . . . , xn) de, digamos, k equa¸c˜oes lineares:
u1, v = 0, u2, v = 0, . . . , uk, v = 0 (5.10)
onde u1, . . . , uk ´e um sistema de vectores linearmente independente maximal dentro
de U, ou seja, uma base de U (subespa¸co gerado por U). Logo dim U⊥
= n − k.
Como U⊥
∩ U = {0}, est´a provado o
Teorema 20. Para qualquer subconjunto U do espa¸co euclidiano, temos a decom-
posi¸c˜ao em soma directa
Rn
= U⊥
⊕ U . (5.11)
Em particular, dim U⊥
= n − dim U .
Seja V um subespa¸co vectorial; de modo que Rn
= V ⊕ V ⊥
.
Podemos definir aplica¸c˜oes lineares π : Rn
→ V e π⊥
: Rn
→ V ⊥
dadas pela
decomposi¸c˜ao ´unica, ∀w ∈ Rn
, w = w1 + w2 com w1 ∈ V, w2 ∈ V ⊥
: escrevemos
ent˜ao π(w) = w1, π⊥
(w) = w2. Tˆem-se ent˜ao as rela¸c˜oes:
1Rn = π + π⊥
, π ◦ π⊥
= 0, π⊥
◦ π = 0,
π ◦ π = π π⊥
◦ π⊥
= π⊥
, ker π = V ⊥
ker π⊥
= V.
(5.12)
π e π⊥
s˜ao de facto lineares e chamam-se projec¸c˜oes ortogonais.
Repare-se que a sucess˜ao de aplica¸c˜oes lineares
0 −→ V ⊥ ι
−→ Rn π
−→ V −→ 0 (5.13)
com ι a aplica¸c˜ao de inclus˜ao, ι(w) = w, verifica em cada espa¸co que a imagem da
aplica¸c˜ao anterior ´e igual ao n´ucleo da seguinte.
´E claro que {0}⊥
= Rn
, Rn⊥
= {0}. Mais cuidado ´e preciso ter em verificar que
(U⊥
)⊥
= U . (5.14)
Em particular, para um subespa¸co vectorial V ⊂ Rn
, tem-se (V ⊥
)⊥
= V . (´E pela
dedu¸c˜ao da dimens˜ao, vista no teorema acima, que se afirma a inclus˜ao do ortogonal
do ortogonal em V .)
Por exemplo em R2
, o ortogonal ao vector (a, b), suposto = 0, ´e a recta gerada
por (−b, a).
Em R3
, o ortogonal a (a, b, c), suposto = 0, ´e o plano (dim 2) gerado pelo
sistema de vectores linearmente dependente (−b, a, 0), (−c, 0, a), (0, c, −b). Com
efeito, todos os trˆes vectores s˜ao ortogonais a (a, b, c), como se vˆe por exemplo no
caso do primeiro, (−b, a, 0), (a, b, c) = −ba + ab + 0c = 0, e tem-se a combina¸c˜ao
linear −c(−b, a, 0)+b(−c, 0, a)+a(0, c, −b) = 0, donde apenas dois em trˆes daqueles
vectores s˜ao linearmente independentes.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 55
Escrevemos agora duas identidades cuja verifica¸c˜ao ´e um exerc´ıcio. Primeiro, a
do paralelogramo
u + v 2
+ u − v 2
= 2 u 2
+ 2 v 2
(5.15)
e, segundo, a identidade de Pit´agoras generalizada: se u ⊥ v, ou seja, u, v = 0,
ent˜ao
u + v 2
= u 2
+ v 2
. (5.16)
Muitos problemas surgem em geometria euclidiana dos subespa¸cos de Rn
para
os quais certas bases s˜ao mais indicadas que outras.
Dizemos, para come¸car, que um vector u ´e unit´ario ou normado se u = 1.
Define-se base ortonormada como uma base {u1, . . . , un} do espa¸co euclidiano
formada de vectores unit´arios e ortogonais entre si. Ou seja,
uα, uβ = δαβ =
1 se α = β
0 se α = β
(5.17)
Os δαβ s˜ao chamados de s´ımbolos de Kronecker e correspondem `as entradas
da matriz 1n.
Exemplos:
1. A c´elebre base can´onica de Rn
´e uma base ortonormada, cf. (5.5).
2. Seja U o subespa¸co vectorial de R4
gerado por u1 = (1, 2, 3, 0) e u2 =
(2, 1, 4, −1). Portanto U = {λ1u1 + λ2u2 : λ1, λ2 ∈ R}. ´E f´acil ver que
os dois geradores s˜ao linearmente independentes, ie. formam uma base de U.
A projec¸c˜ao de u2 sobre a recta ortogonal a u1 dentro de U ´e u2 = u2 − v
onde v = u1, u2
u1
u1
2 . Com efeito,
u1, u2 = u1, u2 − u1, u2
u1, u1
u1
2
= 0
e, por outro lado, u2 = u2 + v com v sobre o eixo u1. Ent˜ao
˜u1 =
u1
u1
=
1
√
14
(1, 2, 3, 0) e ˜u2 =
u2
u2
=
1
√
182
(6, −9, 4, −7) (5.18)
formam outra base de U, desta feita uma base ortonormada: ˜ui, ˜uj = δij,
i, j = 1, 2.
Agora, U⊥
´e dado pelos vectores (x, y, z, w) solu¸c˜ao de
x + 2y + 3z = 0
2x + y + 4z − w = 0
. (5.19)
Prontuário de Álgebra Linear e Geometria Analítica
Prontuário de Álgebra Linear e Geometria Analítica
Prontuário de Álgebra Linear e Geometria Analítica
Prontuário de Álgebra Linear e Geometria Analítica
Prontuário de Álgebra Linear e Geometria Analítica
Prontuário de Álgebra Linear e Geometria Analítica
Prontuário de Álgebra Linear e Geometria Analítica
Prontuário de Álgebra Linear e Geometria Analítica
Prontuário de Álgebra Linear e Geometria Analítica
Prontuário de Álgebra Linear e Geometria Analítica
Prontuário de Álgebra Linear e Geometria Analítica
Prontuário de Álgebra Linear e Geometria Analítica
Prontuário de Álgebra Linear e Geometria Analítica
Prontuário de Álgebra Linear e Geometria Analítica
Prontuário de Álgebra Linear e Geometria Analítica
Prontuário de Álgebra Linear e Geometria Analítica
Prontuário de Álgebra Linear e Geometria Analítica

Mais conteúdo relacionado

Mais procurados

Mais procurados (17)

Gentil Lopes - ALGEBRA LINEAR (COMENTADO)
Gentil Lopes - ALGEBRA LINEAR (COMENTADO)Gentil Lopes - ALGEBRA LINEAR (COMENTADO)
Gentil Lopes - ALGEBRA LINEAR (COMENTADO)
 
Allison analitica
Allison analiticaAllison analitica
Allison analitica
 
Matrizes resumo
Matrizes resumoMatrizes resumo
Matrizes resumo
 
3 vacont
3 vacont3 vacont
3 vacont
 
áLgebra vetorial e geometria analítica
áLgebra vetorial e geometria analíticaáLgebra vetorial e geometria analítica
áLgebra vetorial e geometria analítica
 
Limites modelo normal_2016
Limites modelo normal_2016Limites modelo normal_2016
Limites modelo normal_2016
 
Equações diferenciais
Equações diferenciaisEquações diferenciais
Equações diferenciais
 
Apostila trigonometria exercícios resolvidos
Apostila trigonometria exercícios resolvidosApostila trigonometria exercícios resolvidos
Apostila trigonometria exercícios resolvidos
 
Ap mat universitaria
Ap mat universitariaAp mat universitaria
Ap mat universitaria
 
Mecanica geral 1
Mecanica geral 1Mecanica geral 1
Mecanica geral 1
 
Apostila elementos de matemática aplicada
Apostila elementos de matemática aplicadaApostila elementos de matemática aplicada
Apostila elementos de matemática aplicada
 
Herminio ladeira
Herminio ladeiraHerminio ladeira
Herminio ladeira
 
Aa booklet
Aa bookletAa booklet
Aa booklet
 
Algebra linear sergio zani
Algebra linear   sergio zaniAlgebra linear   sergio zani
Algebra linear sergio zani
 
Trigonometria
TrigonometriaTrigonometria
Trigonometria
 
Calculo numerico do professor eduardo colli.
Calculo numerico do professor  eduardo colli.Calculo numerico do professor  eduardo colli.
Calculo numerico do professor eduardo colli.
 
Ap algebra linear 002
Ap algebra linear  002Ap algebra linear  002
Ap algebra linear 002
 

Semelhante a Prontuário de Álgebra Linear e Geometria Analítica

Algoritmos e programação
Algoritmos e programaçãoAlgoritmos e programação
Algoritmos e programaçãoJucir
 
Redes de Petri
Redes de PetriRedes de Petri
Redes de Petriuern
 
Livro de algebra linear cópia
Livro de algebra linear   cópiaLivro de algebra linear   cópia
Livro de algebra linear cópiaLuiz Henrique
 
Análise Numérica
Análise NuméricaAnálise Numérica
Análise Numéricaomonda
 
Apostila unijuí matemática aplicada à administração 2
Apostila unijuí   matemática aplicada à administração 2Apostila unijuí   matemática aplicada à administração 2
Apostila unijuí matemática aplicada à administração 2Claudia Sá de Moura
 
Avaliação de Topologias de Redes Neurais Artificiais para Previsão do Consumo ...
Avaliação de Topologias de Redes Neurais Artificiais para Previsão do Consumo ...Avaliação de Topologias de Redes Neurais Artificiais para Previsão do Consumo ...
Avaliação de Topologias de Redes Neurais Artificiais para Previsão do Consumo ...Giovani Barili
 
Matemática volume único edwaldo bianchini e herval paccola
Matemática  volume único edwaldo bianchini e herval paccolaMatemática  volume único edwaldo bianchini e herval paccola
Matemática volume único edwaldo bianchini e herval paccolaAdriana Barbosa
 

Semelhante a Prontuário de Álgebra Linear e Geometria Analítica (20)

Fismat apostila
Fismat apostilaFismat apostila
Fismat apostila
 
Matrizes - resumo
Matrizes - resumoMatrizes - resumo
Matrizes - resumo
 
Algebra
AlgebraAlgebra
Algebra
 
Algebra moderna
Algebra modernaAlgebra moderna
Algebra moderna
 
Calculo 2p
Calculo 2pCalculo 2p
Calculo 2p
 
Algoritmos e programação
Algoritmos e programaçãoAlgoritmos e programação
Algoritmos e programação
 
Redes de Petri
Redes de PetriRedes de Petri
Redes de Petri
 
Livro de algebra linear cópia
Livro de algebra linear   cópiaLivro de algebra linear   cópia
Livro de algebra linear cópia
 
Funcões de uma variável
Funcões de uma variávelFuncões de uma variável
Funcões de uma variável
 
Algebra
AlgebraAlgebra
Algebra
 
Apostila lógica matemática
Apostila lógica matemáticaApostila lógica matemática
Apostila lógica matemática
 
1623
16231623
1623
 
Análise Numérica
Análise NuméricaAnálise Numérica
Análise Numérica
 
Ap ami v8
Ap ami v8Ap ami v8
Ap ami v8
 
Apontamentos
ApontamentosApontamentos
Apontamentos
 
Apostila unijuí matemática aplicada à administração 2
Apostila unijuí   matemática aplicada à administração 2Apostila unijuí   matemática aplicada à administração 2
Apostila unijuí matemática aplicada à administração 2
 
Analise real cassio neri
Analise real   cassio neriAnalise real   cassio neri
Analise real cassio neri
 
Avaliação de Topologias de Redes Neurais Artificiais para Previsão do Consumo ...
Avaliação de Topologias de Redes Neurais Artificiais para Previsão do Consumo ...Avaliação de Topologias de Redes Neurais Artificiais para Previsão do Consumo ...
Avaliação de Topologias de Redes Neurais Artificiais para Previsão do Consumo ...
 
Principio de Ánalise
Principio de Ánalise Principio de Ánalise
Principio de Ánalise
 
Matemática volume único edwaldo bianchini e herval paccola
Matemática  volume único edwaldo bianchini e herval paccolaMatemática  volume único edwaldo bianchini e herval paccola
Matemática volume único edwaldo bianchini e herval paccola
 

Último

o ciclo do contato Jorge Ponciano Ribeiro.pdf
o ciclo do contato Jorge Ponciano Ribeiro.pdfo ciclo do contato Jorge Ponciano Ribeiro.pdf
o ciclo do contato Jorge Ponciano Ribeiro.pdfCamillaBrito19
 
Noções de Farmacologia - Flávia Soares.pdf
Noções de Farmacologia - Flávia Soares.pdfNoções de Farmacologia - Flávia Soares.pdf
Noções de Farmacologia - Flávia Soares.pdflucassilva721057
 
Bullying - Texto e cruzadinha
Bullying        -     Texto e cruzadinhaBullying        -     Texto e cruzadinha
Bullying - Texto e cruzadinhaMary Alvarenga
 
Pedologia- Geografia - Geologia - aula_01.pptx
Pedologia- Geografia - Geologia - aula_01.pptxPedologia- Geografia - Geologia - aula_01.pptx
Pedologia- Geografia - Geologia - aula_01.pptxleandropereira983288
 
Slides Lição 5, Betel, Ordenança para uma vida de vigilância e oração, 2Tr24....
Slides Lição 5, Betel, Ordenança para uma vida de vigilância e oração, 2Tr24....Slides Lição 5, Betel, Ordenança para uma vida de vigilância e oração, 2Tr24....
Slides Lição 5, Betel, Ordenança para uma vida de vigilância e oração, 2Tr24....LuizHenriquedeAlmeid6
 
Mapa mental - Classificação dos seres vivos .docx
Mapa mental - Classificação dos seres vivos .docxMapa mental - Classificação dos seres vivos .docx
Mapa mental - Classificação dos seres vivos .docxBeatrizLittig1
 
PROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdf
PROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdfPROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdf
PROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdfMarianaMoraesMathias
 
Atividades sobre Coordenadas Geográficas
Atividades sobre Coordenadas GeográficasAtividades sobre Coordenadas Geográficas
Atividades sobre Coordenadas Geográficasprofcamilamanz
 
Considere a seguinte situação fictícia: Durante uma reunião de equipe em uma...
Considere a seguinte situação fictícia:  Durante uma reunião de equipe em uma...Considere a seguinte situação fictícia:  Durante uma reunião de equipe em uma...
Considere a seguinte situação fictícia: Durante uma reunião de equipe em uma...azulassessoria9
 
Slides Lição 04, Central Gospel, O Tribunal De Cristo, 1Tr24.pptx
Slides Lição 04, Central Gospel, O Tribunal De Cristo, 1Tr24.pptxSlides Lição 04, Central Gospel, O Tribunal De Cristo, 1Tr24.pptx
Slides Lição 04, Central Gospel, O Tribunal De Cristo, 1Tr24.pptxLuizHenriquedeAlmeid6
 
análise de redação completa - Dissertação
análise de redação completa - Dissertaçãoanálise de redação completa - Dissertação
análise de redação completa - DissertaçãoMaiteFerreira4
 
Dicionário de Genealogia, autor Gilber Rubim Rangel
Dicionário de Genealogia, autor Gilber Rubim RangelDicionário de Genealogia, autor Gilber Rubim Rangel
Dicionário de Genealogia, autor Gilber Rubim RangelGilber Rubim Rangel
 
Nós Propomos! " Pinhais limpos, mundo saudável"
Nós Propomos! " Pinhais limpos, mundo saudável"Nós Propomos! " Pinhais limpos, mundo saudável"
Nós Propomos! " Pinhais limpos, mundo saudável"Ilda Bicacro
 
Literatura Brasileira - escolas literárias.ppt
Literatura Brasileira - escolas literárias.pptLiteratura Brasileira - escolas literárias.ppt
Literatura Brasileira - escolas literárias.pptMaiteFerreira4
 
Aula de História Ensino Médio Mesopotâmia.pdf
Aula de História Ensino Médio Mesopotâmia.pdfAula de História Ensino Médio Mesopotâmia.pdf
Aula de História Ensino Médio Mesopotâmia.pdfFernandaMota99
 
Libras Jogo da memória em LIBRAS Memoria
Libras Jogo da memória em LIBRAS MemoriaLibras Jogo da memória em LIBRAS Memoria
Libras Jogo da memória em LIBRAS Memorialgrecchi
 
GÊNERO TEXTUAL - TIRINHAS - Charges - Cartum
GÊNERO TEXTUAL - TIRINHAS - Charges - CartumGÊNERO TEXTUAL - TIRINHAS - Charges - Cartum
GÊNERO TEXTUAL - TIRINHAS - Charges - CartumAugusto Costa
 
Manual da CPSA_1_Agir com Autonomia para envio
Manual da CPSA_1_Agir com Autonomia para envioManual da CPSA_1_Agir com Autonomia para envio
Manual da CPSA_1_Agir com Autonomia para envioManuais Formação
 
Revista-Palavra-Viva-Profetas-Menores (1).pdf
Revista-Palavra-Viva-Profetas-Menores (1).pdfRevista-Palavra-Viva-Profetas-Menores (1).pdf
Revista-Palavra-Viva-Profetas-Menores (1).pdfMárcio Azevedo
 

Último (20)

o ciclo do contato Jorge Ponciano Ribeiro.pdf
o ciclo do contato Jorge Ponciano Ribeiro.pdfo ciclo do contato Jorge Ponciano Ribeiro.pdf
o ciclo do contato Jorge Ponciano Ribeiro.pdf
 
Noções de Farmacologia - Flávia Soares.pdf
Noções de Farmacologia - Flávia Soares.pdfNoções de Farmacologia - Flávia Soares.pdf
Noções de Farmacologia - Flávia Soares.pdf
 
Bullying - Texto e cruzadinha
Bullying        -     Texto e cruzadinhaBullying        -     Texto e cruzadinha
Bullying - Texto e cruzadinha
 
Pedologia- Geografia - Geologia - aula_01.pptx
Pedologia- Geografia - Geologia - aula_01.pptxPedologia- Geografia - Geologia - aula_01.pptx
Pedologia- Geografia - Geologia - aula_01.pptx
 
Slides Lição 5, Betel, Ordenança para uma vida de vigilância e oração, 2Tr24....
Slides Lição 5, Betel, Ordenança para uma vida de vigilância e oração, 2Tr24....Slides Lição 5, Betel, Ordenança para uma vida de vigilância e oração, 2Tr24....
Slides Lição 5, Betel, Ordenança para uma vida de vigilância e oração, 2Tr24....
 
Mapa mental - Classificação dos seres vivos .docx
Mapa mental - Classificação dos seres vivos .docxMapa mental - Classificação dos seres vivos .docx
Mapa mental - Classificação dos seres vivos .docx
 
PROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdf
PROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdfPROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdf
PROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdf
 
Atividades sobre Coordenadas Geográficas
Atividades sobre Coordenadas GeográficasAtividades sobre Coordenadas Geográficas
Atividades sobre Coordenadas Geográficas
 
Considere a seguinte situação fictícia: Durante uma reunião de equipe em uma...
Considere a seguinte situação fictícia:  Durante uma reunião de equipe em uma...Considere a seguinte situação fictícia:  Durante uma reunião de equipe em uma...
Considere a seguinte situação fictícia: Durante uma reunião de equipe em uma...
 
Slides Lição 04, Central Gospel, O Tribunal De Cristo, 1Tr24.pptx
Slides Lição 04, Central Gospel, O Tribunal De Cristo, 1Tr24.pptxSlides Lição 04, Central Gospel, O Tribunal De Cristo, 1Tr24.pptx
Slides Lição 04, Central Gospel, O Tribunal De Cristo, 1Tr24.pptx
 
análise de redação completa - Dissertação
análise de redação completa - Dissertaçãoanálise de redação completa - Dissertação
análise de redação completa - Dissertação
 
Dicionário de Genealogia, autor Gilber Rubim Rangel
Dicionário de Genealogia, autor Gilber Rubim RangelDicionário de Genealogia, autor Gilber Rubim Rangel
Dicionário de Genealogia, autor Gilber Rubim Rangel
 
Nós Propomos! " Pinhais limpos, mundo saudável"
Nós Propomos! " Pinhais limpos, mundo saudável"Nós Propomos! " Pinhais limpos, mundo saudável"
Nós Propomos! " Pinhais limpos, mundo saudável"
 
Literatura Brasileira - escolas literárias.ppt
Literatura Brasileira - escolas literárias.pptLiteratura Brasileira - escolas literárias.ppt
Literatura Brasileira - escolas literárias.ppt
 
Aula de História Ensino Médio Mesopotâmia.pdf
Aula de História Ensino Médio Mesopotâmia.pdfAula de História Ensino Médio Mesopotâmia.pdf
Aula de História Ensino Médio Mesopotâmia.pdf
 
Libras Jogo da memória em LIBRAS Memoria
Libras Jogo da memória em LIBRAS MemoriaLibras Jogo da memória em LIBRAS Memoria
Libras Jogo da memória em LIBRAS Memoria
 
CINEMATICA DE LOS MATERIALES Y PARTICULA
CINEMATICA DE LOS MATERIALES Y PARTICULACINEMATICA DE LOS MATERIALES Y PARTICULA
CINEMATICA DE LOS MATERIALES Y PARTICULA
 
GÊNERO TEXTUAL - TIRINHAS - Charges - Cartum
GÊNERO TEXTUAL - TIRINHAS - Charges - CartumGÊNERO TEXTUAL - TIRINHAS - Charges - Cartum
GÊNERO TEXTUAL - TIRINHAS - Charges - Cartum
 
Manual da CPSA_1_Agir com Autonomia para envio
Manual da CPSA_1_Agir com Autonomia para envioManual da CPSA_1_Agir com Autonomia para envio
Manual da CPSA_1_Agir com Autonomia para envio
 
Revista-Palavra-Viva-Profetas-Menores (1).pdf
Revista-Palavra-Viva-Profetas-Menores (1).pdfRevista-Palavra-Viva-Profetas-Menores (1).pdf
Revista-Palavra-Viva-Profetas-Menores (1).pdf
 

Prontuário de Álgebra Linear e Geometria Analítica

  • 1. Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica R. Albuquerque 14 de Fevereiro de 2013
  • 2. Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica Segunda vers˜ao Rui Albuquerque rpa@uevora.pt Departamento de Matem´atica da Universidade de ´Evora Rua Rom˜ao Ramalho, 59, 7000-671 ´Evora, Portugal Introdu¸c˜ao Estes apontamentos serviram de guia `a disciplina ´Algebra Linear e Geometria Anal´ıtica das licenciaturas em ´areas da Engenharia e da F´ısica da Universidade de ´Evora do ano lectivo 2008/09. A mat´eria segue a das aulas te´oricas, complementada com exemplos e problemas novos. Percorrem-se diversos temas da ´algebra ligados `a geometria dos espa¸cos vec- toriais e das aplica¸c˜oes lineares, estruturas fundamentais da F´ısica-Matem´atica- Engenharia.
  • 3. 2 Desejamos cumprir objectivos pr´aticos e concretos de transmiss˜ao do conheci- mento. Todavia, queremos que estas notas contrariem, ou mesmo n˜ao permitam, a redu¸c˜ao da mat´eria “a um punhado de receitas” e a desvaloriza¸c˜ao do saber te´orico. E por duas raz˜oes: nem o conhecimento pr´atico ser´a sempre ´util, nem “o saber te´orico ocupa assim tanto lugar”, parafraseando o c´elebre ad´agio popular. O conhecimento te´orico dever´a ser ali´as o esteio de toda a forma¸c˜ao cient´ıfico- t´ecnica de base. Vemos a necessidade, como em qualquer outra disciplina nuclear da Matem´atica, de demonstrar os teoremas e proposi¸c˜oes que vamos escrevendo. Estas demon- stra¸c˜oes apoiam-se em defini¸c˜oes e, naturalmente, em teoremas e proposi¸c˜oes anteri- ores. Assumimos de conhecimento do leitor outras teorias ou delas uma ligeir´ıssima parte, como a dos conjuntos, da l´ogica, da geometria euclidiana ou dos n´umeros naturais. Explicada a extens˜ao aparente do conte´udo, deve o leitor acompanhar-se de uma folha de papel e l´apis para resolver algumas afirma¸c˜oes n˜ao provadas — aquelas que s˜ao apenas auxiliares de objectivos maiores ou que julgamos ser˜ao exerc´ıcios interessantes. Vejamos um resumo dos cap´ıtulos. Come¸camos com a ´algebra abstracta, que tem algumas defini¸c˜oes essenciais para a parte linear da mat´eria. S˜ao particularmente importantes a no¸c˜ao de fun¸c˜ao e a no¸c˜ao de grupo, que desde cedo devem ser assimiladas. Outras defini¸c˜oes neste primeiro cap´ıtulo servem apenas para ilustrar problemas com que os matem´aticos se debatem, esperando que este contacto traga mais luz que permita ao leitor superar alguns dos purismos que a teoria exige. Segue-se o estudo das matrizes e dos sistemas de equa¸c˜oes lineares, onde reina o espa¸co vectorial Rn posto que nos limitamos a coeficientes reais. Para os sistemas, invocamos princ´ıpios cl´assicos de equivalˆencia ou indepedˆencia de equa¸c˜oes. Para levar `a compreens˜ao da no¸c˜ao de caracter´ıstica de uma matriz e `a de indepedˆencia linear de um sistema de vectores. Neste contexto segue o cap´ıtulo dos determinantes para matrizes quadradas de coeficientes em R. Apoia-se em elementos da teoria dos grupos de permuta¸c˜oes. Depois vemos as propriedades multilineares da fun¸c˜ao determinante, a linguagem que permitir´a o aluno interessado prosseguir em Geometria-F´ısica modernas. O cerne da ´Algebra Linear encontra-se no cap´ıtulo quatro, com a introdu¸c˜ao e manuseio dos conceitos de espa¸co vectorial e aplica¸c˜ao linear. Mesmo em dimens˜ao finita, em que escolhida uma base poderemos fazer a iden- tifica¸c˜ao de um dado espa¸co vectorial com Rn , os conceitos abstractos s˜ao os mais valiosos. S˜ao as bases e a dimens˜ao do espa¸co, a partir da no¸c˜ao fundamental de sistema de vectores linearmente indepedente, s˜ao os exemplos em dimens˜ao infinita, ´e o retorno `as matrizes com o importante conceito de representa¸c˜ao e s˜ao, final-
  • 4. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 3 mente, as transforma¸c˜oes lineares entre espa¸cos vectoriais e a procura de vectores pr´oprios, como direc¸c˜oes singulares que s˜ao, de um endomorfismo linear. No cap´ıtulo cinco mostramos aplica¸c˜oes na geometria do espa¸co euclidiano Rn , com o seu produto interno can´onico: o mais elementar produto interno decorre da generaliza¸c˜ao do teorema de Pit´agoras. ´E de notar que nesse modelo se verifica o axioma das paralelas para hiperplanos afins. Temos por isso tamb´em uma geometria euclidiana no sentido axiom´atico. Apresentamos uma classifica¸c˜ao dos s´olidos plat´onicos, exemplo da geometria anal´ıtica e combinat´oria n˜ao usual no contexto de cursos como este. Por muitos considerada uma autˆentica maravilha da matem´atica, aqueles s´olidos poli´edricos, infelizmente, ainda s˜ao pouco conhecidos dos estudantes. A nossa necessidade de referir os poliedros vem de uma sec¸c˜ao final, em que se define volume como “´area da base vezes altura’, a qual tem m´ultiplas aplica¸c˜oes e literalmente nos permite fechar o c´ırculo, retornando `as matrizes e aos determinantes de cap´ıtulos iniciais. Na elabora¸c˜ao deste prontu´ario fizemos uso dos manuais dos nossos mestres, [Agu83], [Mac90] e [Mon89], e de outras gratas referˆencias para n´os como a de [Aud03]. Tamb´em benefici´amos da consulta `a enciclop´edia [Wik] e assim poder´a e dever´a acontecer, acautele-se a falta de demonstra¸c˜oes, com o leitor ´avido de mais con- hecimento.
  • 5. Conte´udo 1 6 1.1 T´opicos elementares da Teoria dos Conjuntos . . . . . . . . . . . . 6 1.1.1 Primeiras no¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . . 6 1.1.2 Rela¸c˜oes de equivalˆencia . . . . . . . . . . . . . . . . . . . . 7 1.1.3 Fun¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.2 T´opicos de Estruturas Alg´ebricas . . . . . . . . . . . . . . . . . . . 9 1.2.1 Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.2.2 An´eis e Corpos . . . . . . . . . . . . . . . . . . . . . . . . . 11 2 14 2.1 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.1.1 Primeiras defini¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . 14 2.1.2 Matrizes especiais . . . . . . . . . . . . . . . . . . . . . . . . 16 2.1.3 Transposta . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.2 Sistemas de Equa¸c˜oes Lineares . . . . . . . . . . . . . . . . . . . . . 18 2.2.1 M´etodo de resolu¸c˜ao pela adi¸c˜ao ordenada . . . . . . . . . . 18 2.2.2 Condensa¸c˜ao de uma matriz . . . . . . . . . . . . . . . . . . 19 2.2.3 Estudo dos sistemas . . . . . . . . . . . . . . . . . . . . . . 20 2.3 Espa¸co Euclidiano . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.3.1 O espa¸co vectorial Rn ou espa¸co euclidiano . . . . . . . . . . 21 2.3.2 Independˆencia linear . . . . . . . . . . . . . . . . . . . . . . 22 2.4 A caracter´ıstica e a inversa de novo . . . . . . . . . . . . . . . . . . 23 2.4.1 Caracter´ıstica de linha vs caracter´ıstica de coluna . . . . . . 23 2.4.2 C´alculo da inversa . . . . . . . . . . . . . . . . . . . . . . . 25 3 27 3.1 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 3.1.1 Grupos de permuta¸c˜oes . . . . . . . . . . . . . . . . . . . . . 27 3.1.2 Defini¸c˜ao de determinante . . . . . . . . . . . . . . . . . . . 29 3.1.3 Propriedades do determinante . . . . . . . . . . . . . . . . . 29 3.1.4 C´alculo de determinantes . . . . . . . . . . . . . . . . . . . . 31 3.1.5 Regra do produto . . . . . . . . . . . . . . . . . . . . . . . . 32
  • 6. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 5 3.2 Regra de Laplace e aplica¸c˜oes . . . . . . . . . . . . . . . . . . . . . 34 3.2.1 Regra de Laplace . . . . . . . . . . . . . . . . . . . . . . . . 34 3.2.2 A matriz adjunta . . . . . . . . . . . . . . . . . . . . . . . . 36 3.2.3 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . 37 4 39 4.1 Espa¸cos vectoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 4.1.1 Defini¸c˜oes e exemplos . . . . . . . . . . . . . . . . . . . . . . 39 4.1.2 Bases e dimens˜ao . . . . . . . . . . . . . . . . . . . . . . . . 40 4.1.3 Soma cartesiana e soma directa . . . . . . . . . . . . . . . . 42 4.2 Aplica¸c˜oes lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 4.2.1 Defini¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 4.2.2 Representa¸c˜ao matricial . . . . . . . . . . . . . . . . . . . . 44 4.2.3 Composi¸c˜ao vs produto . . . . . . . . . . . . . . . . . . . . 46 4.2.4 Valores e vectores pr´oprios . . . . . . . . . . . . . . . . . . . 48 4.2.5 Matrizes semelhantes . . . . . . . . . . . . . . . . . . . . . . 50 5 52 5.1 Geometria do Espa¸co Euclidiano . . . . . . . . . . . . . . . . . . . . 52 5.1.1 Produto interno euclidiano . . . . . . . . . . . . . . . . . . . 52 5.1.2 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . 53 5.1.3 Subespa¸cos afins . . . . . . . . . . . . . . . . . . . . . . . . 56 5.1.4 Problemas m´etricos em subespa¸cos afins . . . . . . . . . . . 57 5.2 Geometria de R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 5.2.1 Equa¸c˜oes de rectas e planos . . . . . . . . . . . . . . . . . . 59 5.2.2 Algumas f´ormulas de distˆancias . . . . . . . . . . . . . . . . 60 5.2.3 Pol´ıgonos e poliedros . . . . . . . . . . . . . . . . . . . . . . 61 5.2.4 Comprimentos, ´areas e volumes . . . . . . . . . . . . . . . . 65
  • 7. Cap´ıtulo 1 1.1 T´opicos elementares da Teoria dos Conjuntos 1.1.1 Primeiras no¸c˜oes Ami´ude necessitamos de referir aquilo que se conhece como conjuntos e descrever as suas rela¸c˜oes, que se entendem como rela¸c˜oes que os elementos desses conjuntos, e de outros, satisfazem entre si. Os conjuntos designam-se por letras: A, B, C, .... Se escrevemos x ∈ A, quere- mos dizer que x pertence a A ou, o que ´e o mesmo, x ´e elemento de A. Novas rela¸c˜oes/nota¸c˜oes: chamamos intersec¸c˜ao e reuni˜ao, respectivamente, aos conjuntos A ∩ B = {x : x ∈ A e x ∈ B}, A ∪ B = {x : x ∈ A ou x ∈ B}. (1.1) Ao dizermos A ´e subconjunto de B, em s´ımbolos, A ⊂ B, significamos que ∀x ∈ A, x ∈ B. O conjunto B A ´e o conjunto {x : x ∈ B e x /∈ A}. Sabendo, de antem˜ao, o “universo” a que todos os elementos pertencem, podemos escrever e designar por complementar de B o conjunto Bc = {x : x /∈ B}. Poder-se-´a pensar tamb´em no conjunto vazio ∅ como o complementar do “uni- verso”. ´E o conjunto sem elementos. Da l´ogica bivalente (l´ogica natural constru´ıda ao longo da evolu¸c˜ao humana de milh˜oes de anos), resultam as seguintes leis de Morgan: Ac ∩ Bc = (A ∪ B)c Ac ∪ Bc = (A ∩ B)c . (1.2) Claro que (Ac )c = A, donde a segunda lei tamb´em resulta da primeira. Outras constru¸c˜oes importantes de conjuntos s˜ao, por exemplo, o produto cartesiano de A e B: A × B = {(a, b) : a ∈ A, b ∈ B}. (1.3) Os novos elementos “(a, b)” chamam-se pares ordenados.
  • 8. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 7 Note-se que nem todos os subconjuntos de A × B podem ser escritos, de novo, como produtos cartesianos de subconjuntos de A e B. Por exemplo, tal ´e o caso da diagonal de um conjunto A, ou seja, ∆(A) = {(a, a) ∈ A × A : a ∈ A}, a qual ´e distinta de A × A se A tem mais do que um elemento. Claro que (A ∪ B) × C = A × C ∪ B × C. E analogamente para ∩ no lugar de ∪. 1.1.2 Rela¸c˜oes de equivalˆencia Algum tipo de rela¸c˜oes entre elementos de um ou v´arios conjuntos ´e particular- mente ´util na conceptualiza¸c˜ao de novas propriedades e distin¸c˜oes. Por exemplo, a rela¸c˜ao de ordem total em R est´a intr´ınsecamente ligada aos fundamentos da An´alise Matem´atica. Tratamos, neste momento, das rela¸c˜oes de equivalˆencia, as quais decomp˜oem um dado conjunto X em classes de equivalˆencia. Lembremos que uma rela¸c˜ao consiste numa determinada escolha de pares ordenados. Dizemos que uma rela¸c˜ao ∼ em X ´e uma rela¸c˜ao de equivalˆencia se: ∀x ∈ X, x ∼ x (reflexividade), ∀x ∈ X, x ∼ y ⇒ y ∼ x (simetria), ∀x, y, z ∈ X, x ∼ y & y ∼ z ⇒ x ∼ z (transitividade). (1.4) Claro que as tais classes de equivalˆencia s˜ao dadas por um representante: Cx = {y : y ∈ X e x ∼ y}. Note-se que o papel de x ´e mesmo e apenas o de representante da sua classe. ´E f´acil ver que: Cx ∩ Cx1 = ∅ ⇔ x ∼ x1. (1.5) Com efeito, se ∃y : x ∼ y e x1 ∼ y, ent˜ao pela simetria e transitividade vem x ∼ x1. E rec´ıprocamente. Assim, neste tipo de rela¸c˜oes, as classes ou n˜ao se tocam, ou s˜ao as mesmas. Mais ainda, qualquer decomposi¸c˜ao de um dado conjunto Z como uni˜ao de subconjuntos n˜ao vazios e disjuntos dois-a-dois, Z = α Zα, tal que Zα ∩ Zα = ∅, ∀α = α , (1.6) d´a origem a uma ´unica rela¸c˜ao de equivalˆencia em Z, a saber: x ∼ y ⇐⇒ ∃α : x, y ∈ Zα. (1.7) O conjunto dos α’s, isto ´e, formado como o conjunto das classes de equivalˆencia, denota-se por Z/ ∼.
  • 9. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 8 1.1.3 Fun¸c˜oes Conceito fundamental em matem´atica ´e o de fun¸c˜ao, um ‘dispositivo’ que estabelece uma correspondˆencia entre um dado conjunto X, chamado de partida, e outro conjunto Y , dito de chegada. Tamb´em se chama a uma fun¸c˜ao uma aplica¸c˜ao. Denota-se por f : X −→ Y, x ∈ X −→ y = f(x) ∈ Y. (1.8) Uma tal correspondˆencia s´o ´e uma fun¸c˜ao quando a cada x ∈ X, um objecto, se atribui um, e um s´o, valor ou imagem y = f(x) ∈ Y . A fun¸c˜ao diz-se injectiva se, para x’s distintos em X, f atribui valores f(x)’s tamb´em distintos. Formalmente, ∀x1, x2 ∈ X, x1 = x2 =⇒ f(x1) = f(x2). (1.9) Logicamente, esta afirma¸c˜ao ´e equivalente a ∀x1, x2 ∈ X, f(x1) = f(x2) =⇒ x1 = x2. (1.10) A fun¸c˜ao ´e sobrejectiva se todo o y ´e imagem de algum x por meio de f: ∀y ∈ Y, ∃x ∈ X : y = f(x). (1.11) A fun¸c˜ao ´e bijectiva se for injectiva e sobrejectiva. Neste caso pode-se definir uma fun¸c˜ao chamada de inversa, a saber, a fun¸c˜ao f−1 : Y −→ X dada por ∀y ∈ Y, o valor de f−1 (y) ´e o ´unico x : f(x) = y. (1.12) Necessitamos, com frequˆencia, de outras formas de obter novas fun¸c˜oes. Podemos compˆor duas fun¸c˜oes dadas f : X → Y e g : Z → W, por certa ordem, desde que, por exemplo, Y, Z tenham pontos em comum. Obtemos, com efeito, a fun¸c˜ao composta g ◦ f : X → W definida por (g ◦ f)(x) = g(f(x)) e onde X ´e o dom´ınio onde faz sentido essa mesma express˜ao, isto ´e, X = {x ∈ X : f(x) ∈ Z}. (1.13) Dado um conjunto X chamamos fun¸c˜ao identidade a 1X : X → X, 1X(x) = x. Uma fun¸c˜ao f : X → Y tem uma inversa `a esquerda, isto ´e, ∃g : Y → X tal que g ◦ f = 1X se, e s´o se1 , f for injectiva. Uma fun¸c˜ao f : X → Y tem uma inversa `a direita, isto ´e, ∃h : Y → X tal que f ◦ h = 1Y sse f for sobrejectiva. As duas afirma¸c˜oes anteriores s˜ao exerc´ıcios para o leitor. Delas se conclui, no caso em que f ´e bijectiva, h = g = f−1 . 1 Daqui em diante, como abreviatura de “se, e s´o se,” tomamos “sse”. Significa o mesmo que “equivalente”.
  • 10. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 9 Uma rela¸c˜ao bem estabelecida entre um par de conjuntos2 ´e a seguinte, denotada : A B sse existe fun¸c˜ao bijectiva entre A e B. (1.14) Trata-se de uma rela¸c˜ao de equivalˆencia, como ´e f´acil provar. Outras ‘identifica¸c˜oes’ se podem naturalmente estabelecer. Por exemplo, para trˆes conjuntos dados, tem-se A × (B × C) = (A × B) × C. 1.2 T´opicos de Estruturas Alg´ebricas 1.2.1 Grupos A no¸c˜ao alg´ebrica simultˆaneamente mais elementar e necess´aria ´e a de grupo. Um conjunto G munido de uma opera¸c˜ao bin´aria G × G → G, (a, b) → ab, (1.15) que satisfaz - associatividade : ∀a, b, c ∈ G, (ab)c = a(bc), - existe elemento neutro : ∃e ∈ G : ∀a ∈ G, ae = ea = a, - todos os elementos tˆem inverso : ∀a ∈ G, ∃b ∈ G : ab = ba = e, (1.16) chama-se um grupo. Prova-se facilmente que o elemento neutro ´e ´unico e que o inverso de cada elemento tamb´em ´e ´unico. O truque est´a, em ambos os casos, em come¸car por supˆor que existem dois elementos e acabar por chegar a um absurdo. Us´amos acima a nota¸c˜ao multiplicativa. Por vezes usa-se a aditivia. Na primeira nota¸c˜ao, o elemento neutro designa-se por e ou por 1. Na segunda, por 0. Na primeira nota¸c˜ao, o inverso de a denota-se por a−1 , e na segunda denota-se por −a e chama-se oposto ou sim´etrico de a. Exemplos: 1. (R, +) ´e um grupo com a opera¸c˜ao de adi¸c˜ao + usual. 2. (R {0}, ·) ´e um grupo com a opera¸c˜ao de multiplica¸c˜ao usual. 3. Seja dado um conjunto X e seja G := A(X) = {f : X → X| f ´e bijectiva} (1.17) o conjunto das fun¸c˜oes bijectivas de X para X. Ent˜ao G ´e um grupo se tomarmos como opera¸c˜ao a composi¸c˜ao de fun¸c˜oes. Com efeito, se f, g ∈ G, 2 Evitemos desde j´a o paradoxo que consiste em tomar “o conjunto de todos os conjuntos”.
  • 11. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 10 ent˜ao f◦g tamb´em est´a em G porque tamb´em ´e uma fun¸c˜ao bijectiva. Vejamos a associatividade: duas fun¸c˜oes com o mesmo espa¸co de partida e de chegada s˜ao iguais se, a cada objecto, fazem corresponder a mesma imagem. Ent˜ao, por defini¸c˜ao, tomando um terceiro elemento h ∈ G e qualquer x ∈ X, (g ◦ f) ◦ h (x) = (g ◦ f)(h(x)) = g(f(h(x))) = g ◦ (f ◦ h) (x). Donde (g◦f)◦h = g◦(f ◦h), como quer´ıamos. Agora, o elemento neutro de G ´e naturalmente a fun¸c˜ao identidade 1X. E o inverso de f coincide exactamente com a fun¸c˜ao inversa, como se esperava. Nos grupos dos exemplos 1 e 2 acima, as opera¸c˜oes, bem conhecidas, s˜ao comu- tativas. Um grupo G qualquer diz-se comutativo ou abeliano se ab = ba, ∀a, b ∈ G. (1.18) O exemplo 3 de h´a pouco n˜ao ´e comutativo em geral. Repare-se no grupo de permuta¸c˜oes de n ∈ N elementos, ou grupo sim´etrico Sn, o qual consiste no grupo A(X) com X = {1, 2, 3, . . . , n}. ´E simples concluir que A(X) = Sn tem n! elementos. Se n ≥ 3, ent˜ao aquele grupo n˜ao ´e comutativo. Basta pensar nas seguintes fun¸c˜oes (em cima est˜ao os objectos, em baixo as respectivas imagens): f = 1 2 3 1 3 2 , g = 1 2 3 2 1 3 , (1.19) admitindo ainda que f, g fixam todos os i ≥ 4. Resulta ent˜ao f ◦ g = 1 2 3 3 1 2 , g ◦ f = 1 2 3 2 3 1 (1.20) onde se rende expl´ıcita a falta de comutatividade. H´a muitos mais grupos n˜ao comutativos que comutativos. H´a exemplos, como o de grupo de permuta¸c˜oes, que explicam muito. Veja-se o seguinte teorema c´elebre. Teorema 1 (Cayley). Todo o grupo G ´e subgrupo de um grupo de permuta¸c˜oes. A no¸c˜ao de subgrupo ´e a de um subconjunto que herda a estrutura do grupo em que est´a contido. Portanto, um subconjunto fechado para a opera¸c˜ao do grupo e para a passagem ao inverso. Vejamos a demonstra¸c˜ao do teorema de Cayley.
  • 12. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 11 Demonstra¸c˜ao. Com efeito, a cada g ∈ G associamos a seguinte permuta¸c˜ao Lg do pr´oprio grupo G: Lg : G → G, Lg(h) = gh. Vem ent˜ao que Lg1g2 (h) = g1g2h = Lg1 (Lg2 (h)) = Lg1 ◦ Lg2 (h), ∀g1, g2, h ∈ G (1.21) pelo que a estrutura da imagem de L como subgrupo de A(G), L : G −→ A(G), g → Lg, (1.22) ´e a mesma estrutura de G, pois que L ´e injectiva como se poder´a verificar. Note-se que a aplica¸c˜ao L est´a subjacente no enunciado do teorema de Cayley. Raramente, claro, a aplica¸c˜ao L ´e sobrejectiva. 1.2.2 An´eis e Corpos A no¸c˜ao que se segue ´e muito rica, ainda que dispens´avel num curso de ´Algebra Linear. Seja A um conjunto munido de duas opera¸c˜oes, + e ‘vezes’ ·, tais que - (A, +) ´e grupo comutativo - a opera¸c˜ao · ´e associativa - d˜ao-se as propriedades distribuitivas: a(b + c) = ab + ac, (a + b)c = ac + bc, ∀a, b, c ∈ A. (1.23) Dizemos ent˜ao que A ´e um anel. Se · ´e comutativa, o anel A diz-se comutativo ou abeliano. Se existe elemento neutro 1 da multiplica¸c˜ao, o anel diz-se unit´ario. (Z, +, ·) ´e o exemplo prim´ario. N˜ao menos o s˜ao o anel dos n´umeros pares, 2Z, ou os m´ultiplos de 3, ou 4, etc... Os an´eis kZ = {kn : n ∈ Z} s˜ao todos comutativos, mas s´o Z ´e unit´ario. Outro exemplo menos trivial ´e o anel de fun¸c˜oes RX , onde X ´e um espa¸co fixado de in´ıcio. RX = {f : X → R} (1.24) tem soma e produto de fun¸c˜oes bem definidos: ∀f1, f2 ∈ RX , f1 +f2 e f1f2 definem- se obviamente por (f1 + f2)(x) = f1(x) + f2(x), (f1f2)(x) = f1(x)f2(x). (1.25) RX ´e um anel e provar´a a sua utilidade mais `a frente. Nos an´eis unit´arios p˜oe-se a quest˜ao de saber quais s˜ao os elementos invert´ıveis para a multiplica¸c˜ao. Mais ainda, um tal anel A cont´em um grupo U ⊂ A consti- tu´ıdo pelos elementos invert´ıveis. Por exemplo, o anel Z tem U = {−1, 1}. J´a o anel Q tem U = Q {0}.
  • 13. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 12 ´E claro que 0 nunca ser´a invert´ıvel: prova-se que 0 · a = 0, ∀a ∈ A. Um anel K comutativo, unit´ario e com U = K {0} chama-se um corpo. S˜ao exemplos de corpos: Q, R, C. Nos corpos vale a lei do anulamento do produto: ab = 0 =⇒ a = 0 ou b = 0. (1.26) Tamb´em s´o nos corpos podemos invocar em geral a lei do corte: ax = b ⇐⇒ x = a−1 b. (1.27) Estas leis demonstram-se com grande facilidade. Veremos em seguida que h´a corpos finitos. Um famoso teorema de Euclides garante que, se tivermos dois n´umeros inteiros m, n, ent˜ao existem dois n´umeros inteiros ´unicos q e r (chamados quociente e resto) tais que 0 ≤ r ≤ n − 1 e m = qn + r. (1.28) Dizemos que r ´e o resto de m mod n. Se somarmos ou multiplicarmos dois m1, m2 ∈ Z, temos m1 + m2 = (q1n + r1) + (q2n + r2) = (q1 + q2)n + (r1 + r2), m1m2 = (q1q2n + r1q2 + q2r1)n + r1r2 (1.29) Ent˜ao vemos que o resto da soma e do produto mod n ´e o mesmo que o resto mod n da soma e do produto dos restos, respectivamente. ´E trivial verificar agora que as opera¸c˜oes de + e ‘vezes’ habituais, mas “com n’s fora”, verificam todas as propriedades de anel, pois elas provˆem das respectivas propriedades do anel dos inteiros. Assim, prova-se o Teorema 2. O conjunto dos restos Zn = {0, 1, . . . , n − 1} ´e um anel com a soma e o produto acima. D´a-se a Zn o nome de anel dos restos mod n. Por exemplo, o anel Z5 tem as seguintes tabelas de opera¸c˜oes: + 0 1 2 3 4 0 0 1 2 3 4 1 1 2 3 4 0 2 2 3 4 0 1 3 3 4 0 1 2 4 4 0 1 2 3 · 0 1 2 3 4 0 0 0 0 0 0 1 0 1 2 3 4 2 0 2 4 1 3 3 0 3 1 4 2 4 0 4 3 2 1 (1.30) Curiosamente, vˆe-se que x2 = 3 n˜ao tem solu¸c˜oes mod 5, ou seja em Z5. H´a ent˜ao lugar para um estudo de novo tipo de equa¸c˜oes alg´ebricas. Um resultado importante nesta teoria finaliza o nosso cap´ıtulo.
  • 14. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 13 Teorema 3. Zn ´e corpo sse n ´e n´umero primo. Demonstra¸c˜ao. Suponhamos que Zn ´e corpo e que ab = n, com 1 < a, b < n. Mas isto ´e o mesmo que ab = 0 mod n e ent˜ao, valendo a lei do corte, resulta a = 0 ou b = 0, o que ´e absurdo. Assim, n n˜ao tem divisores pr´oprios, ie. ´e primo. Suponhamos rec´ıprocamente que n ´e primo. Ent˜ao para cada a ∈ Z0 h´a sempre solu¸c˜oes inteiras x, y de ax + ny = 1 (tal decorre recursivamente do algoritmo de Euclides, o poder escrever-se assim o mdc de dois quaisquer inteiros a e n). Obviamente, em Zn temos ax + ny = ax = 1 mod n, pelo que todos os elementos a ∈ Zn 0 tˆem inverso. E est˜ao verificadas as condi¸c˜oes para termos um corpo.
  • 15. Cap´ıtulo 2 2.1 Matrizes 2.1.1 Primeiras defini¸c˜oes Damos o nome de matriz a uma tabela A = [aij]i=1,...,p j=1,...,q com entradas ou coefi- cientes1 aij ∈ R. O ´ındice p ´e o n´umero de linhas e q o de colunas. Denotamos A =      a11 a12 · · · a1q a21 a22 a2q ... ... ... ap1 ap2 · · · apq      . (2.1) p e q s˜ao as dimens˜oes da matriz A. Faz jeito chamar Mp,q = {A : A ´e uma matriz de p linhas e q colunas}. (2.2) O interesse das matrizes est´a, como veremos mais tarde, na representa¸c˜ao das aplica¸c˜oes lineares que elas possibilitam. A estrutura de grupo de (R, +) passa autom´aticamente para Mpq. Dadas quais- quer matrizes A, B ∈ Mpq, sendo A = [aij] e B = [bij], i = 1, . . . , p, j = 1, . . . , q, temos por defini¸c˜ao A + B = [aij + bij], (2.3) permanecendo em Mpq. Se λ ∈ R, ent˜ao denotamos por λA a matriz [λaij], com as mesmas dimens˜oes. Em seguida definimos a multiplica¸c˜ao de duas matrizes. Tamb´em aqui h´a uma condi¸c˜ao nos ´ındices. Esta opera¸c˜ao tem uma ordem. Logo pomos uma matriz `a esquerda e outra `a direita, como um par ordenado, e a condi¸c˜ao ´e que, para as multiplicarmos, a da esquerda deve ter n´umero de colunas igual ao n´umero de linhas da da direita. 1 Poder´ıamos deixar estes aij pertencerem a um corpo K ou mesmo um anel qualquer pr´evia- mente fixado, mas aqui prosseguimos apenas com matrizes reais.
  • 16. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 15 Assim Mpq × Mql −→ Mpl (A, B) −→ AB. (2.4) Atente-se bem no espa¸co de chegada, aquele onde aparece o resultado. O produto M = AB define-se ent˜ao como segue: pondo M = [ξij]i=1,...,p j=1,...,l , temos ξij = ai1b1j + · · · + aiqbqj = q k=1 aikbkj. (2.5) Prova-se facilmente que esta multiplica¸c˜ao ´e associativa: se A, B s˜ao como acima e C ∈ Mlr, ent˜ao estamos habilitados a fazer tanto (AB)C como A(BC). Com alguma surpresa, tem-se ent˜ao (AB)C = A(BC). (2.6) Com efeito, sendo M = AB = [ξst]s=1,...,p t=1,...,l e BC = [ηuv]u=1,...,l v=1,...,r , o elemento gen´erico de ´ındice (s, v) do produto do lado esquerdo de (2.6) ´e igual a l t=1 ξstctv = l t=1 q k=1 (askbkt)ctv = q k=1 l t=1 ask(bktctv) = q k=1 askηkv. (2.7) Us´amos a associatividade e distributividade dos n´umeros reais para reagrupar as parcelas. O resultado a que se chegou representa o elemento gen´erico de ´ındice (s, v) do produto do lado direito de (2.6), ou seja A(BC). Outra propriedade v´alida ´e a distributividade `a esquerda e `a direita: se A, B ∈ Mpq e C, D ∈ Mql, ent˜ao A(C + D) = AC + AD (A + B)C = AC + BC. (2.8) Note que as igualdades fazem sentido no cˆomputo das dimens˜oes das matrizes. A demonstra¸c˜ao daquelas igualdades ´e trivial. Exemplos: 2 3 1 −2 0 1    4 5 3 1 2 5 2 4 0    = 13 20 21 −6 −6 −6 , (2.9) 2 3 4    −2 3 1    = 9,    −2 3 1    2 3 4 =    −4 −6 −8 6 9 12 2 3 4    . (2.10)
  • 17. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 16 Como se vˆe, as matrizes n˜ao permutam no produto. Dizemos que duas matrizes dadas A e B permutam ou comutam se AB = BA. Isso n˜ao acontece em geral, mesmo se forem quadradas. ´E importante notar que Mpp, chamado o espa¸co das matrizes quadradas, ´e uma anel com a soma e produto introduzidos, pois tal espa¸co ´e fechado para o produto. O ´ındice de linhas p igual ao ´ındice de colunas tamb´em se diz a ordem de cada matriz quadrada. Repare-se agora que, para qualquer matriz A ∈ Mpq,      1 0 · · · 0 0 1 0 ... 0 0 0 · · · 1         a11 · · · a1q ... ap1 · · · apq    =    a11 · · · a1q ... ap1 · · · apq    , (2.11)    a11 · · · a1q ... ap1 · · · apq         1 0 · · · 0 0 1 0 ... 0 0 0 · · · 1      =    a11 · · · a1q ... ap1 · · · apq    . (2.12) Uma matriz quadrada D = [dij] de ordem p diz-se diagonal se dij = 0, ∀i = j. Chamamos matriz identidade, e denotamo-la por 1p, `a matriz diagonal que tem dii = 1, ∀i = 1, . . . , p. As f´ormulas (2.11,2.12) reescrevem-se portanto como 1pA = A e A1q = A. (2.13) No caso das matrizes quadradas temos, em particular, um elemento neutro da multiplica¸c˜ao. Destaca-se assim o Teorema 4. O espa¸co das matrizes quadradas Mpp ´e um anel unit´ario. Neste espa¸co nem sequer se d´a a lei do anulamento do produto. Veja-se o caso: 0 1 0 0 1 0 0 0 = 0 0 0 0 . (2.14) 2.1.2 Matrizes especiais ´E claro que o espa¸co das matrizes Mm,n, como tabelas de n´umeros reais, se identifica com Rmn . O leitor poder´a identificar neste grande espa¸co mais do que um simples produto cartesiano. H´a uma estrutura de espa¸co vectorial — o que ser´a trivial de verificar quando explicarmos do que tal se trata. Uma matriz A ∈ Mmn diz-se invert´ıvel `a esquerda se existe B ∈ Mnm tal que BA = 1n.
  • 18. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 17 Uma matriz A ∈ Mmn diz-se invert´ıvel `a direita se existe C ∈ Mnm tal que AC = 1m. Uma matriz diz-se invert´ıvel se o fˆor `a esquerda e `a direita. Neste caso prova-se facilmente que B = C e que a matriz A tem de ser quadrada2 , n = m. A matriz ´unica B = C denota-se por A−1 : AA−1 = A−1 A = 1n. (2.15) Com efeito, o inverso, quando existe, ´e ´unico. Aqui poder´ıamos falar do grupo das matrizes invert´ıveis. Em particular tem-se a regra de invers˜ao do produto: A, B ∈ Mnn invert´ıveis =⇒ (AB)−1 = B−1 A−1 . (2.16) Outro tipo de matrizes especiais s˜ao as triangulares superiores: T = [tij]i=1,...,m j=1,...,n , com tij = 0, ∀j < i. (2.17) Ou seja, T ∈ Mmn tem as entradas todas nulas abaixo da diagonal principal (a diagonal principal de uma matriz P = [pij] designa os n´umeros pii). Tamb´em se definem matrizes triangulares inferiores: tij = 0, ∀i < j. 2.1.3 Transposta Dada uma matriz A ∈ Mmn, definimos a transposta de A = [aij]i=1,...,m j=1,...,n como a matriz AT ∈ Mnm dada por AT = [aT ji]j=1,...,n i=1,...,m onde aT ji = aij. (2.18) Prova-se com facilidade que a passagem `a transposta do produto verifica: A ∈ Mmn, B ∈ Mnp =⇒ (AB)T = BT AT . (2.19) Claro que (AT )T = A para qualquer matriz A. Se A ´e invert´ıvel, ent˜ao prova-se facilmente que (A−1 )T = (AT ) −1 . Agora, uma matriz diz-se sim´etrica se A = AT . Uma matriz diz-se anti- sim´etrica se A = −AT . O primeiro contributo destas no¸c˜oes est´a na possibilidade de escrever qualquer matriz quadrada C ∈ Mmm como a soma de uma matriz sim´etrica e de uma anti- sim´etrica. Essa decomposi¸c˜ao de C est´a em C = 1 2 C + CT + 1 2 C − CT , (2.20) como o leitor verificar´a. 2 Para ver que n = m, sendo AB = 1m e BA = 1n, atente-se a m = i,j ai,jbi,j = n, o c´alculo do tra¸co.
  • 19. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 18 2.2 Sistemas de Equa¸c˜oes Lineares 2.2.1 M´etodo de resolu¸c˜ao pela adi¸c˜ao ordenada Vamos agora estudar os sistemas de m equa¸c˜oes lineares, isto ´e, do 1o grau, a n inc´ognitas. Come¸cemos com um exemplo (m, n) = (2, 3) e sua resolu¸c˜ao. 2x + 3y − z = 0 x + 4y = −2z (2.21) ´e um sistema poss´ıvel indeterminado, o qual se resolve pelo m´etodo de substitui¸c˜ao como 2x + 3y = z x + 4y = −4x − 6y 5x = −10y z = −y x = −2y (2.22) donde, para cada y ∈ R, h´a uma solu¸c˜ao (x, y, z) = (−2y, y, −y). Outro m´etodo, chamado de adi¸c˜ao ordenada, permite resolver o sistema de forma mais r´apida. Utilizando os princ´ıpios elementares de equivalˆencia de equa¸c˜oes, percebemos que se obt´em um sistema equivalente a (2.21) se multiplicarmos a segunda equa¸c˜ao, em ambos os termos, por −2. E o mesmo acontece se adicionarmos ordenadamente esse resultado `a 1a equa¸c˜ao. Estamos, por hip´otese, a adicionar a mesma quantidade a ambos os termos, pelo que o novo sistema permanece equivalente. Conseguimos ‘anular os 2x’ na 1a equa¸c˜ao. Fazendo ao mesmo tempo o mesmo para a equa¸c˜ao de baixo, usando a de cima multiplicada por 2 para ‘anular o z’, obt´em-se: 2x + 3y − z = 0 x + 4y + 2z = 0 −5y − 5z = 0 5x + 10y = 0 z = −y x = −2y . (2.23) Claro que as opera¸c˜oes escolhidas foram as que mais r´apidamente permitiram anular alguma vari´avel. Este m´etodo tem por isso as suas vantagens sobre o primeiro3 . Vejamos outro exemplo:    4x + y + z = 0 8x + z = 0 4x − y = 0    4x + y + z = 0 −2y − z = 0 −2y − z = 0    4x + y + z = 0 −2y − z = 0 0 = 0 , (2.24) ´e um sistema poss´ıvel e indeterminado. E outro exemplo: 4x + y = ... 4x − y = ... 8x = ... −2y = ... . (2.25) 3 N˜ao ´e prop´osito de um curso de ALGA a procura do melhor algoritmo de resolu¸c˜ao de sistemas.
  • 20. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 19 Neste caso, quaisquer que sejam os valores nas reticˆencias iniciais, o sistema ´e sempre poss´ıvel e determinado. Mas nem sempre ´e assim. Considere-se o sistema em x, y: 4x + y = c 8x + 2y = d 4x + y = c 0 = d − 2c (2.26) Aqui h´a claramente duas hip´oteses: o sistema ´e poss´ıvel indeterminado se d = 2c, e imposs´ıvel no caso contr´ario. De qualquer forma o estudo das equa¸c˜oes indepen- dentes parte dos coeficientes do ‘lado esquerdo’. 2.2.2 Condensa¸c˜ao de uma matriz Em geral, um sistema de m equa¸c˜oes a n inc´ognitas aparece como    a11x1 + · · · + a1nxn = b1 ... am1x1 + · · · + amnxn = bm . (2.27) Claramente podemos escrever (2.27) em termos matriciais:    a11 · · · a1n ... am1 · · · amn       x1 ... xn    =    b1 ... bm    (2.28) e logo sucintamente como AX = B (2.29) onde A, X, B tˆem correspondˆencia ´obvia com as matrizes anteriores. Nunca esque¸cendo a posi¸c˜ao de cada inc´ognita xi, i = 1, . . . , n, podemos fazer as adi¸c˜oes ordenadas sobre as linhas da matriz ampliada [A|B], de um dado sistema, para o resolver. Suponhamos, por exemplo, que nos s˜ao dadas as equa¸c˜oes    x − y + z = 0, x + 3y = 1, z = −3x + 1 + y . (2.30) Ent˜ao a matriz ampliada, seguida da multiplica¸c˜ao e adi¸c˜ao ordenada, resulta em    1 −1 1 | 0 1 3 0 | 1 3 −1 1 | 1    L2−L1, L3−3L1 −−−−−−−−−→    1 −1 1 | 0 0 4 −1 | 1 0 2 −2 | 1    L2−2L3, L2↔L3 −−−−−−−−−−→    1 −1 1 | 0 0 2 −2 | 1 0 0 3 | −1    L1+ 1 2 L2, 3L2+2L3 −−−−−−−−−−−→    1 0 0 | 1 2 0 6 0 | 1 0 0 3 | −1    . (2.31)
  • 21. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 20 O sistema est´a resolvido, x = 1 2 , y = 1 6 , z = −1 3 . Neste caso, a matriz A ´e quadrada, pelo que essencialmente fomos ao encontro da sua inversa de modo a obter a solu¸c˜ao X = A−1 B. Ao m´etodo anteriormente descrito de resolu¸c˜ao de um sistema d´a-se o nome de m´etodo de Gauss. Os exemplos acima mostram o uso da condensa¸c˜ao sobre linhas (ou colunas) de uma matriz, ou seja a adi¸c˜ao e multiplica¸c˜ao por escalar das linhas (ou colunas) de uma matriz. A condensa¸c˜ao sobre as linhas consiste em: • troca de linhas (para obter elementos n˜ao nulos na diagonal principal ou simplesmente para simplificar c´alculos) • multiplica¸c˜ao de uma linha por um escalar n˜ao nulo • substitui¸c˜ao de uma linha por si pr´opria adicionada de um m´ultiplo n˜ao nulo de outra linha • desenvolver este processo de forma ordenada com vista a encontrar uma matriz triangular superior. Tamb´em se podem escrever as mesmas regras para a condensa¸c˜ao sobre as col- unas (a qual n˜ao pode ser feita na resolu¸c˜ao de sistemas, pois estar´ıamos a juntar coeficientes de inc´ognitas diferentes). 2.2.3 Estudo dos sistemas Dado o sistema (2.29), ´e imediato concluir que chegamos sempre a um sistema equivalente do tipo:           ξ11 ξ12 · · · ξ1r · · · ξ1n | η1 0 ξ22 | 0 0 ... | 0 · · · 0 ξrr · · · ξrn | ηr ... 0 ... 0 | ... 0 0 0 0 | ηm           (2.32) com r ≤ m, n e os ξii = 0, ∀i = 1, . . . , r. Os ξ’s resultam da condensa¸c˜ao sobre linhas de A e os η’s resultam das corre- spondentes transforma¸c˜oes sobre B. O ´ındice r ´e o n´umero de equa¸c˜oes independentes. Chama-se caracter´ıstica de linha de A. Se para algum i > r, tivermos ηi = 0, ent˜ao h´a mais ‘equa¸c˜oes independentes’ na matriz ampliada A|B que em A e o sistema ´e imposs´ıvel. Rec´ıp- rocamente, de qualquer sistema imposs´ıvel se retira a mesma condi¸c˜ao.
  • 22. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 21 Agora, das primeiras r linhas, vˆe-se bem que o sistema ´e poss´ıvel determinado sse r = n; ou seja, indeterminado sse r < n. A n − r d´a-se o nome de grau de indetermina¸c˜ao do sistema (este grau ´e tamb´em a dimens˜ao do espa¸co de solu¸c˜oes do sistema4 ). Em resumo, pondo r(A) = n´umero de linhas independentes, temos o seguinte quadro. r(A) = r(A|B) r(A) < r(A|B) sistema poss´ıvel s. imposs´ıvel determinado indeterminado r(A) = n r(A) < n sem solu¸c˜oes (2.33) 2.3 Espa¸co Euclidiano 2.3.1 O espa¸co vectorial Rn ou espa¸co euclidiano Temos vindo a considerar as linhas de uma dada matriz e a falar da dependˆencia linear de um conjunto de linhas. Conv´em ent˜ao considerar o espa¸co M1,n de tais linhas (com n colunas) e dar-lhe o destaque que merece. Damos o nome de espa¸co euclidiano ao produto cartesiano Rn = R × · · · × R (com n factores). Tamb´em se diz por vezes o espa¸co cartesiano Rn . Os seus elementos chamam-se vectores e escrevem-se como n-tuplos ordenados (c1, . . . , cn), portanto com ci ∈ R. A adi¸c˜ao de vectores e a multiplica¸c˜ao de um vector por um escalar devolvem-nos um novo vector (essas opera¸c˜oes s˜ao as mesmas do espa¸co de matrizes acima): (c1, . . . , cn) + (d1, . . . , dn) = (c1 + d1, . . . , cn + dn), λ(c1, . . . , cn) = (λc1, . . . , λcn) (2.34) ∀ci, di, λ ∈ R, i = 1, . . . , n. Repare-se agora que uma matriz A ∈ Mmn induz uma fun¸c˜ao ou aplica¸c˜ao A : Rn −→ Rm , X −→ AX (2.35) Esta aplica¸c˜ao tem a propriedade de ser linear5 : A(λX + µY ) = λAX + µAY, ∀X, Y ∈ Rn , λ, µ ∈ R. (2.36) Tal resulta da propriedade distribuitiva do produto sobre a soma. Voltaremos a estas quest˜oes mais tarde. 4 Isto far´a sentido ap´os a verifica¸c˜ao de que o conjunto de solu¸c˜oes forma um subespa¸co afim. 5 As fun¸c˜oes lineares tomam o nome de aplica¸c˜oes lineares.
  • 23. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 22 2.3.2 Independˆencia linear Vimos no estudo dos sitemas de equa¸c˜oes lineares a necessidade de fazer anular linhas de uma dada matriz `a custa de outras linhas. Essa possibilidade d´a lugar a um conceito em Rn . Dizemos que um conjunto (ou um sistema) de m vectores do espa¸co euclidiano Rn , ou seja, {L1, . . . , Lm} ⊂ Rn , ´e um conjunto de vectores linearmente depen- dentes se podemos escrever um deles como combina¸c˜ao linear dos restantes, isto ´e, se existe um ´ındice i0 e existem escalares α1, . . . , αi0−1, αi0+1, . . . , αm ∈ R tais que Li0 = α1L1 + · · · + αi0−1Li0−1 + αi0+1Li0+1 + · · · + αmLm. (2.37) Repare-se que passando Li0 para o lado direito de (2.37) obtemos o vector nulo 0 escrito como combina¸c˜ao linear n˜ao nula de todos os L1, . . . , Lm. Uma forma mais simples de dizer o que ´e a dependˆencia linear ser´a pela negativa: dizemos que m vectores dados L1, . . . , Lm s˜ao linearmente independentes se se verifica a condi¸c˜ao: λ1L1 + · · · + λmLm = 0 =⇒ λ1 = · · · = λm = 0. (2.38) ´E um simples problema l´ogico provar que um conjunto de vectores ´e linearmente independente sse n˜ao ´e linearmente dependente. Exemplos: 1. Um vector L1 isolado ´e linearmente independente sse L1 = 0. Com efeito, s´o nesse caso garantimos que λ1L1 = 0 implica λ1 = 0. 2. Os vectores (2, 3), (3, 4) s˜ao linearmente independentes. Com efeito, λ1(2, 3) + λ2(3, 4) = 0 ⇒ 2λ1 + 3λ2 = 0 3λ1 + 4λ2 = 0 ⇒ λ1 = 0 λ2 = 0 . (2.39) 3. Se o vector nulo est´a entre os vectores L1, . . . , Lm, ent˜ao este conjunto ´e linearmente dependente. De facto, podemos escrever 0 como combina¸c˜ao linear dos restantes vectores. Basta fazer a combina¸c˜ao linear com os escalares nulos. 4. Num dado subconjunto de Rn , o n´umero m´aximo de vectores linearmente independentes que ele poder´a conter ´e n. O exemplo 4 ´e muito elucidativo. Dito de outra forma: em Rn quaisquer vectores L1, . . . , Ln, Ln+1 s˜ao linearmente dependentes. Com efeito, procurando escrever 0 como combina¸c˜ao linear daqueles, ou seja, λ1L1 + · · · + λnLn + λn+1Ln+1 = 0, (2.40)
  • 24. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 23 escrevemos o sistema    λ1l11 + · · · + λnln1 + λn+1ln+1,1 = 0 ... λ1l1n + · · · + λnlnn + λn+1ln+1,n = 0 (2.41) onde Li = (li1, . . . , lin). Como sabemos, tal sistema ´e sempre poss´ıvel indetermi- nado. Existem ent˜ao solu¸c˜oes λ1, . . . , λn+1 n˜ao nulas, como quer´ıamos. 2.4 A caracter´ıstica e a inversa de novo 2.4.1 Caracter´ıstica de linha vs caracter´ıstica de coluna Seja M ∈ Mmn uma matriz qualquer. Chamamos caracter´ıstica de linha de M, denotada rl, ao n´umero m´aximo de linhas linearmente independentes que M cont´em. J´a nos referimos a esta defini¸c˜ao em sec¸c˜ao anterior. Chamamos caracter´ıstica de coluna de M, denotada rc, ao n´umero m´aximo de colunas linearmente independentes que M cont´em. Dissemos anteriormente como obter rl: efectuando uma condensa¸c˜ao da matriz de modo a fazer aparecer a matriz de aspecto simples (2.32) — evidentemente, aqui, sem a parte ampliada. Mas ´e claro que h´a muitos caminhos desde a matriz inicial M at´e aquela forma can´onica (2.32), pelo que se poderia perguntar se rl n˜ao depende da escolha do caminho. Vemos que tal defini¸c˜ao ´e intr´ınseca, independente da condensa¸c˜ao sobre linhas, tal como se exprimiu acima: se M tem linhas L1, . . . , Lm e fazemos uma troca de Li por Li + αLj, α ∈ R, vemos que λ1L1 + · · · + λiLi + · · · + λjLj + · · · + λmLm = 0 (2.42) tem solu¸c˜oes n˜ao nulas sse ˜λ1L1 + · · · + ˜λi(Li + αLj) + · · · + ˜λjLj + · · · + ˜λmLm = 0 (2.43) tem solu¸c˜oes n˜ao nulas. S´o temos de fazer a transforma¸c˜ao λj = ˜λi + α˜λj.6 O pr´oximo teorema afirma que a caracter´ıstica de linha ´e igual `a caracter´ıstica de coluna. A primeira parte da demonstra¸c˜ao assenta na prova de que n˜ao se altera rl a cada passo para achar rc. Teorema 5. Em qualquer matriz, rl = rc. 6 Como dissemos em 2.2.3, os sistemas de equa¸c˜oes lineares (independentes ou n˜ao), ap´os con- densa¸c˜ao, mantˆem-se equivalentes (em particular, com o mesmo n´umero de equa¸c˜oes indepen- dentes). Poder´ıamos passar a falar em sistemas de vectores.
  • 25. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 24 Demonstra¸c˜ao. Suponha-se M =    L1 ... Lm    =    l11 · · · l1n ... lm1 · · · lmn    = C1 · · · Cn . (2.44) A dependˆencia das linhas estuda-se pelo sistema em λ’s, λ1l1j + · · · + · · · + λmlmj = 0, ∀j = 1, . . . n. (2.45) Agora, o passo mais geral da condensa¸c˜ao sobre colunas ser´a a troca Ci ↔ Cj seguida de Ci → Ci + αCj, para certos i, j e α ∈ R, levando-nos para a matriz M =    l11 · · · l1j · · · l1i + αl1j · · · l1n ... ... lm1 · · · lmj · · · lmi + αlmj · · · lmn    . (2.46) O respectivo sistema de equa¸c˜oes ser´a o mesmo que o anterior excepto para j = j, i:    · · · λ1l1j + · · · + λmlmj = 0 · · · λ1(l1i + αl1j) + · · · + λm(lmi + αlmj) = 0 · · · (2.47) Mas ´e evidente, rearrumando os termos e pondo α em evidˆencia, que este sistema ´e equivalente a (2.45). Agora, tal como em 2.2.3, fazendo uma condensa¸c˜ao por colunas de forma or- denada, chegaremos a uma matriz de aspecto            ξ11 0 0 0 0 ξ21 ξ22 0 0 ... 0 ... ... ξrcrc 0 0 ... ... ... ξm1 ξmrc 0 0            (2.48) com os ξkk = 0, ∀1 ≤ k ≤ rc. Como nunca se alterou rl desde M e agora j´a ´e f´acil descobrir a caracter´ıstica de linha, fazendo por anular tudo o que est´a abaixo da diagonal principal de (2.48), deduz-se ent˜ao que rc = rl, como quer´ıamos demon- strar. Exemplo:    1 0 3 2 1 2 2 0 6    L3−2L1, C1−2C2 −−−−−−−−−−→    1 0 3 0 1 2 0 0 0    C3−3C1−2C2 −−−−−−−−→    1 0 0 0 1 0 0 0 0    (2.49) e a caracter´ıstica r = rc = rl neste caso ´e 2.
  • 26. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 25 2.4.2 C´alculo da inversa Vamos agora estabelecer um m´etodo para encontrar a inversa de uma matriz quadrada A ∈ Mn,n, supondo que existe. Repare-se que escrevendo o vector-coluna Vi0 = 0 · · · 0 1 0 · · · 0 T (2.50) (1 no lugar i0 e 0 em todas as outras entradas), vem BVi0 =    b1i0 ... bni0    (2.51) para qualquer matriz quadrada B = [bst]. Para encontrar A−1 temos de encontrar os n vectores-coluna Xi tais que AXi = Vi. Pois da´ı vir´a A X1 · · · Xn = V1 · · · Vn = 1n. (2.52) Note-se em particular que A : Rn → Rn induz, no sentido de (2.35), uma aplica¸c˜ao bijectiva (tem uma inversa7 ) sse a matriz A ´e invert´ıvel. Por sua vez, cada sistema AX = Vi ´e poss´ıvel e determinado sse r(A) = n. Est´a ent˜ao provado o Teorema 6. Uma matriz quadrada A ∈ Mn ´e invert´ıvel sse r(A) = n. Agora, os Xi, 1 ≤ i ≤ n, encontrados acima ser˜ao as colunas de A−1 . Pelo m´etodo de condensa¸c˜ao sobre linhas, aplicado simultˆaneamente na resolu¸c˜ao dos n sistemas de n equa¸c˜oes a n inc´ognitas, podemos dar como certo o seguinte algoritmo para determinar a matriz inversa de A: A | 1n −→ · · · (condensa¸c˜ao) · · · −→ 1n | A−1 . (2.53) Exemplo: 1. Para encontrar a inversa de 0 5 −5 3 fazemos 0 5 | 1 0 −5 3 | 0 1 → −5 3 | 0 1 0 5 | 1 0 → 1 −3 5 | 0 −1 5 0 1 | 1 5 0 → 1 0 | 3 25 −1 5 0 1 | 1 5 0 . (2.54) 7 Conv´em aqui notar que a inversa de uma aplica¸c˜ao linear bijectiva ´e ainda uma aplica¸c˜ao linear.
  • 27. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 26 A verifica¸c˜ao ´e imediata: 0 5 −5 3 3 25 −1 5 1 5 0 = 1 0 0 1 . (2.55)
  • 28. Cap´ıtulo 3 3.1 Determinantes 3.1.1 Grupos de permuta¸c˜oes Consideremos de novo o grupo de permuta¸c˜oes Sn de n objectos, recorde-se, um grupo com n! elementos. Um tipo particular de permuta¸c˜oes s˜ao os ciclos. Um ciclo σ ∈ Sn ´e uma permuta¸c˜ao denotada (a1 a2 · · · ak), com os ai ∈ {1, . . . , n} todos diferentes, que obedece a a1 → a2 → a3 → · · · → ak → a1 (3.1) e que deixa todos os outros elementos, n˜ao referidos, no mesmo lugar. O natural k ´e a ordem do ciclo. Como exemplos, em S4, temos (143) = (431) = (314) = 1 2 3 4 4 2 1 3 , (123) ◦ (341) = (234) = (34)(24). (3.2) Note-se que a fun¸c˜ao composta se lˆe da direita para a esquerda e que, como ´e usual, deixamos ca´ır o sinal “◦”. `A fun¸c˜ao composta tamb´em se chama produto. A permuta¸c˜ao inversa de um ciclo escreve-se facilmente. Em particular, as chamadas transposi¸c˜oes (ij), ou seja ciclos de ordem 2, verificam (ij)−1 = (ij) = (ji). Agora, cada permuta¸c˜ao σ ´e um produto de ciclos. Para o vermos come¸camos por construir o ciclo (1 σ(1) σ(σ(1)) · · · σk1−1 (1)). Concerteza que haver´a um fim, de tal forma que σ(σk1−1 (1)) = 1, pois σ n˜ao se repete nunca e n ´e finito. A seguir procuramos o primeiro elemento i0 ∈ {1, . . . , n} que n˜ao est´a entre os σi (1) e construimos o ciclo (i0 σ(i0) σ(σ(i0)) · · · σk2−1 (i0)). Pelas raz˜oes anteriores, o ciclo ´e finito. Repetimos assim e sucessivamente o processo anterior, sabendo que havemos de parar porque se esgotam os n´umeros. Obtemos finalmente a permuta¸c˜ao dada
  • 29. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 28 como um produto de ciclos, que at´e comutam entre si pois n˜ao tˆem elementos comuns. ´E quase t˜ao convincente ver um exemplo: σ = 1 2 3 4 5 6 7 8 6 5 2 1 3 7 4 8 = (1674)(253). (3.3) Mais ainda, cada permuta¸c˜ao ´e produto de transposi¸c˜oes, pois cada ciclo o ´e: (a1 a2 · · · ak) = (ak ak−1)(ak ak−2) · · · (ak a2)(ak a1). (3.4) Fazemos agora a seguinte afirma¸c˜ao: a permuta¸c˜ao identidade ´e sempre o pro- duto de um n´umero par de transposi¸c˜oes: (1) = (ij)(ij). A demonstra¸c˜ao deste facto, s´o aparentemente ´obvio, ´e um problema de ordem e combinat´oria que deix- amos ao leitor para sua pesquisa, [Gro83]. Agora se uma mesma permuta¸c˜ao se decomp˜oe, uma vez, num n´umero l1 de transposi¸c˜oes e, noutra vez, num n´umero l2 de transposi¸c˜oes, ent˜ao l1 + l2 ´e par. Equivale a passar, nessa igualdade de decomposi¸c˜oes, todas as transposi¸c˜oes para um lado, ficando a identidade no outro. Em particular, l1 ´e par sse l2 ´e par. Com efeito, apenas dois pares, ou dois ´ımpares, somam um par. Em resumo, temos o Teorema 7. Toda a permuta¸c˜ao σ ∈ Sn ´e produto de transposi¸c˜oes. A paridade do n´umero de transposi¸c˜oes de qualquer decomposi¸c˜ao de σ num produto de transposi¸c˜oes ´e um invariante de σ. Este teorema permite-nos definir rigorosamente o sinal de uma permuta¸c˜ao σ. Trata-se do valor +1 ou −1, conforme o invariante indicado acima. Ou seja, sg(σ) = (−1) (3.5) onde = n´umero de transposi¸c˜oes numa decomposi¸c˜ao de σ. (3.6) A conhecida ‘regra dos sinais’ prova de imediato o seguinte Teorema 8 (B´ezout). Para quaisquer permuta¸c˜oes σ, τ ∈ Sn, sg(στ) = sg(σ)sg(τ). (3.7) Em particular, sg(σ) = sg(σ−1 ). Para aplica¸c˜oes futuras, com argumentos de tipo indutivo, conv´em reparar que podemos escrever a uni˜ao de subconjuntos disjuntos Sn = S1 ∪ S2 ∪ · · · ∪ Sn (3.8) onde Si = {σ : σ(1) = i}. (3.9) Cada um destes subconjuntos, grosso modo, identifica-se com Sn−1. Para deduzir tal identifica¸c˜ao, s´o temos de fixar nova numera¸c˜ao dos objectos, suprimindo o 1 no espa¸co de partida e o i no espa¸co de chegada.
  • 30. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 29 3.1.2 Defini¸c˜ao de determinante Voltemos agora `as matrizes. Define-se determinante de uma matriz quadrada A = [aij] ∈ Mn,n como sendo o n´umero real det A = σ∈Sn sg(σ)a1σ1 a2σ2 · · · anσn . (3.10) A nota¸c˜ao refere σi = σ(i). Vemos que aquele ´e um somat´orio com n! parcelas. De cada linha i apenas se escolhe um aiσi , em cada parcela. A nota¸c˜ao |A| = det A ´e tamb´em usual. Por exemplo, para n = 2, temos a b c d = ad − cb. (3.11) A dedu¸c˜ao da chamada regra de Sarrus e da respectiva regra mnem´onica para o determinante de ordem 3 ´e um bom exerc´ıcio para o leitor: a11 a12 a13 a21 a22 a23 a31 a32 a33 = a11a22a33 + a31a12a23 + a13a21a32 − a13a22a31 − a11a23a32 − a12a21a33. (3.12) 3.1.3 Propriedades do determinante Suponhamos que ´e dada a matriz A tal como acima. Tendo em conta que podemos ordenar os factores em cada parcela de (3.10) pelo ´ındice de coluna, que sg(σ) = sg(σ−1 ) e que o somat´orio sobre os σ ∈ Sn ´e o mesmo que o somat´orio sobre os seus inversos, resulta det A = σ∈Sn sg(σ)aσ−1 1 1aσ−1 2 2 · · · aσ−1 n n = σ−1=τ∈Sn sg(τ)aτ11aτ22 · · · aτnn = τ∈Sn sg(τ)aT 1τ1 aT 2τ2 · · · aT nτn = det AT . (3.13) Prov´amos o Teorema 9. Para qualquer matriz A, tem-se det A = det AT . Esta ´e a primeira das principais propriedades do determinante. Em sua virtude, daqui em diante ‘tudo o que se diga’ sobre as linhas ter´a um equivalente sobre as colunas.
  • 31. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 30 Agora, uma pequena altera¸c˜ao nas linhas de A podemos cometer sem muito perturbar o seu determinante. Sejam 1 ≤ i = j ≤ n. Se trocarmos as linhas i e j de A uma pela outra, aparece-nos a matriz ˜A, e da´ı decorrem as seguintes igualdades: det ˜A = σ∈Sn sg(σ)a1σ1 · · · ajσi · · · aiσj · · · anσn = σ∈Sn sg(σ(ij))a1σ1 · · · ajσj · · · aiσi · · · anσn = sg((ij)) σ∈Sn sg(σ)a1σ1 · · · anσn = −det A. (3.14) Em particular, se as linhas i e j forem iguais, ou seja A = ˜A, ent˜ao det A = 0. (3.15) Escrevendo agora A =    a11 · · · a1n ... an1 · · · ann    =      L1 L2 ... Ln      (3.16) e logo det A = det (L1, . . . , Ln), (3.17) tem-se que o determinante ´e uma aplica¸c˜ao multilinear nas linhas (e nas colunas). Com efeito, para qualquer´ındice i, det ´e linear na linha i quando se fixam as outras vari´aveis todas, ou seja, para quaisquer linhas Lj, j = 1, . . . , n, e ˜L e quaisquer λ, µ ∈ R, det verifica det (L1, . . . , λLi + µ˜L, . . . , Ln) = λ det (L1, . . . , Li, . . . , Ln) + µ det (L1, . . . , ˜L, . . . , Ln). (3.18) Compare-se esta linearidade1 com aquela descrita em (2.36). Demostremos (3.18). Suponhamos que a linha ˜L = (˜a1, . . . , ˜an). Como a linha i da matriz do lado esquerdo ´e igual a (λai1 + µ˜a1, . . . , λain + µ˜an), no c´alculo do determinante vem σ∈Sn sg(σ)a1σ1 · · · (λaiσi + µ˜aσi ) · · · anσn = λ σ∈Sn sg(σ)a1σ1 · · · aiσi · · · anσn + µ σ∈Sn sg(σ)a1σ1 · · · ˜aσi · · · anσn . (3.19) 1 O conceito de aplica¸c˜ao linear ou de aplica¸c˜ao multilinear ser´a formalizado no cap´ıtulo 4.
  • 32. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 31 Us´amos apenas as propriedades de distributividade e comutatividade de R. A express˜ao a que se chegou ´e claramente aquela do lado direito de (3.18), como quer´ıamos. Vejamos um exemplo de aplica¸c˜ao (como na teoria dos polin´omios em v´arias vari´aveis): x2 1 x1x2 0 x1x3 x2 2x3 x3x4 x1x4 x2 2 0 = x2 1x2x3 1 1 0 1 x2 x4 x4 x2 0 = = x2 1x2x3 1 0 0 1 x2 x4 x4 x2 0 + x2 1x2x3 0 1 0 1 x2 x4 x4 x2 0 = = x2 1x2x3(−x2x4 + x2 4) = x2 1x2x3x4(x4 − x2). (3.20) Para finalizar, reescrevendo (3.14) na nota¸c˜ao anterior, verificou-se que o deter- minante ´e uma aplica¸c˜ao multilinear alternada ou anti-sim´etrica: det (L1, . . . , Li, . . . , Lj, . . . , Ln) = = − det (L1, . . . , Lj, . . . , Li, . . . , Ln). (3.21) Tamb´em se pode escrever (3.18) em dois passos. O respeito pela multiplica¸c˜ao de uma linha por um escalar: det (L1, . . . , λLi, . . . , Ln) = λ det (L1, . . . , Li, . . . , Ln) (3.22) e o respeito pela soma de duas linhas det (L1, . . . , Li + ˜L, . . . , Ln) = det (L1, . . . , Li, . . . , Ln) + det (L1, . . . , ˜L, . . . , Ln) (3.23) ∀Li, ˜L ∈ Rn , λ ∈ R. 3.1.4 C´alculo de determinantes Pela defini¸c˜ao, ´e trivial provar que t11 t12 t13 · · · t1n 0 t22 t23 t2n 0 0 t33 · · · t3n 0 0 ... 0 0 0 tnn = t11t22 · · · tnn. (3.24) E se a matriz dada for triangular inferior, o resultado ´e an´alogo. Agora, o processo de condensa¸c˜ao de uma qualquer matriz A ∈ Mnn conduz-nos a uma matriz triangular. Observamos ent˜ao que h´a uma forma pr´atica de calcular determinantes, tendo em conta as regras:
  • 33. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 32 • se trocarmos duas linhas (ou colunas) diferentes, o determinante muda de sinal • se substituirmos uma linha por ela mesma adicionada de um m´ultiplo de outra linha, o determinante n˜ao se altera • se substituirmos uma coluna por ela mesma adicionada de um m´ultiplo de outra coluna, o determinante n˜ao se altera. Por exemplo, 1 2 3 4 0 1 −3 5 −1 3 −1 7 3 2 5 4 = 1 2 3 4 0 1 −3 5 0 5 2 11 0 −4 −4 −8 = −4 1 −3 5 5 2 11 1 1 2 = = −4 1 −3 5 0 17 −14 0 4 −3 = −4 3 −14 1 −3 = −20. (3.25) A segunda igualdade resulta de apenas valerem σ ∈ S4 tais que σ(1) = 1. Na quarta acontece o mesmo. Teorema 10. Uma qualquer matriz A ´e invert´ıvel sse det A = 0. De podermos usar a condensa¸c˜ao sobre uma dada matriz para a levar a outra na forma triangular, sem alterar o seu determinante ou caracter´ıstica, resulta que se pode supˆor desde j´a que A ´e triangular. Ora, algum dos ajj, j = 1, . . . , n da matriz triangular (3.24) ´e nulo, ou seja, r(A) < n, sse det A = 0. Invocando o teorema 6, vˆe-se que dele decorre o teorema anterior. 3.1.5 Regra do produto Verificaremos primeiro que aplica¸c˜oes multilineares2 alternadas f : Rn × · · · × Rn −→ R (v1, . . . , vn) −→ f(v1, . . . , vn), (3.26) tais como o determinante sobre as linhas ou colunas de uma matriz, existe essen- cialmente uma. Para prov´a-lo necessitamos da base can´onica de Rn , isto ´e, o conjunto de n vectores ei = (0, . . . , 0, 1, 0, . . . , 0) (3.27) 2 Recordamos que este conceito pode ser visto no cap´ıtulo 4.
  • 34. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 33 com 1 na i-´esima entrada (cf. (2.50)). Dizendo de outra forma, 1n =      1 0 · · · 0 0 1 0 ... 0 0 0 · · · 1      =    e1 ... en    . (3.28) ´E evidente que qualquer vector de Rn (o mesmo que uma matriz-linha) satisfaz (x1, x2, . . . , xn) = x1e1 + x2e2 + · · · + xnen = n j=1 xjej. (3.29) Eis o resultado que refer´ıamos. Teorema 11. Qualquer aplica¸c˜ao multilinear alternada f sobre n vectores de Rn verifica f(A) = det (A) f(1n). (3.30) Demonstra¸c˜ao. Com efeito, por multilinearidade e por (3.29) f(A) = f(L1, . . . , Ln) = f n j1=1 a1j1 ej1 , n j2=1 a2j2 ej2 , . . . , n jn=1 anjn ejn = n j1,j2,...,jn=1 a1j1 · · · anjn f(ej1 , . . . , ejn ). (3.31) Note-se que, por hip´otese de f ser alternada, tal como em (3.15), resulta f(ej1 , . . . , ejn ) = 0 (3.32) no caso em que h´a dois jl iguais, l = 1, . . . , n, e resulta f(ej1 , . . . , ejn ) = sg( 1 · · · n j1 · · · jn ) f(e1, . . . , en) (3.33) no caso em que todos os jl s˜ao diferentes. Continuamos agora o c´alculo inicial. Aparece a´ı ent˜ao apenas o somat´orio sobre as permuta¸c˜oes de 1, . . . , n, ou seja f(A) = σ∈Sn a1σ1 · · · anσn sg(σ) f(e1, . . . , en) = det A f(1n) (3.34) visto que f(e1, . . . , en) = f(1n). Cheg´amos a (3.30), como quer´ıamos demonstrar.
  • 35. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 34 Agora podemos provar um valioso teorema com a regra do produto para os determinantes. Teorema 12. Para quaisquer A, B ∈ Mnn, vem det (AB) = det (A) det (B). (3.35) Em particular, det (A−1 ) = (det A)−1 . Demonstra¸c˜ao. Fixemos B e consideremos a fun¸c˜ao sobre as matrizes A ∈ (Rn )n = Mnn f(A) = det (AB) = |AB| (3.36) com valores reais. ´E trivial verificar que f(A) = f(L1, . . . , Ln) = L1B ... LnB (3.37) e, logo, que f ´e multilinear e alternada: lembrar que (Li +λ˜L)B = LiB+λ˜LB, para cada i e para quaisquer λ, Li, ˜L, e que a pr´opria fun¸c˜ao determinante tem aquelas propriedades. Ent˜ao f est´a nas condi¸c˜oes da hip´otese do teorema 11, donde f(A) = |A| f(1n). Como f(1n) = |1nB| = |B|, a f´ormula anterior lˆe-se |AB| = |A||B|, como quer´ıamos demonstrar. Por outras palavras, o determinante do produto de duas quaisquer matrizes ´e o produto dos determinantes. Por exemplo,    a b c 0 d e 0 0 f       x 0 0 y z 0 w s t    = adfxzt, (3.38) o que se tornou muito f´acil de ver. 3.2 Regra de Laplace e aplica¸c˜oes 3.2.1 Regra de Laplace Suponhamos que ´e dada uma matriz A ∈ Mnn da qual queremos calcular o deter- minante. Repare-se agora na decomposi¸c˜ao (3.8) e restringa-se o somat´orio sobre Sn na defini¸c˜ao (3.10) de determinante apenas ao subconjunto Sj = {σ ∈ Sn : σ1 = j},
  • 36. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 35 com j ∈ {1, . . . , n} pr´eviamente escolhido. Uma vez que σ1 = j est´a fixo, obtemos σ∈Sj sg(σ)a1σ1 · · · anσn = = (−1)j−1 a1j σ∈Sj sg( 1 · · · j · · · n σ2 · · · j · · · σn )a2σ2 · · · anσn = (−1)j−1 a1j|A(1,j)|. (3.39) Com efeito, o sinal da permuta¸c˜ao σ ∈ Sj, multiplicado por (−1)j−1 , ´e o da mesma permuta¸c˜ao composta com j −1 trocas de j com σ2, σ3, etc, at´e σj, ou seja, j levado de 1 at´e `a posi¸c˜ao j. Depois ´e imediato constatar que aparece o determinante da matriz A(1,j), como se escreveu, a matriz sem linha 1 nem coluna j. Em geral, define-se A(i,j) =           a11 · · · a1,j−1 a1,j+1 · · · a1n ... ... ... ... ai−1,1 · · · ai−1,j−1 ai−1,j+1 · · · ai−1,n ai+1,1 · · · ai+1,j−1 ai+1,j+1 · · · ai+1,n ... ... ... ... an1 · · · an,j−1 an,j+1 · · · ann           . (3.40) Passando o resultado anterior para um somat´orio sobre Sn = ∪n j=1Sj, vem σ∈Sn = σ∈S1 + · · · + σ∈Sn (3.41) e logo a regra de Laplace na primeira linha |A| = a11|A(1,1)| − a12|A(1,2)|+ + a13|A(1,3)| − · · · + (−1)n−1 a1n|A(1,n)|. (3.42) Dito de outra forma, |A| = j(−1)j−1 a1j|A(1,j)|. Se quisermos fazer o mesmo c´alculo mas a partir de outra linha, s´o temos de puxar essa linha para o 1o lugar de tal forma que tudo o resto permane¸ca na mesma ordem, ou seja, trocando sucessivamente digamos a linha i com a linha i−1, depois, esta, com a linha i − 2, etc, at´e ao primeiro lugar. ´E o mesmo que considerar as matrizes A(i,j) e a alternˆancia do sinal em (−1)i−1 , o que acrescentado ao sinal das parcelas acima vai dar (−1)i−1 (−1)j−1 = (−1)i+j . Assim ficou provado o Teorema 13 (regra de Laplace). Para qualquer ´ındice de linha i, tem-se |A| = n j=1 (−1)i+j aij|A(i,j)|. (3.43)
  • 37. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 36 Esta regra ´e muito pr´atica; permite calcular determinantes recursivamente sobre a ordem n das matrizes. Note-se que tamb´em existe uma regra de Laplace sobre as colunas. ´E simples: na f´ormula (3.43) fazemos o somat´orio em i em vez de j. 3.2.2 A matriz adjunta Se na matriz A da sec¸c˜ao anterior, uma matriz n por n qualquer, substituirmos a linha i pela linha k = i, ent˜ao j´a sabemos que o determinante ´e nulo (tem duas linhas iguais). Pela regra de Laplace aplicada na linha i, obtemos ent˜ao 0 = n j=1 (−1)i+j akj|A(i,j)|. (3.44) Como veremos, o n´umero (−1)i+j |A(i,j)| tem grande importˆancia; designa-se por complemento alg´ebrico de aij. `A matriz adj A que tem entradas (j, i) iguais ao complemento alg´ebrico de aij, ou seja, a matriz transposta da matriz formada pelos complementos alg´ebricos, ou seja, ainda, (adj A)ji = (−1)i+j |A(i,j)|, (3.45) d´a-se o nome de matriz adjunta de A. J´a vimos que: n j=1 aij(adj A)ji = |A|, n j=1 akj(adj A)ji = 0 (3.46) para k = i. Ora isto ´e equivalente a A adj A = |A| 1n. (3.47) Em particular, se A ´e invert´ıvel, ent˜ao A−1 = 1 |A| adj A. (3.48) Eis uma nova solu¸c˜ao para o problema de calcular a inversa de uma matriz. Exemplos: 1. A f´ormula (3.48) permite demonstrar esse facto bel´ıssimo que ´e o de uma matriz de coeficientes inteiros e determinante 1 ter inversa tamb´em com coe- ficientes inteiros. 7 5 11 8 −1 = 8 −5 −11 7 (3.49) ´e um exemplo, calculado pela dita f´ormula.
  • 38. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 37 2. Outro exemplo, com a matriz dada de determinante 56,    −5 2 3 0 1 3 2 4 2    −1 = 1 56            1 3 4 2 − 2 3 4 2 2 3 1 3 − 0 3 2 2 −5 3 2 2 − −5 3 0 3 0 1 2 4 − −5 2 2 4 −5 2 0 1            = 1 56    −10 8 3 6 −16 15 −2 24 −5    (3.50) 3.2.3 Regra de Cramer Suponhamos que temos um sistema de n equa¸c˜oes lineares, independentes, a n inc´ognitas, AX = B. (3.51) Ou seja, de caracter´ıstica n. Logo com A invert´ıvel e logo com uma ´unica solu¸c˜ao. Pelo exposto na sec¸c˜ao 3.2.2, X = A−1 B = 1 |A| (adj A)B = 1 |A| j (−1)i+j |A(j,i)|bj (3.52) ou seja xi = a11 · · · b1 · · · a1n ... ... an1 · · · bn · · · ann |A| (3.53) com B tomando o lugar da coluna i de A. Esta ´e a chamada regra de Cramer para a resolu¸c˜ao de sistemas poss´ıveis determinados. Por exemplo: sendo    x + y + z = 2v 3x − y − z = 2 + v x + y = 3 , (3.54) a matriz ampliada do sistema em x, y, z vem a ser    1 1 1 | 2v 3 −1 −1 | 2 + v 1 1 0 | 3    . (3.55)
  • 39. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 38 Aplicando a regra de Cramer encontramos as solu¸c˜oes x = 1 4 2v 1 1 2 + v −1 −1 3 1 0 = 1 4 2v 1 1 2 + 3v 0 0 3 1 0 = 3v + 2 4 , (3.56) y = 1 4 1 2v 1 3 2 + v −1 1 3 0 = −3v + 10 4 , (3.57) z = 1 4 1 1 2v 3 −1 2 + v 1 1 3 = 1 4 0 0 2v − 3 3 −1 2 + v 1 1 3 = 8v − 12 4 . (3.58)
  • 40. Cap´ıtulo 4 4.1 Espa¸cos vectoriais 4.1.1 Defini¸c˜oes e exemplos Por espa¸co vectorial sobre o corpo R entende-se um grupo abeliano (V, +) no qual est˜ao definidas, adicionalmente, opera¸c˜oes de multiplica¸c˜ao por escalar para cada real α ∈ R, α : V −→ V, v −→ αv, (4.1) de tal modo que α(v1 + v2) = αv1 + αv2 1v = v (α1 + α2)v = α1v + α2v (αβ)v = α(βv) (4.2) ∀v, v1, v2 ∈ V, α, α1, α2, β ∈ R. Aos n´umeros reais chamamos escalares e aos elementos de V vectores. Repare- se que estamos1 a generalizar os conceitos aprendidos em 2.3.1 a prop´osito do espa¸co euclidiano Rn . Exemplos: 1. Rn ou Mnm s˜ao espa¸cos vectoriais sobre R j´a bem conhecidos2 . 2. Para qualquer conjunto X e espa¸co vectorial V temos um novo espa¸co vec- torial V X = {f : X → V }. Este exemplo generaliza outro, referido como exemplo de um anel em 1.2.2. Os vectores s˜ao as fun¸c˜oes e a sua soma e produto por escalar definem-se trivialmente. 1 Dev´ıamos ir mais longe e falar de espa¸cos vectoriais sobre um corpo qualquer. Significaria que no lugar e no papel dos escalares reais ter´ıamos os elementos de um outro corpo unit´ario (cf. sec¸c˜ao 1.2.2). As aplica¸c˜oes s˜ao in´umeras. Por´em, note-se que ocorrem logo fen´omenos peculiares se a chamada caracter´ıstica ou tors˜ao do corpo for n˜ao nula. 2 Observe-se a no¸c˜ao de espa¸co vectorial ser t˜ao simples, por n˜ao requerer a multiplica¸c˜ao de dois vectores `a semelhan¸ca do espa¸co das matrizes.
  • 41. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 40 3. Recordemos C∞ ⊂ · · · ⊂ Ck+1 ⊂ Ck ⊂ · · · C0 ⊂ RI onde Ck ´e o espa¸co de fun¸c˜oes do intervalo I em R, k vezes diferenci´aveis e com derivada de ordem k cont´ınua. Todos estes s˜ao espa¸cos vectoriais sobre R. S˜ao muito grandes... 4. Um subconjunto U de um espa¸co vectorial V tal que ∀u1, u2 ∈ U, λ ∈ R =⇒ u1 + λu2 ∈ U (4.3) diz-se um subespa¸co vectorial de V . Claro que, neste caso, U herda uma estrutura de espa¸co vectorial sobre R. Conceito central na teoria dos espa¸cos vectoriais ´e o seguinte. Dizemos que v ∈ V ´e combina¸c˜ao linear de vectores u1, . . . , um se existem escalares α1, . . . , αm tais que v = i αiui. Note-se que s´o falamos de somas finitas. Dado um subconjunto S ⊂ V , chamamos espa¸co vectorial gerado por S a S = combina¸c˜oes lineares de vectores de S . (4.4) S ´e um subespa¸co vectorial de V . Apresentemos agora a no¸c˜ao de sistema de vectores linearmente independentes (sli). Um conjunto, ou sistema, de vectores B = {uα}α∈I diz-se linearmente independente se qualquer parte finita {u1, . . . , uk} ⊂ B for linearmente indepen- dente no sentido que j´a conhec´ıamos de (2.38), ou seja, no sentido em que nenhum ui, i = 1, . . . , k, ´e combina¸c˜ao linear dos restantes, ou seja, ainda, se, supondo que existem λi ∈ R, λ1u1 + · · · + λkuk = 0 =⇒ λ1 = · · · = λk = 0. (4.5) Em presen¸ca de um sli {uα}α∈I, n˜ao h´a duas formas de escrever a mesma com- bina¸c˜ao linear. Essencialmente, isto vale por v = i αiui = i ˜αiui implicar i(αi − ˜αi)ui = 0. E logo αi − ˜αi = 0. Ou seja αi = ˜αi, ∀i. Diz-se, no caso acima, que ´e uma escrita de forma ´unica. 4.1.2 Bases e dimens˜ao Suponhamos que ´e dado um espa¸co vectorial V sobre R. Um sli (sistema linearmente independente) B diz-se menor ( ) que o sli B se ∀u ∈ B , u ´e combina¸c˜ao linear de vectores de B. (4.6) Um sli B diz-se maximal se for maior que todos os outros: ∀B , B B. A um sli maximal chamamos uma base de V . Dizemos que V tem dimens˜ao finita se V admite uma base finita.
  • 42. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 41 Teorema 14. Se V tem dimens˜ao finita, ent˜ao todas as bases de V s˜ao finitas e tˆem o mesmo n´umero de vectores. Demonstra¸c˜ao. Seja B = {u1, . . . , un} a base finita e B1 outra base qualquer. Ora, qualquer vector u na segunda base ´e combina¸c˜ao linear de vectores da primeira, porque B1 B. Portanto existem sempre escalares λ1, . . . , λn com os quais es- crever u = j λjuj — escrita de forma ´unica. Os vectores de B1 est˜ao assim em correspondˆencia bi´univoca com vectores (λ1, . . . , λn) de Rn . Estes tˆem de ser linear- mente independentes, porque os u ∈ B1 o s˜ao. Mas n˜ao h´a mais do que n vectores linearmente independentes em Rn (cf. exemplo 4 da sec¸c˜ao 2.3.2). Chamamos dimens˜ao de um espa¸co vectorial de dimens˜ao finita V , denotada dim V , ao n´umero comum de vectores de qualquer base de V . Dada uma base B ⊂ V de um espa¸co de dimens˜ao qualquer, tem-se B = V , pois no caso contr´ario entrar´ıamos em contradi¸c˜ao. Assim, uma base de V ´e o mesmo que um sistema de vectores linearmente independente que gera o espa¸co todo. Muito importante ´e observar que, escolhida uma base, cada vector v ∈ V se escreve de forma ´unica como combina¸c˜ao linear dos vectores da base. Exemplos: 1. Os seguintes conjuntos s˜ao subespa¸cos vectoriais dos espa¸cos onde est˜ao con- tidos: i) Ua = {(x, y, z) ∈ R3 : a2 (x + y) + z = 0, 3x + y = 0} verifica (4.3), tem dimens˜ao 1 e uma base {(1, −3, 2a2 )}. ii) W = {A ∈ Mnn : a11 + 3a1n + an−1,1 − ann = 0} tem dimens˜ao n2 − 1. Trata-se do espa¸co de todas as matrizes n por n, sujeitas a uma ´unica equa¸c˜ao linear. iii) O subespa¸co vectorial de Mn,n das matrizes sim´etricas de ordem n tem dimens˜ao igual a n(n + 1)/2 (pense-se na ´area do triˆangulo pois s´o contam as entradas de um lado triangular da matriz). 2. O conjunto Rn[x] = {polin´omios em x de grau ≤ n} ´e um subespa¸co vecto- rial real, de dimens˜ao n + 1, do espa¸co de todos os polin´omios. Este ´ultimo tem dimens˜ao ∞ e ´e por sua vez subespa¸co de C∞ R . Uma base de Rn[x] ´e 1, x, x2 , . . . , xn . 3. Um sistema AX = 0 como em (2.27), portanto um sistema homog´eneo, com A ∈ Mmn e X ∈ Rn , d´a origem a um subespa¸co vectorial: Nuc A = {X ∈ Rn : AX = 0} ´e subespa¸co vectorial devido `a f´ormula (2.36). A sua dimens˜ao ´e n−r(A) por que o sistema resolve a equa¸c˜ao de dependˆencia linear das colunas de A e a caracter´ıstica de linha ´e igual `a caracter´ıstica de coluna.
  • 43. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 42 Repare-se que B B implica B ⊂ B , donde se diz tamb´em que uma base ´e um conjunto minimal de geradores de V . Sob certas condi¸c˜oes da teoria dos conjuntos, pode-se provar que todo o espa¸co vectorial admite uma base. Mesmo os de dimens˜ao ∞. 4.1.3 Soma cartesiana e soma directa Partindo de W, Z dois quaisquer espa¸cos vectoriais, falamos de espa¸co vectorial produto ou de soma cartesiana de W e Z quando fazemos o produto cartesiano W × Z e nele tomamos, para estrutura de espa¸co vectorial, a adi¸c˜ao (w1, z1) + (w2, z2) = (w1 + w2, z1 + z2) (4.7) e multiplica¸c˜ao por escalar λ(w, z) = (λw, λz) (4.8) ∀w, w1, w2 ∈ W, z, z1, z2 ∈ Z, λ ∈ R. ´E f´acil perceber que s˜ao satisfeitas as condi¸c˜oes (4.2). Se W, Z tˆem dimens˜ao finita, a dimens˜ao do espa¸co vectorial produto ´e sempre a soma das dimens˜oes. Exemplo: 1. Rn = R × R · · · × R. Sejam agora dados dois subespa¸cos vectoriais U, V de um mesmo espa¸co vectorial W. Chamamos soma de U e V ao subespa¸co U + V = u + v : u ∈ U, v ∈ V . (4.9) Trata-se de facto de um subespa¸co vectorial, como ´e f´acil provar. Mais ainda U, V ⊂ U + V . ´E evidente, pois u = u + 0, ∀u ∈ U. Outra forma de obter um subespa¸co vectorial ´e pela intersec¸c˜ao U ∩ V (4.10) dos subespa¸cos dados. Com efeito, ´e claro que a soma de vectores e produto por escalar de u, v ∈ U ∩ V est´a tanto em U como em V , ou seja, em U ∩ V . ´E claro que um subespa¸co vectorial U de um espa¸co de dim finita W tem ele pr´oprio dim finita. Basta come¸car num vector = 0 e ir procurando sli cada vez maiores dentro do subespa¸co U at´e obter um sli maximal. O processo ´e finito por estar majorado pela dimens˜ao do espa¸co W. Teorema 15. Se U, V tˆem dimens˜ao finita, ent˜ao dim(U + V ) = dim U + dim V − dim(U ∩ V ). (4.11) Em particular, U + V tem dimens˜ao finita.
  • 44. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 43 Demonstra¸c˜ao. Come¸cemos com uma base {u1, . . . , up} de U ∩V , que prolongamos, como acima, a uma base {u1, . . . , up, up+1, . . . , un} de U. Seja {v1, . . . , vm} uma base de V . Ent˜ao o conjunto {up+1, . . . , un, v1, . . . , vm} ´e um sistema de vectores linearmente independentes, pois se fosse λp+1up+1 + · · · + λnun + α1v1 + · · · + αmvm = 0 ⇐⇒ λp+1up+1 + · · · + λnun = −α1v1 − · · · − αmvm ent˜ao este ´ultimo vector estaria em U ∩ V , pelo que seria combina¸c˜ao linear dos u1 . . . , up. Mas sendo escrito s´o com os ui, com i > p, tem de ser 0. Ent˜ao todos os λi, αj s˜ao 0, como quer´ıamos. ´E tamb´em f´acil verificar que qualquer outro vector de U +V ´e combina¸c˜ao linear daqueles. Ent˜ao est´a provado que {up+1, . . . , un, v1, . . . , vm} ´e uma base. O n´umero de vectores de tal base ´e n − p + m. Finalmente, chamamos soma directa a U + V quando os dois subespa¸cos ver- ificam U ∩ V = {0}. Denota-se por U ⊕ V . A dimens˜ao desta ´e a soma das dimens˜oes. 4.2 Aplica¸c˜oes lineares 4.2.1 Defini¸c˜oes Finalmente formalizamos o conceito j´a utilizado em duas ocasi˜oes: em 2.3.1 como caso particular e em (3.15) a prop´osito da propriedade do determinante de matrizes ser uma aplica¸c˜ao multilinear. S˜ao dados dois espa¸cos vectoriais V e W. Uma fun¸c˜ao f : V → W diz-se uma aplica¸c˜ao linear se f(v + u) = f(v) + f(u) e f(λu) = λf(u) (4.12) ∀u, v ∈ V, λ ∈ R. Assim, uma aplica¸c˜ao linear ´e uma aplica¸c˜ao que preserva as estruturas dos espa¸cos vectoriais em causa. Em particular, tem-se o facto trivial: f(0) = f(0+0) = 0. ´E trivial verificar que a imagem de uma aplica¸c˜ao linear Im f = f(V ) = f(v) : v ∈ V (4.13) ´e um subespa¸co vectorial de W. Com efeito, f(u) + λf(v) = f(u + λv) tamb´em est´a na imagem de f, quaisquer que sejam u, v, λ. Tamb´em, dado um qualquer subespa¸co U ⊂ W, o conjunto imagem rec´ıproca f∗ U = v ∈ V : f(v) ∈ U (4.14)
  • 45. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 44 ´e um subespa¸co vectorial de V . Em particular f∗ {0}, denotado Nuc f = v ∈ V : f(v) = 0 , (4.15) ´e um subespa¸co vectorial de V chamado n´ucleo de f. Deixamos a demonstra¸c˜ao do pr´oximo resultado como um exerc´ıcio. Teorema 16. Seja f : V → W uma aplica¸c˜ao linear entre espa¸cos vectoriais. Ent˜ao: i) f ´e injectiva sse Nuc f = {0}. ii) f ´e injectiva sse f transforma vectores linearmente independentes em vectores linearmente independentes. iii) f ´e sobrejectiva sse o espa¸co gerado por f(B) ´e igual a W, ou seja f(B) = W, para qualquer base B de V . iv) f ´e bijectiva sse transforma uma base de V numa base de W. H´a nomes pr´oprios para f linear e injectiva, sobrejectiva ou bijectiva. Diremos ent˜ao que f ´e, respectivamente, um monomorfismo, um epimorfismo ou um isomorfismo. Se V = W, ent˜ao f : V → V diz-se um endomorfismo. Um isomorfismo endomorfismo diz-se um automorfismo. Prove-se, `a parte, que a inversa de uma aplica¸c˜ao linear bijectiva ´e uma aplica¸c˜ao linear. O conjunto das aplica¸c˜oes lineares de V para W denota-se por L(V, W). ´E trivial mostrar que a soma ou a composi¸c˜ao de duas aplica¸c˜oes lineares ´e uma aplica¸c˜ao linear e que o mesmo acontece com o produto de uma aplica¸c˜ao linear por um escalar. Enfim, prova-se sem dificuldade o Teorema 17. L(V, W) ´e um espa¸co vectorial sobre R. O espa¸co End (V ) := L(V, V ) dos endomorfismos de V ´e um anel e o subconjunto dos automorfismos Aut(V ) = {isomorfismos de V para V } ´e um grupo. Contudo, o resultado n˜ao ´e surpreendente: em dim finita h´a correspondˆencia entre aqueles espa¸cos e, respectivamente, o espa¸co vectorial das matrizes Mnm, o anel das matrizes quadradas Mnn e o grupo das matrizes invert´ıveis. 4.2.2 Representa¸c˜ao matricial Sejam V, W espa¸cos vectoriais reais de dimens˜ao finita n, m, respectivamente. Se- jam B = {v1, . . . , vn}, ˜B = {w1, . . . , wm} bases fixadas em V, W, respectivamente. Sejam X =    x1 ... xn    , B =    b1 ... bn    (4.16)
  • 46. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 45 a matriz dos coeficientes de um qualquer vector v ∈ V e, respectivamente, a matriz dos coeficientes de um vector w0 ∈ W. Ou seja, v = n i=1 xivi = v1 · · · vn    x1 ... xn    , w0 = m j=1 bjwj = ˜B B (4.17) Seja agora f : V → W uma aplica¸c˜ao linear. Denotamos ent˜ao A = M(f, B, ˜B) (4.18) a matriz definida da seguinte forma: como para cada 1 ≤ i ≤ n, o vector f(vi) se escreve de forma ´unica `a custa dos vectores wj, 1 ≤ j ≤ m, existem escalares aji tais que f(vi) = m j=1 ajiwj. (4.19) ´E ´obvio que A = [aji] ∈ Mmn. A esta matriz damos o nome de matriz da aplica¸c˜ao linear f nas bases {vi}, {wj}. Note-se bem que esta representa¸c˜ao depende das bases. Rec´ıprocamente, fixadas as bases, a cada matriz A ∈ Mmn corresponde uma ´unica aplica¸c˜ao linear f. A linearidade, como condi¸c˜ao, determina un´ıvocamente f de tal forma que a sua representa¸c˜ao em matriz ´e a matriz dada. Exemplo: 1. Seja f : R2 → R2[ξ] definida por f(x, y) = 2xξ2 + 3(x + y)ξ + 4x − y. (4.20) Trata-se com efeito de uma aplica¸c˜ao linear entre espa¸cos vectorias (cf. ex- emplo 2 da sec¸c˜ao 4.1.2). Considerando as bases can´onicas daqueles espa¸cos, de um lado B = {(1, 0), (0, 1)}, do outro ˜B = {ξ2 , ξ, 1}, temos f(1, 0) = 2ξ2 + 3ξ + 4, f(0, 1) = 3ξ − 1. (4.21) Donde M(f, B, ˜B) =    2 0 3 3 4 −1    (4.22) ´e a matriz de f nas bases escolhidas. 2. Consideremos a aplica¸c˜ao identidade 1V : V → V . Podemos tomar a mesma base no espa¸co de chegada — ali´as ´e quase sempre assim que fazemos quando
  • 47. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 46 tratamos de endomorfismos de um dado espa¸co. Tem-se logo 1V (vi) = vi, ∀1 ≤ i ≤ n, pelo que a representa¸c˜ao matricial ´e M(1V , B, B) = 1n (4.23) como era de esperar. Prova-se naturalmente, sem dificuldade, que a uma equa¸c˜ao linear f(v) = w0 em v corresponde um e um s´o sistema linear AX = B: f(v) = w0 ⇔ n i=1 xif(vi) = m j=1 bjwj ⇔ ⇔ m j=1 n i=1 xiajiwj = m j=1 bjwj ⇔ ⇔ n i=1 ajixi = bj, ∀j ⇔ AX = B. (4.24) Prova-se ainda que o conjunto solu¸c˜ao Cw0 = {v : f(v) = w0} ´e igual a v0 + Nuc f, onde v0 ´e uma solu¸c˜ao particular, isto ´e, f(v0) = w0. De facto, v ∈ Cw0 sse f(v − v0) = w0 − w0 = 0. Como j´a foi certamente observado no teorema 16, a dimens˜ao da imagem de f est´a relacionada com o maior sli contido na imagem, em W, dos vectores de uma base de V . Ou seja, ´e exactamente a caracter´ıstica da matriz A. Mais ainda, conclui-se que o grau de indetermina¸c˜ao n − r(A) do sistema acima ´e a dimens˜ao do n´ucleo de f. Uma vez que n = n − r(A) + r(A), est´a provado o Teorema 18. dim V = dim Nuc f + dim Im f. ´E um resultado relevante pois n˜ao depende da escolha das bases. Nesta teoria acresce dizer que segue sem demonstra¸c˜ao a identidade M(f + λg, B, ˜B) = M(f, B, ˜B) + λM(g, B, ˜B) (4.25) ∀f, g ∈ L(V, W), λ ∈ R. 4.2.3 Composi¸c˜ao vs produto Sejam V, W, U espa¸cos vectoriais reais de dimens˜ao finita n, m, p, respectivamente. Sejam B = {v1, . . . , vn}, ˜B = {w1, . . . , wm}, B = {u1, . . . , up} bases fixadas em V, W, U, respectivamente. Suponhamos que s˜ao dadas aplica¸c˜oes lineares V f −→ W g −→ U. (4.26)
  • 48. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 47 Uma vez que g◦f tamb´em ´e uma aplica¸c˜ao linear, p˜oe-se a quest˜ao de relacionar as matrizes A = M(f, B, ˜B), B = M(g, ˜B, B ) (4.27) com a matriz C = M(g ◦ f, B, B ). Por defini¸c˜ao, analogamente com (4.19), isto ´e, f(vi) = m j=1 ajiwj, tem-se g(wj) = p k=1 bkjuk, g ◦ f (vi) = p k=1 ckiuk. (4.28) Mas uma vez que g ◦ f (vi) = g m j=1 ajiwj = m j=1 ajig(wj) = = m j=1 p k=1 ajibkjuk = p k=1 m j=1 bkjajiuk (4.29) obt´em-se afinal C = BA. (4.30) Repare-se que A ∈ Mmn, B ∈ Mpm, pelo que o resultado C = BA ∈ Mpn faz pleno sentido. Est´a descoberta a natureza geom´etrica do produto de matrizes. Toda a teoria estudada nos cap´ıtulos anteriores passou a fazer parte de um todo coerente. Recordemos agora a aplica¸c˜ao identidade 1V : V → V e representˆemo-la numa dada base B = {vi} de V como a matriz M(1V , B, B) = 1n. Pela lei demonstrada da ‘composi¸c˜ao vs produto’, deduz-se logo que a matriz da inversa de um isomorfismo f : V → W, nas mesmas bases acima, verifica M(f−1 , ˜B, B) = (M(f, B, ˜B)) −1 . (4.31) Repare-se que se mudarmos para a base B1 do mesmo espa¸co V temos uma matriz quadrada P = M(1V , B, B1) = (M(1V , B1, B))−1 (4.32) (a qual n˜ao tem nada que ser a matriz identidade). Uma tal matriz P chama-se uma matriz de mudan¸ca de base. Vejamos como se transforma em geral a matriz de uma aplica¸c˜ao linear qualquer como a f : V → W inicial. Suponhamos que, al´em da mudan¸ca de bases em V , descrita por P, temos a mudan¸ca de bases ˜B para ˜B1 em W, descrita pela matriz Q = M(1W , ˜B1, ˜B). Sendo A1 = M(f, B1, ˜B1), resulta de se ter f = 1W ◦ f ◦ 1V , de (4.27) e de (4.30) que A = QA1P. (4.33)
  • 49. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 48 Em particular, se f : V → V ´e um endomorfismo e usamos a mesma base dos dois lados, uma mudan¸ca de bases, de ambos os lados, descrita por P, produz o efeito A = P−1 A1P. Exemplos: 1. Consideremos o exemplo 1 da sec¸c˜ao 4.2.2 e, em W = R2[ξ], mudemos da base ˜B = {ξ2 , ξ, 1} para a base ˜B1 = {(ξ + 2)2 , (ξ + 2), 1}. Imediatamente calculamos ξ2 = (ξ + 2)2 − 4(ξ + 2) + 4 ξ = (ξ + 2) − 2 1 = 1 (4.34) pelo que Q = M(1W , ˜B, ˜B1) =    1 0 0 −4 1 0 4 −2 1    . (4.35) Logo M(f, B, ˜B1) = Q    2 0 3 3 4 −1    =    2 0 −5 3 6 −7    . (4.36) Podemos usar este resultado para escrever3 f na nova base: f(x, y) = 2x(ξ + 2)2 + (−5x + 3y)(ξ + 2) + 6x − 7y. (4.37) Lembrar que tamb´em as matrizes, fixadas as bases, determinam un´ıvocamente as aplica¸c˜oes lineares. 2. Como exemplo de aplica¸c˜ao, temos que se pode definir o determinante de um endomorfismo f : V → V . Basta escrever det f = det (M(f, B, B)). (4.38) ´E trivial provar, por (4.32) e (4.33), que (4.38) n˜ao depende da escolha da base. Por exemplo, se f(v) = κv, ent˜ao det f = κn . 4.2.4 Valores e vectores pr´oprios Suponhamos que ´e dado um endomorfismo f : V → V de um espa¸co vectorial V sobre R. Interessa-nos encontrar as direc¸c˜oes em V , socorrendo-nos aqui de uma 3 ´E o desenvolvimento de Taylor do polin´omio em ξ em torno de −2.
  • 50. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 49 linguagem geom´etrica, sobre as quais a imagem de f se expande ou se contrai. Ou seja, interessam as direc¸c˜oes n˜ao nulas u ∈ V tais que f(u) = λ0u (4.39) para algum λ0 ∈ R. Um vector como u chama-se um vector pr´oprio de f asso- ciado ao valor pr´oprio λ0. Assumamos que V tem dimens˜ao finita n e que uma sua base foi pr´eviamente escolhida. ´E claro que a equa¸c˜ao f(u) − λu = 0 tem solu¸c˜oes em u, λ, u = 0, sse o sistema homog´eneo (A − λ1n)X = 0 ´e poss´ıvel indeterminado, quando representa- mos por A a matriz de f (veja-se (4.24)). Escrevendo o polin´omio caracter´ıstico de A, pA(λ) = det (A − λ1n), (4.40) diz´ıamos que o sistema tem solu¸c˜ao (u, λ0) sse λ0 ´e uma ra´ız de pA, ou seja, λ0 ´e valor pr´oprio de A ⇐⇒ pA(λ0) = 0. (4.41) Com efeito, se aquele determinante ´e nulo, a matriz A − λ01n tem caracter´ıstica < n e logo o sistema tem solu¸c˜oes u ∈ V n˜ao nulas. E rec´ıprocamente. Prova-se, reflectindo um pouco sobre as defini¸c˜oes, que pA ´e de facto um polin´omio em λ, que o seu grau ´e n, que o coeficiente do termo λn ´e (−1)n e que o termo in- dependente ´e |A|. Exemplo: 1. Seja f(x, y) = (2x, 3x − y) de R2 para si mesmo. A sua matriz na base can´onica (1, 0), (0, 1) e o respectivo polin´omio caracter´ıstico s˜ao A = 2 0 3 −1 , pA = 2 − λ 0 3 −1 − λ = (λ − 2)(λ + 1). (4.42) Ent˜ao os valores pr´oprios s˜ao 2 e −1. Os vectores pr´oprios associados resultam de resolver, por exemplo, f(x, y) = 2(x, y). Isto ´e equivalente a (2x, 3x−y)− 2(x, y) = 0, ou ainda x = y. Segue portanto que os vectores em U2 = {(y, y) : y ∈ R} = (1, 1) s˜ao associados ao valor pr´oprio 2. Fazendo o mesmo para −1, vˆe-se logo que o respectivo subespa¸co pr´oprio ´e U−1 = (0, 1) . Dissemos bem no exemplo anterior. Prova-se sem dificuldade que o subespa¸co pr´oprio de V associado ao valor pr´oprio λ0 de f, Uλ0 = u ∈ V : f(u) = λ0u , (4.43) ´e um subespa¸co vectorial. A sua dimens˜ao ´e a multiplicidade geom´etrica de λ0. Esta distingue-se da multiplicidade alg´ebrica de λ0, que ´e a multiplicidade do valor pr´oprio λ0 como ra´ız de pA.
  • 51. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 50 H´a, no m´aximo, tantas direc¸c˜oes pr´oprias linearmente independentes dentro de Uλ0 quanto a multiplicidade alg´ebrica de λ0. Ou seja, m.g. λ0 ≤ m.a. λ0. (4.44) O caso da matriz 3 3 0 3 mostra-nos o problema que est´a em procurar uma base de vectores pr´oprios. No exemplo vertente, de valor pr´oprio 3, 1 = m.g. 3 ≤ m.a. 3 = 2. Seguramente para valores pr´oprios distintos h´a independˆencia linear, como diz o Teorema 19. Vectores pr´oprios u1, . . . , uk ∈ V de uma aplica¸c˜ao linear f associ- ados a valores pr´oprios distintos λ1, . . . , λk, respectivamente, formam um sistema de vectores linearmente independente. Demonstra¸c˜ao. Por indu¸c˜ao em k. Sendo o resultado claro para k = 1, admitamo- lo como v´alido para k e provˆemo-lo para k + 1. Podemos j´a supˆor λk+1 = 0. Suponhamos, por absurdo, que existem escalares α1, . . . , αk tais que uk+1 = α1u1 + · · · + αkuk. Aplicando ent˜ao f de ambos os lados temos, por defini¸c˜ao e por linearidade, λk+1uk+1 = λ1α1u1 + · · · + λkαkuk. Ou seja, igualando a uk+1, temos α1u1 + · · · + αkuk = λ1α1 λk+1 u1 + · · · + λkαk λk+1 uk. Agora, para vectores linearmente independentes, h´a unicidade da escrita de uma combina¸c˜ao linear. Usando a hip´otese de indu¸c˜ao, s´o podemos ter ent˜ao λi λk+1 = 1, ∀1 ≤ i ≤ k. Mas isto contradiz o facto de os λi serem todos distintos. Outra forma de enunciar o teorema ´e simplesmente dizer que os diferentes sube- spa¸cos vectoriais pr´oprios Uλ1 ⊕ · · · ⊕ Uλk (4.45) est˜ao em soma directa. 4.2.5 Matrizes semelhantes Duas matrizes quadradas A, A1 de ordem n dizem-se semelhantes se existe uma matriz invert´ıvel P de ordem n tal que A1 = PAP−1 . (4.46)
  • 52. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 51 Trata-se de uma rela¸c˜ao de equivalˆencia entre matrizes, cf. 1.1.2. Por exemplo, a propriedade de transitividade resulta de A = PA1P−1 & A1 = QA2Q−1 (4.47) implicar A = PQA2Q−1 P−1 = (PQ)A2(PQ)−1 . (4.48) A reflexividade e simetria s˜ao ainda mais simples de ver. J´a vimos que s˜ao semelhantes as v´arias matrizes M(f, B, B) de um endomorfismo f representadas nas diferentes bases B de um mesmo espa¸co vectorial. Pela mesma raz˜ao de representarem endomorfismos e de os vectores pr´oprios destes serem independentes da base fixada, o polin´omio caracter´ıstico de matrizes semelhantes n˜ao se altera: pA(λ) = pA1 (λ). (4.49) Mas pode e deve-se verificar este facto directamente da defini¸c˜ao de pA1 . Uma matriz diz-se diagonaliz´avel se for semelhante a uma matriz diagonal. Podemos agora afirmar sint´eticamente que um endomorfismo admite uma base de vectores pr´oprios sse a sua representa¸c˜ao matricial ´e diagonaliz´avel. A melhor aproxima¸c˜ao ao problema de diagonaliza¸c˜ao de uma matriz ´e dada, grosso modo, pelo teorema da forma can´onica de Jordan, que estudaremos mais tarde. Para finalizar, lembramos que h´a invariantes num´ericos da classe de equivalˆencia por semelhan¸ca de cada matriz. O primeiro, j´a visto no exemplo 2 de 4.2.3, ´e o determinante. O mesmo se passa com o tra¸co de uma matriz. Chamamos tra¸co de A `a soma das entradas da diagonal principal. Tr : Mn,n −→ R, Tr A = n i=1 aii (4.50) ´e uma aplica¸c˜ao linear `a qual acresce a propriedade Tr (AB) = Tr (BA) (4.51) para quaisquer matrizes A, B ∈ Mn,n. Donde Tr A1 = Tr (PAP−1 ) = Tr (P−1 PA) = Tr A para matrizes semelhantes.
  • 53. Cap´ıtulo 5 5.1 Geometria do Espa¸co Euclidiano 5.1.1 Produto interno euclidiano No espa¸co euclidiano Rn , os problemas m´etricos, ´etimo de problemas de medi¸c˜ao, s˜ao entendidos como aqueles que envolvem quest˜oes sobre o produto interno euclidiano. Trata-se de um conceito matem´atico que joga o papel da r´egua e do compasso, ou seja, dos instrumentos de medida de distˆancias e ˆangulos. Assim ser´a tamb´em em geral, como veremos mais tarde, em qualquer espa¸co vectorial munido de um dispositivo em tudo semelhante e ainda designado de produto interno. Comecemos pela presente situa¸c˜ao. O produto interno euclidiano consiste na fun¸c˜ao1 Rn × Rn −→ R, (u, v) −→ u, v = n i=1 xiyi (5.1) onde se admite u = (x1, . . . , xn), v = (y1, . . . , yn). ´E imediato constatar que o produto interno ´e uma aplica¸c˜ao bilinear, ou seja, lin- ear em u quando se fixa v e vice-versa. Basta ali´as verific´a-lo de um lado, porque tem a propriedade adicional de ser sim´etrico. Assim, ∀u, u1, u2, v, v1, v2 ∈ Rn , λ, µ ∈ R, u1 + λu2, v1 + µv2 = u1, v1 + µv2 + λ u2, v1 + µv2 = = u1, v1 + µ u1, v2 + λ u2, v1 + λµ u2, v2 , u, v = v, u . (5.2) Verifica-se tamb´em que u, u ≥ 0, com igualdade sse u = 0. Posto isto, pode-se definir a norma de um vector, associada ao produto interno euclidiano, como sendo u = u, u = x2 1 + · · · + x2 n. (5.3) 1 Roga-se ao leitor o cuidado de n˜ao confundir os parˆenteses do p.i. com os de subespa¸co gerado.
  • 54. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 53 O leitor, numa primeira abordagem, poder´a aqui reconhecer formalmente o teorema de Pit´agoras. O produto interno euclidiano respeita mesmo a decomposi¸c˜ao de Rn como soma directa Rn1 ⊕ Rn2 , onde n = n1 + n2, de espa¸cos com produto interno. ´E imediato provar pela defini¸c˜ao, em sentido dos ´ındices f´acil de entender, que se tem u, v n = u1, v1 n1 + u2, v2 n2 (5.4) onde u = u1 + u2 e v = v1 + v2 representa a decomposi¸c˜ao, ´unica, na soma directa. Daqui segue de facto o teorema de Pit´agoras, mas vˆe-lo-emos adiante noutra forma, mais geral. Como exemplo a destacar, calculemos o produto interno de alguns pares de vectores em Rn . Seja ei = (0, . . . , 0, 1, 0, . . . , 0), i = 1, . . . , n, a base can´onica; ent˜ao ei, ei = 02 + · · · + 02 + 12 + 02 + · · · + 02 = 1 ei, ej = 02 + · · · + 0.1 + · · · + 1.0 + · · · + 02 = 0 (5.5) para i = j. A norma euclidiana obedece `a desigualdade de Cauchy | u, v | ≤ u v , com igualdade sse u, v s˜ao colineares. (5.6) A demonstra¸c˜ao pode ser feita por indu¸c˜ao ou pela an´alise do bin´omio descriminante da par´abola u+λv, u+λv em λ, a qual como j´a vimos est´a sempre acima do eixo dos λ’s. Repare-se agora nas propriedades, f´aceis de provar, para todos os vectores e escalares, λu = |λ| u , u + v ≤ u + v . (5.7) A segunda chama-se desigualdade triangular. A desigualdade de Cauchy permite definir o ˆangulo entre dois vectores (u, v) = arccos u, v u v (5.8) com a determina¸c˜ao de arccos, e.g., entre 0 e π. 5.1.2 Ortogonalidade Seja U ⊂ Rn um subconjunto qualquer, n˜ao vazio. Define-se o ortogonal de U como o subconjunto U⊥ = v ∈ Rn : u, v = 0, ∀u ∈ U . (5.9) Tem-se que U⊥ ´e sempre um subespa¸co vectorial.
  • 55. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 54 Por linearidade, ´e evidente que U⊥ aparece como espa¸co solu¸c˜ao do sistema homog´eneo em v = (x1, . . . , xn) de, digamos, k equa¸c˜oes lineares: u1, v = 0, u2, v = 0, . . . , uk, v = 0 (5.10) onde u1, . . . , uk ´e um sistema de vectores linearmente independente maximal dentro de U, ou seja, uma base de U (subespa¸co gerado por U). Logo dim U⊥ = n − k. Como U⊥ ∩ U = {0}, est´a provado o Teorema 20. Para qualquer subconjunto U do espa¸co euclidiano, temos a decom- posi¸c˜ao em soma directa Rn = U⊥ ⊕ U . (5.11) Em particular, dim U⊥ = n − dim U . Seja V um subespa¸co vectorial; de modo que Rn = V ⊕ V ⊥ . Podemos definir aplica¸c˜oes lineares π : Rn → V e π⊥ : Rn → V ⊥ dadas pela decomposi¸c˜ao ´unica, ∀w ∈ Rn , w = w1 + w2 com w1 ∈ V, w2 ∈ V ⊥ : escrevemos ent˜ao π(w) = w1, π⊥ (w) = w2. Tˆem-se ent˜ao as rela¸c˜oes: 1Rn = π + π⊥ , π ◦ π⊥ = 0, π⊥ ◦ π = 0, π ◦ π = π π⊥ ◦ π⊥ = π⊥ , ker π = V ⊥ ker π⊥ = V. (5.12) π e π⊥ s˜ao de facto lineares e chamam-se projec¸c˜oes ortogonais. Repare-se que a sucess˜ao de aplica¸c˜oes lineares 0 −→ V ⊥ ι −→ Rn π −→ V −→ 0 (5.13) com ι a aplica¸c˜ao de inclus˜ao, ι(w) = w, verifica em cada espa¸co que a imagem da aplica¸c˜ao anterior ´e igual ao n´ucleo da seguinte. ´E claro que {0}⊥ = Rn , Rn⊥ = {0}. Mais cuidado ´e preciso ter em verificar que (U⊥ )⊥ = U . (5.14) Em particular, para um subespa¸co vectorial V ⊂ Rn , tem-se (V ⊥ )⊥ = V . (´E pela dedu¸c˜ao da dimens˜ao, vista no teorema acima, que se afirma a inclus˜ao do ortogonal do ortogonal em V .) Por exemplo em R2 , o ortogonal ao vector (a, b), suposto = 0, ´e a recta gerada por (−b, a). Em R3 , o ortogonal a (a, b, c), suposto = 0, ´e o plano (dim 2) gerado pelo sistema de vectores linearmente dependente (−b, a, 0), (−c, 0, a), (0, c, −b). Com efeito, todos os trˆes vectores s˜ao ortogonais a (a, b, c), como se vˆe por exemplo no caso do primeiro, (−b, a, 0), (a, b, c) = −ba + ab + 0c = 0, e tem-se a combina¸c˜ao linear −c(−b, a, 0)+b(−c, 0, a)+a(0, c, −b) = 0, donde apenas dois em trˆes daqueles vectores s˜ao linearmente independentes.
  • 56. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 55 Escrevemos agora duas identidades cuja verifica¸c˜ao ´e um exerc´ıcio. Primeiro, a do paralelogramo u + v 2 + u − v 2 = 2 u 2 + 2 v 2 (5.15) e, segundo, a identidade de Pit´agoras generalizada: se u ⊥ v, ou seja, u, v = 0, ent˜ao u + v 2 = u 2 + v 2 . (5.16) Muitos problemas surgem em geometria euclidiana dos subespa¸cos de Rn para os quais certas bases s˜ao mais indicadas que outras. Dizemos, para come¸car, que um vector u ´e unit´ario ou normado se u = 1. Define-se base ortonormada como uma base {u1, . . . , un} do espa¸co euclidiano formada de vectores unit´arios e ortogonais entre si. Ou seja, uα, uβ = δαβ = 1 se α = β 0 se α = β (5.17) Os δαβ s˜ao chamados de s´ımbolos de Kronecker e correspondem `as entradas da matriz 1n. Exemplos: 1. A c´elebre base can´onica de Rn ´e uma base ortonormada, cf. (5.5). 2. Seja U o subespa¸co vectorial de R4 gerado por u1 = (1, 2, 3, 0) e u2 = (2, 1, 4, −1). Portanto U = {λ1u1 + λ2u2 : λ1, λ2 ∈ R}. ´E f´acil ver que os dois geradores s˜ao linearmente independentes, ie. formam uma base de U. A projec¸c˜ao de u2 sobre a recta ortogonal a u1 dentro de U ´e u2 = u2 − v onde v = u1, u2 u1 u1 2 . Com efeito, u1, u2 = u1, u2 − u1, u2 u1, u1 u1 2 = 0 e, por outro lado, u2 = u2 + v com v sobre o eixo u1. Ent˜ao ˜u1 = u1 u1 = 1 √ 14 (1, 2, 3, 0) e ˜u2 = u2 u2 = 1 √ 182 (6, −9, 4, −7) (5.18) formam outra base de U, desta feita uma base ortonormada: ˜ui, ˜uj = δij, i, j = 1, 2. Agora, U⊥ ´e dado pelos vectores (x, y, z, w) solu¸c˜ao de x + 2y + 3z = 0 2x + y + 4z − w = 0 . (5.19)