UNIVERSIDADE DA BEIRA INTERIOR
Apontamentos Teóricos
de
Álgebra Linear e Geometria Analı́tica
Cristina Gama
Jorge Gama
Ano Lectivo 2001/2002
1 ESTRUTURAS ALGÉBRICAS
Os conceitos que se seguem servirão de suporte aos objectivos da disciplina. Esses conceitos
são as estruturas de grupo, anel e corpo. No final do capı́tulo faremos um estudo mais
aprofundado do corpo dos números complexos.
Definição 1.1 Seja A um conjunto não vazio. Chama-se operação binária ou lei de
composição interna no conjunto A a qualquer aplicação definida do conjunto A×A (produto
cartesiano de A por A) em A, isto é, se representarmos por θ essa aplicação, então
θ : A × A → A
(a, b) 7→ θ(a, b)
No caso das operações binárias é usual escrever-se aθb no lugar de θ(a, b). Passaremos
a usar essa notação.
Exemplos:
1. No conjunto N, a adição e a multiplicação usuais são operações binárias.
2. No conjunto Z a adição e a multiplicação usuais são operações binárias.
3. Em Q ou R a adição e a multiplicação usuais são operações binárias.
4. A subtracção é uma operação binária em N? E em Z?
5. A divisão é uma operação binária em N, Z, Q, ou R? E em Q  {0} ou R  {0}?
6. Se em N0 definirmos ∗ : N0 ×N0 → N0 tal que a∗b = a+b+1, ∗ é uma operação binária.
Definição 1.2 Seja A um conjunto, não vazio, e θ uma operação binária definida em A.
Diz-se que (A, θ) é um grupo quando se verificam os seguintes axiomas:
G1. ∀a, b, c ∈ A, (aθb)θc = aθ(bθc) (Associatividade)
G2. ∃u ∈ A : ∀a ∈ A, aθu = uθa = a (Existência de elemento neutro)
G3. ∀a ∈ A, ∃a0
∈ A : aθa0
= a0
θa = u (Existência de elemento oposto)
No caso em que a operação é também comutativa, isto é,
G4. ∀a, b ∈ A, aθb = bθa
o grupo (A, θ) diz-se comutativo ou abeliano.
Observações:
1
1. É usual designarem-se as operações binárias por adição ou multiplicação, representadas
respectivamente por + e · (não é necessário que tenham alguma coisa a ver com a adição
e multiplicação usuais).
2. No contexto da observação anterior, o elemento neutro designa-se por zero (0), se a
operação é uma adição, e designa-se por identidade (1), se a operação é uma multi-
plicação. Analogamente, se a operação é uma adição, o oposto de um elemento a chama-se
simétrico (representa-se por −a), se a operação é uma multiplicação, o oposto chama-se
inverso (representa-se por a−1
).
Exercı́cio: Seja A um conjunto e θ uma operação binária definida em A. Em (A, θ), com θ
associativa, mostre que
a) quando existe elemento neutro, ele é único.
b) quando um elemento tem oposto, este é único.
Exemplos de Grupos:
(Z, +), (Q, +), (R, +), (R  {0}, ·), (F, ◦), com F o conjunto de todas as funções bijectivas
de um conjunto nele próprio (em particular, o conjunto S3 das permutações de {1, 2, 3} com
a composição), etc.
Observação: No caso (S3, ◦), os elementos de S3 são
I =

1 2 3
1 2 3

T1 =

1 2 3
1 3 2

T2 =

1 2 3
2 1 3

T3 =

1 2 3
2 3 1

T4 =

1 2 3
3 1 2

T5 =

1 2 3
3 2 1

e, por exemplo,
T1 ◦ T2 =

1 2 3
1 3 2

◦

1 2 3
2 1 3

= T4.
Outro exemplo: (Z2, +), onde Z2 = {0, 1} e + está definida por
+ 0 1
0 0 1
1 1 0
Definição 1.3 Seja (A, θ) um grupo e B um subconjunto não vazio de A. Diz-se que (B, θ)
é um subgrupo de (A, θ) se (B, θ) é um grupo em relação à operação binária definida em
A.
Exercı́cio: Nos exemplos anteriores, verifique quais os grupos que são subgrupos de algum
dos outros grupos.
2
Homomorfismos de Grupos
Definição 1.4 Sejam (A, θ) e (A0
, σ) dois grupos. Uma aplicação f : A → A0
diz-se um
homomorfismo se
∀a, b ∈ A, f(aθb) = f(a)σf(b).
Observações: Se f : A → A0
é um homomorfismo, então
i) f(u) = u0
(u elemento neutro de (A, θ) e u0
elemento neutro de (A0
, σ))
ii) (f(a))−1
= f(a−1
).
Exemplos:
1. Seja
f : R+
→ R
x 7→ ln(x).
f é um homomorfismo do grupo (R+
, ·), no grupo (R, +), já que ln(x · y) = ln(x) + ln(y).
2. A aplicação
g : R → R+
x 7→ ex
é um homomorfismo de (R, +) no grupo (R+
, ·), já que ex+y
= ex
· ey
.
Definição 1.5 Um terno (A, +, ·), com A um conjunto, não vazio, e + e · operações binárias
definidas em A, é um anel se:
A1. (A, +) é um grupo abeliano;
A2. A operação · é associativa;
A3. A operação · é distributiva relativamente à operação +, isto é,
∀a, b, c ∈ A, a · (b + c) = (a · b) + (a · c) ∧ (a + b) · c = (a · c) + (b · c).
O elemento neutro da primeira operação chama-se zero do anel.
Se a segunda operação for comutativa, então o anel diz-se comutativo.
Caso o anel A tenha elemento unidade, isto é, se (A, ·) tiver elemento neutro, A diz-se anel
com elemento unidade ou anel unitário.
Exemplos de Anéis:
1. (Z, +, ·) é um anel comutativo unitário.
2. O conjunto R2
= {(a, b) : a, b ∈ R} com as operações definidas por
(a, b) + (c, d) = (a + c, b + d)
(a, b) · (c, d) = (ac, bd)
é um anel.
3
Definição 1.6 Um terno (K, +, ·) diz-se um corpo se (K, +, ·) é uma anel comutativo com
identidade e todos os elementos de K {0} têm inverso, isto é, (K, +, ·) é um corpo se (K, +)
e (K  {0}, ·) são grupos comutativos e · é distributiva relativamente a +.
Exemplos de Corpos: (Q, +, ·), (R, +, ·), com + e · as operações usuais, e (Z2, +, ·), com
+ 0 1
0 0 1
1 1 0
· 0 1
0 0 0
1 0 1
Propriedades 1.7 Num corpo são válidas as seguintes proposições:
1. a · 0 = 0 · a = 0 (0 é elemento absorvente da multiplicação)
2. a · b = 0 ⇔ a = 0 ∨ b = 0 (lei do anulamento do produto)
Definição 1.8 Sejam (K, +, ·) e (K0
, θ, ∗) dois corpos. A aplicação f : K → K0
diz-se um
homomorfismo de corpos se, para todos x, y ∈ K,
f(x + y) = f(x)θf(y) e f(x · y) = f(x) ∗ f(y).
Se f é bijectiva, f diz-se um isomorfismo. Se K = K0
, f diz-se um endomorfismo. E um
endomorfismo bijectivo diz-se um automorfismo.
Depois de definirmos todas estas estruturas, podemos estudar mais profundamente um
corpo muito importante: Corpo dos Complexos, isto é,
C = {(a, b) : a, b ∈ R}
munido com as operações:
(a, b) + (c, d) = (a + c, b + d)
(a, b) · (c, d) = (ac − bd, ad + bc)
Exercı́cio: Mostre que (C, +, ·) é um corpo.
Observações:
1. Não é difı́cil verificar que (0, 0) é o zero de C e (1, 0) é a unidade de C.
2. Seja S = {(a, 0) : a ∈ R}, subconjunto de C. (S, +, ·) é um corpo para as operações
definidas em C. Dado que a aplicação
f : (R, +, ·) → (S, +, ·)
a 7→ (a, 0)
é um isomorfismo de corpos, podemos simplificar a escrita identificando os complexos
(a, 0) com o correspondente número real a.
4
Da definição dada para a multiplicação em C, resulta
(0, 1)2
= (0, 1) · (0, 1) = (0 − 1, 0 + 0) = (−1, 0).
Deste modo, o número complexo (0, 1) é solução da equação x2
= −1.
O complexo (0, 1) denomina-se unidade imaginária e representa-se pelo sı́mbolo i.
Atendendo-se à identificação de (a, 0) com a e (0, 1) com i, é consequência das operações
definidas em C a seguinte representação:
∀(a, b) ∈ C : (a, b) = (a, 0) + (0, b) = a + (0, 1) · (b, 0) = a + ib,
em que a será chamado parte real do complexo e b parte imaginária do complexo. Em
sı́mbolos, se z = a + bi, a = Re(z) e b = Im(z). Os números complexos da forma ib, com
b 6= 0, chamam-se imaginários puros.
Observe-se que
i2
= −1, i3
= −i, i4
= 1, i5
= i, . . . ,
(a + bi) + (c + di) = (a + c) + (b + d)i,
(a + bi) · (c + di) = (ac − bd) + (ad + bc)i.
Definição 1.9 Seja z = a+bi um número complexo. Chama-se conjugado de z ao número
complexo z = a − bi. Chama-se módulo de z ao número real
|z| =
√
z · z =
√
a2 + b2.
Propriedades 1.10 Para todo z, w ∈ C,
1. Re(z) =
z + z
2
, 2. Im(z) =
z − z
2i
,
3. z + w = z + w, 4. z · w = z · w,
5. |z| = |z|, 6. z−1
=
z
|z|2 =
a
a2 + b2
− i
b
a2 + b2
, com z 6= 0,
7.
 z
w

=
z
w
Exercı́cio: Calcule:
a) (1 − i)(3 − 2i) − (2 − i)(3 + 4i);
b)
(2 − i)2
− 2
1 + 3i
.
5
Representação Trigonométrica dos Números Complexos
Já sabemos que dada uma recta orientada, existe uma correspondência biunı́voca entre
cada ponto da recta e o conjunto dos números reais, R. Assim, como identificamos o número
complexo (a, 0) com o número real a, os complexos da forma a + i0 serão representados na
recta.
Como representar, por exemplo, os imaginários puros? Repare-se que uma rotação de
180o
em torno da origem corresponde a uma multiplicação por −1. Ora, uma rotação de
90o
deverá corresponder a multiplicar por k de modo que k2
= −1. Logo, k terá que ser
a unidade imaginária i. Convencionaremos que o sentido positivo das rotações é o sentido
contrário ao dos ponteiros do relógio. Portanto, passaremos a representar os números reais
num eixo horizontal (eixo real) e os imaginários puros num eixo vertical (eixo imaginário).
Assim, um ponto P do plano de abcissa a e ordenada b será a imagem do complexo z = a+bi.
-
6









r
O
P
a
b
ρ
θ
Plano de Argand
Sabemos que o comprimento OP é o número real |z| =
√
a2 + b2 (Teorema de Pitágoras).
Representemos este número por ρ. Repare-se que o ponto P fica bem definido se consider-
armos ρ e o ângulo θ que o segmento [OP] faz com a parte positiva do eixo real.
Chama-se argumento principal ao ângulo θ ∈] − π, π]. Assim, a imagem do complexo
z fica bem definida se conhecermos ρ := |z| e θ := arg(z). Observe-se que se fizermos
θ = arg(z) + 2kπ, k ∈ Z, obtemos sempre a mesma imagem. Portanto, a cada complexo
podemos associar uma infinidade de argumentos. Além do principal, o argumento positivo
mı́nimo de z = a + bi é tal que θ ∈ [0, 2π[ e tg θ =
b
a
.
Observe a figura anterior para concluir que para todo o complexo z = a + bi,

a = ρ cos θ
b = ρ sen θ
Assim, a forma trigonométrica de z é
z = ρ(cos(θ) + i sen(θ)).
Abreviadamente, z = ρ cis(θ).
Se z ∈ C é tal que z = a + bi = ρ cis(θ), então z = a − bi = ρ cis(−θ).
6
-
6








r
Z
Z
Z
Z
Z
Z
Z
Zr
O
z
z
ρ
θ
−θ
Exercı́cio: Escreva na forma trigonométrica:
a) −3i;
b) −1 − i;
c) 1 − i
√
3;
d) 2 + 3i.
Operações com Complexos na Forma Trigonométrica
Adição: Usa-se a regra do paralelogramo
-
6
r
O
z1 + z2 = z




r z1







r
z2
















z = ρ cis(θ) = z1+z2 = ρ1 cis(θ1)+ρ2 cis(θ2) = ρ1 cos(θ1)+ρ2 cos(θ2)+i(ρ1 sen(θ1)+ρ2 sen(θ2))
e
|z|2
= ρ2
= (ρ1 cos(θ1)+ρ2 cos(θ2))2
+(ρ1 sen(θ1)+ρ2 sen(θ2))2
= ρ2
1 +ρ2
2 +2ρ1ρ2 cos(θ1 −θ2).
Multiplicação: Se z1 = ρ1 cis(θ1) e z2 = ρ2 cis(θ2), então
z1 · z2 = (ρ1 cis(θ1))(ρ2 cis(θ2)) = ρ1ρ2 cis(θ1 + θ2).
7
∴ |z1 · z2| = |z1| · |z2| e arg(z1 · z2) = arg(z1) + arg(z2).
Divisão: Se z2 6= 0, então
1
z2
=
1
ρ2
cis(−θ2). Logo,
z1
z2
=
ρ1
ρ2
cis(θ1 − θ2).
∴
z1
z2
=
|z1|
|z2|
e arg

z1
z2

= arg(z1) − arg(z2).
Potenciação: Se z = ρ cis(θ) e n ∈ Z, então
zn
= ρn
cis(nθ) (Fórmula de De Moivre).
∴ |zn
| = |z|n
e arg (zn
) = n arg(z).
Radiciação: Seja z = ρ cis(θ) e n ∈ N. Se w = ρ1 cis(θ1) é uma raiz de ı́ndice n de z, então
wn
= z. Logo,
(ρ1 cis(θ1))n
= ρ cis(θ) ⇔ ρn
1 cis(nθ1) = ρ cis(θ) ⇔



ρn
1 = ρ
cos(nθ1) = cos(θ)
sen(nθ1) = sen(θ)
⇔

ρ1 = n
√
ρ
nθ1 = θ + 2kπ,
com k ∈ Z, isto é,
ρ1 = n
√
ρ ∧ θ1 =
θ + 2kπ
n
, k ∈ Z.
Assim, e atendendo-se às repetições, w = n
√
ρ cis

θ + 2kπ
n

, com k = 0, 1, . . . , n − 1.
As raı́zes de ı́ndice n de um complexo z têm imagens que formam os vértices de um
polı́gono regular de n lados:
-
6
r
r
r
H
H
H
H
H
H
H







-
6
r r
r
r
@
@
@
@
@
@
No caso do expoente racional, isto é, do tipo
p
q
, com p, q ∈ N, tem-se, por definição, para
z = ρ cis(θ),
zp/q
= z1/q
p
=

ρ1/q
cis

θ + 2kπ
q
p
= ρp/q
cis

p
q
(θ + 2kπ)

.
8
Observe-se que
8
12
=
2
3
e assim z8/12
= z2/3
, tem 3 raı́zes distintas, enquanto
12
√
z8 tem
12 raı́zes distintas. Em C, (zp
)1/q
pode ser diferente de z1/q
p
.
Exercı́cios:
1. Utilize a forma trigonométrica para calcular:
a)
i55
−
√
3
(1 − i)6
;
b)
i66
(
√
3 − i)4
(1 + i
√
3)8
.
2. Resolva, em C, a equação
z3
− (1 + i)z2
+ iz = 0.
Lugares Geométricos
- Circunferência de centro z0 e raio r ≥ 0.
Por definição, uma circunferência de centro z0 e raio r é o conjunto dos pontos z tais que
|z − z0| = r
ou, equivalentemente,
(z − z0) (z − z0) = r2
⇔ zz − zz0 − z0z + |z0|2
= r2
.
Se |z0|2
= r2
, a circunferência passa pela origem.
Se |z0|2
6= r2
, a circunferência não passa pela origem.
- Equação da recta.
A equação geral de uma recta em R2
é da forma
Ax + By + C = 0.
Tomando-se z0 = A + iB e z = x + iy, obtém-se que
Re(z0)Re(z) + Im(z0)Im(z) + C = 0 ⇔
⇔
z0 + z0
2
·
z + z
2
+
z0 − z0
2i
·
z − z
2i
+ C = 0
⇔ (z0 + z0) (z + z) − (z0 − z0) (z − z) + 4C = 0
⇔ 2z0z + 2z0z + 4C = 0
⇔ z0z + z0z + R = 0 (Equação Geral da Recta)
Se R = 0, a recta passa pela origem.
Se R 6= 0, a recta não passa pela origem.
9
2 MATRIZES. RESOLUÇÃO DE SISTEMAS. INVERSÃO DE
MATRIZES.
Definição 2.1 Sejam m, n ∈ N e K um corpo. Chama-se matriz do tipo m × n (ou
de ordem (m, n)) sobre o corpo K, ou simplesmente, matriz do tipo m × n, a uma
função A definida no conjunto {(i, j) ∈ N × N : 1 ≤ i ≤ m, 1 ≤ j ≤ n} e com valores em K.
As componentes ou elementos ou entradas da matriz A designam-se por aij = A(i, j).
É usual usar-se um quadro rectangular para dispor os elementos de K.





a11 a12 · · · a1n
a21 a22 · · · a2n
.
.
. · · · · · · · · ·
am1 am2 · · · amn





ou





a11 a12 · · · a1n
a21 a22 · · · a2n
.
.
. · · · · · · · · ·
am1 am2 · · · amn





Abreviadamente, uma matriz representa-se por
[aij](m,n) (1 ≤ i ≤ m, 1 ≤ j ≤ n)
ou, apenas, por A.
Duas matrizes A = [aij] e B = [bij] dizem-se iguais se, e somente se, são do mesmo tipo
e aij = bij, para todos os valores de i e j.
Designa-se por MK(m, n) o conjunto de todas as matrizes sobre o corpo K e de ordem
(m, n) (m linhas, n colunas).
Se K = R, a matriz diz-se real. Se K = C, a matriz diz-se complexa.
Matrizes Especiais
Seja A = [aij] ∈ MK(m, n).
1. Se n = 1, a matriz A diz-se matriz coluna.





a11
a21
.
.
.
am1





2. Se m = 1, a matriz A diz-se matriz linha.

a11 a12 · · · a1n

10
3. Se m = n, a matriz A diz-se quadrada de ordem n.





a11 a12 · · · a1n
a21 a22 · · · a2n
.
.
. · · · · · · · · ·
an1 an2 · · · ann





Numa matriz quadrada, os elementos a11, a22, . . . , ann dizem-se elementos principais
ou diagonais e formam a primeira diagonal ou diagonal principal. Os elementos
a1n, a2,n−1, . . . , an1 formam a segunda diagonal ou diagonal secundária.














Diagonal Principal Diagonal Secundária
3.1 Uma matriz quadrada A diz-se triangular superior se aij = 0, para i  j.
Exemplo: 

−2 1 3
0 4 −1
0 0 −5


3.2 Uma matriz quadrada A diz-se triangular inferior se aij = 0, para i  j.
Exemplo: 

2 0 0
−1 3 0
7 4 −2


3.3 Uma matriz quadrada A diz-se diagonal se aij = 0, para i 6= j.
Exemplo: 



−1 0 0 0
0 3 0 0
0 0 5 0
0 0 0 −1




3.4 Uma matriz quadrada A diz-se escalar se é diagonal e aii = a 6= 0, para todo o i.
Exemplo: 



3 0 0 0
0 3 0 0
0 0 3 0
0 0 0 3




Utilizando-se o sı́mbolo de Kronecker, δij, definido por
δij =

0, se i 6= j,
1, se i = j,
uma matriz escalar pode representar-se apenas por [aδij].
11
Exemplo: 



3 0 0 0
0 3 0 0
0 0 3 0
0 0 0 3



 = [3δij]
A matriz identidade é a matriz escalar [δij]. Designa-se, em geral, por In.
I1 = [1] I2 =

1 0
0 1

I3 =


1 0 0
0 1 0
0 0 1

 I4 =




1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1



 . . .
4. Uma matriz formada por r linhas (r ≤ m) e s colunas (s ≤ n) de uma matriz A diz-se
uma submatriz de A do tipo r × s.
Exemplo:
A matriz

2 0
−1 4

é submatriz de


2 0 4 1
−1 4 −3 0
5 −6 8 1/2

.
5. A matriz A diz-se matriz nula se todos os elementos são nulos (aij = 0, para todos
os valores de i e j). Designa-se a matriz nula por 0m×n, ou simplesmente por 0, se não
houver ambiguidade quanto ao seu tipo.
Exemplo: 

0 0 0
0 0 0
0 0 0


6. A matriz oposta da matriz A = [aij](m,n) é uma matriz do mesmo tipo definida por
−A = [−aij] .
Exemplo:
A =


−1 2
3 5
1/2 −
√
2

 − A =


1 −2
−3 −5
−1/2
√
2


7. Denomina-se matriz transposta de A a matriz AT
que se obtém de A trocando orde-
nadamente as linhas por colunas e as colunas por linhas. Se A é do tipo m × n, AT
é do
tipo n × m.
Exemplo:
A =

2 −5 7
−3 2 1

AT
=


2 −3
−5 2
7 1


Propriedade 2.2 AT
T
= A.
12
8. A matriz A diz-se simétrica se é igual à sua transposta, isto é, A = AT
. Logo, os seus
elementos verificam a relação
aij = aji,
para todos os valores de i e j.
Desta forma, uma matriz simétrica é necessariamente quadrada e os elementos colocados
simetricamente em relação à diagonal principal são iguais.
Exemplo: 

3 4 −1
4 −2 7
−1 7 −5


9. A matriz A diz-se anti-simétrica ou hemi-simétrica se
AT
= −A ou A = −AT
.
Os elementos verificam a relação aij = −aji. Assim, para i = j, tem-se
aii = −aii ⇔ aii = 0.
Desta forma, uma matriz anti-simétrica é uma matriz quadrada cujos elementos principais
são nulos e os elementos colocados simetricamente em relação à diagonal principal são
simétricos.
Exemplo: 

0 2 −7
−2 0 5
7 −5 0


10. Se a matriz A é complexa, chama-se matriz conjugada de A à matriz A que se obtém
substituindo cada elemento de A pelo seu conjugado.
Exemplo:
A =

5 3 + 2i 2
−i 7i 9 − i

A =

5 3 − 2i 2
i −7i 9 + i

Propriedades 2.3
1. Se A = A, então A é uma matriz real.
2. A = A.
11. Denomina-se matriz associada de A (complexa) a matriz A∗
que é igual à transposta
da conjugada de A, ou, o que é o mesmo, à conjugada da transposta de A, isto é,
A∗
= A
T
= (AT ).
Exemplo:
A =

5 3 + 2i 2
−i 7i 9 + i

A∗
=


5 i
3 − 2i −7i
2 9 − i


13
Propriedades 2.4
1. (A∗
)T
= A.
2. (A∗) = AT
.
3. (A∗
)∗
= A.
12. Uma matriz A diz-se hermı́tica ou hermitiana se é igual à sua associada, isto é, se
A = A∗
.
Logo, os seus elementos verificam a relação aij = aji e é uma matriz quadrada.
Em particular, para i = j, tem-se aii = aii = a ∈ R, isto é, aii é um número real.
Exemplo: 



5 5 + 2i 3i 0
5 − 2i −1 9 2 − i
−3i 9 7 7 + 2i
0 2 + i 7 − 2i −4




13. Uma matriz A diz-se hemi-hermı́tica ou hemi-hermitiana se satisfaz a relação
A = −A∗
.
Logo, os seus elementos verificam a relação aij = −aji e é uma matriz quadrada.
Em particular, para i = j, tem-se aii = −aii, isto é, Re(aii) = 0.
Exemplo: 



5i 5 5 − i 3 − 2i
−5 −2i 2 + i 9i
−5 − i −2 + i 7i 9
−3 − 2i 9i −9 −i




Operações com Matrizes
1. Adição: Sejam A = [aij], B = [bij] ∈ MK(m, n). Define-se adição de A com B como
sendo a matriz S = A + B ∈ MK(m, n) cujos elementos são obtidos pela relação
sij = aij + bij.
Exemplo: 
2 6 0
−1 4 7

+

1 0 4
−4 1 −3

=

3 6 4
−5 5 4

Propriedades 2.5 (Adição de Matrizes)
a) A adição de matrizes é comutativa, isto é,
∀A, B ∈ MK(m, n), A + B = B + A.
14
b) A adição de matrizes é associativa, isto é,
∀A, B, C ∈ MK(m, n), (A + B) + C = A + (B + C).
c) A adição de matrizes tem elemento neutro, a matriz nula



0 · · · 0
.
.
. · · ·
.
.
.
0 · · · 0



(m,n)
d) Todas as matrizes em MK(m, n) têm oposto. O elemento oposto de A ∈ MK(m, n) é
a matriz −A ∈ MK(m, n).
∴ (MK(m, n), +) é um grupo abeliano.
e) Sejam A1, A2, . . . , Ap ∈ MK(m, n). Então
(A1 + A2 + · · · + Ap)T
= AT
1 + AT
2 + · · · + AT
p .
f) Se A ∈ MC(n, n), então A + A∗
é hermı́tica e A − A∗
é hemi-hermı́tica.
g) Se A ∈ MK(n, n), então A + AT
é simétrica e A − AT
é anti-simétrica.
2. Multiplicação de uma Matriz por um Escalar:
Sejam A = [aij] ∈ MK(m, n) e λ ∈ K. É usual denominar qualquer elemento de um
corpo por escalar. Define-se produto do escalar λ pela matriz A como sendo a matriz
λA = [λaij].
Exemplo:
Se A =

2 5 7
1 0 −2

e λ = 2, então λA =

4 10 14
2 0 −4

.
Propriedades 2.6 Sejam A, B ∈ MK(m, n) e α, β ∈ K.
i) 1 · A = A;
ii) α(βA) = (αβ)A = β(αA);
iii) (α + β)A = αA + βA;
iv) α(A + B) = αA + αB;
v) Se K = C e m = n, uma matriz A pode exprimir-se como soma de uma matriz
hermı́tica e uma hemi-hermı́tica, ou de uma matriz simétrica e outra anti-simétrica.
3. Multiplicação de Matrizes:
Sejam A = [aik] ∈ MK(m, p) e B = [blj] ∈ MK(p, n). As matrizes A e B dizem-
-se encadeadas porque o número de colunas de A é igual ao número de linhas de B.
Define-se multiplicação da matriz A pela matriz B como sendo uma matriz C do tipo
m × n, cujos elementos cij satisfazem a igualdade
cij =
p
X
k=1
aikbkj,
15
com i = 1, . . . , m e j = 1, . . . , n.
Exemplo:
A =

2 −1
0 3

B =

3 −1 0
1 2 −4

AB =

5 −4 4
3 6 −12

Observe que não é possı́vel a multiplicação BA. Desta forma, a multiplicação não é
comutativa. Mesmo que A seja do tipo m × n e B do tipo n × m, AB é diferente de BA,
para m 6= n, dado as matrizes AB e BA não serem da mesma ordem. Observe o seguinte
exemplo:

0 1 2 3
3 2 1 0





0 3
1 2
2 1
3 0



 =

14 4
4 14





0 3
1 2
2 1
3 0





0 1 2 3
3 2 1 0

=




9 6 3 0
6 5 4 3
3 4 5 6
0 3 6 9




No caso particular m = n, se AB = BA, então as matrizes A e B dizem-se permutáveis.
Exemplo: 
2 0
0 2
 
3 0
0 3

=

6 0
0 6

=

3 0
0 3
 
2 0
0 2

As matrizes

2 0
0 2

e

3 0
0 3

são permutáveis.
Propriedades 2.7
i) Se A, B e C são matrizes do tipo m × p, p × q e q × n, respectivamente, então
(A · B) · C = A · (B · C) (Associatividade).
ii) Se A, B e C são matrizes do tipo m × p, p × n e p × n, respectivamente, então
A · (B + C) = A · B + A · C (Distributividade à Esquerda).
Se D, E e F são matrizes do tipo m × p, m × p e p × n, respectivamente, então
(D + E) · F = D · F + E · F (Distributividade à Direita).
iii) O conjunto MK(n, n), das matrizes quadradas de ordem n com elementos no corpo
K, munido com as operações adição e multiplicação de matrizes é um anel não
comutativo com elemento unidade (matriz identidade de ordem n).
16
Observações:
1. Um produto AB pode ser a matriz nula sem que A ou B sejam a matriz nula.
Por exemplo: 

1 2 0
1 1 0
1 4 0




0 0 0
0 0 0
1 4 9

 =


0 0 0
0 0 0
0 0 0

 .
2. A igualdade AB = AC não implica necessariamente B = C. Por exemplo:
AB =


1 2 0
1 1 0
−1 4 0




1 2 3
1 1 −1
2 2 2

 =


3 4 1
2 3 2
3 2 −7


AC =


1 2 0
1 1 0
−1 4 0




1 2 3
1 1 −1
1 1 1

 =


3 4 1
2 3 2
3 2 −7


iv) Se as matrizes A e B são do tipo m × p e p × n, respectivamente, então
1. (AB)T
= BT
AT
;
2. AB = A · B;
3. (AB)∗
= B∗
A∗
.
No caso das matrizes quadradas, An
, para todo n ∈ N, existe, já que A é encadeada com
A, A2
, A3
, . . ..
Ainda no caso das matrizes quadradas de ordem n, se AB = BA = In, B é a matriz
inversa de A em MK(n, n), isto é, B = A−1
e A = B−1
. Neste caso, as matrizes A e B
dizem-se regulares ou invertı́veis. Se A ∈ MK(n, n) não é regular, diz-se singular.
Operações Elementares com as Filas de uma Matriz. Condensação
Definição 2.8 Numa matriz, duas filas paralelas dizem-se dependentes se são iguais ou se
uma é igual ao produto da outra por um escalar. Ainda, se uma fila é igual à soma de outras
filas paralelas ou à soma dos produtos de outras filas paralelas por escalares, diremos que
essas filas paralelas são dependentes. Caso contrário, as filas dizem-se independentes.
Definição 2.9 Chama-se caracterı́stica de uma matriz A à ordem máxima da submatriz
de A constituı́da pelas filas independentes.
Para se encontrar a caracterı́stica de uma matriz é necessário ter em conta o seguinte:
1.
Teorema 2.10 A dependência ou independência das linhas ou colunas de uma matriz
não é alterada por alguma das seguintes operações ditas elementares:
O1 Troca entre si de duas filas paralelas.
17
O2 Multiplicação dos elementos de uma fila por um escalar de K  {0}.
O3 Adição, aos elementos de uma fila, dos produtos dos elementos correspondentes de
uma fila paralela por um mesmo escalar de K.
2. Uma matriz que tenha uma submatriz triangular (ou diagonal), com elementos principais
não nulos, e as restantes filas com elementos todos nulos tem caracterı́stica igual ao
número de filas dessa submatriz.
Utilizando-se 1. e 2., podemos determinar a caracterı́stica de uma matriz. Efectua-se,
assim, a condensação da matriz.
Exercı́cio: Determine a caracterı́stica da matriz
A =


0 −3 2 1
−2 2 2 0
1 2 −4 3

 .
Em geral, dada uma matriz
A =




a11 a12 · · · a1n
a21 a22 · · · a2n
· · · · · · · · · · · ·
am1 am2 · · · amn



 ,
podemos, por condensação, obter








b11 b12 · · · b1r · · · b1n
0 b22 · · · b2r · · · b2n
· · · · · · · · · · · · · · · · · ·
0 · · · 0 brr · · · brn
· · · · · · · · · · · · · · · · · ·
0 0 · · · · · · · · · 0








ou








c11 0 · · · 0 · · · 0
c21 c22 · · · 0 · · · 0
· · · · · · · · · · · · · · · · · ·
cr1 · · · · · · crr · · · 0
· · · · · · · · · · · · · · · · · ·
0 0 · · · · · · · · · 0








ou








d11 0 · · · · · · · · · 0
0 d22 0 · · · · · · 0
· · · · · · · · · · · · · · · · · ·
0 · · · 0 drr · · · 0
· · · · · · · · · · · · · · · · · ·
0 0 · · · · · · · · · 0








.
18
Qualquer destas matrizes tem r filas independentes e quaisquer r + 1 filas passam a ser
dependentes. Logo, Car A = r.
Aplicação à Resolução de Sistemas de Equações Lineares
Considere-se um sistema de m equações com n incógnitas:



a11x1 + a12x2 + · · · + a1nxn = b1
· · · · · · · · · · · · · · · · · ·
am1x1 + am2x2 + · · · + amnxn = bm
Observe-se que fazendo
A =





a11 a12 · · · a1n
a21 a22 · · · a2n
.
.
. · · · · · · · · ·
am1 am2 · · · amn





(Matriz dos Coeficientes),
B =





b1
b2
.
.
.
bm





(Matriz dos Termos Independentes) e X =





x1
x2
.
.
.
xn





,
o sistema de equações é equivalente à equação matricial AX = B.
Sabemos que as operações elementares transformam o sistema dado num sistema equiva-
lente. Assim, podemos encontrar a(s) solução(ões), caso exista(m), aplicando o método de
condensação à matriz ampliada ou completa:
[A|B] =



a11 · · · a1n | b1
.
.
. · · ·
.
.
. |
.
.
.
am1 · · · amn | bm


 .
Atenção: A troca de duas colunas em A correspondem a uma troca de incógnitas.
Condensando [A|B], ou melhor, condensando A, até determinar a sua caracterı́stica r,
temos:
1o
Caso: m = n = r





α11 α12 · · · α1n | β1
0 α22 · · · α2n | β2
· · ·
...
... · · · |
.
.
.
0 · · · 0 αnn | βn





19
ou, até à forma diagonal,





γ11 0 · · · 0 | δ1
0 γ22 · · · 0 | δ2
· · · · · ·
... · · · |
.
.
.
0 · · · 0 γnn | δn





e ainda






1 0 · · · 0 | δ1
γ11
0 1 · · · 0 | δ2
γ22
· · · · · ·
... · · · |
.
.
.
0 · · · 0 1 | δn
γnn






isto é,











x1 = δ1
γ11
x2 = δ2
γ22
.
.
.
xn = δn
γnn
,
que é a solução do sistema inicial. Diz-se então que é um sistema possı́vel e determinado.
2o
Caso: m = r  n
Neste caso temos,





α11 α12 · · · α1r | · · · α1n | β1
0 α22 · · · α2r | · · · α2n | β2
· · ·
...
... · · · | · · · · · · |
.
.
.
0 · · · 0 αrr | · · · αrn | βr





→





γ11 0 · · · 0 | · · · γ1n | δ1
0 γ22 · · · 0 | · · · γ2n | δ2
· · ·
...
... · · · | · · · · · · |
.
.
.
0 · · · 0 γrr | · · · γrn | δr





→
→






1 0 · · · 0 | · · · γ1n
γ11
| δ1
γ11
0 1 · · · 0 | · · · γ2n
γ22
| δ2
γ22
· · · · · ·
... · · · | · · · · · · |
.
.
.
0 · · · 0 1 | · · · γrn
γrr
| δr
γrr






,
isto é,





x1 = δ1
γ11
−
Pn
j=r+1
γ1j
γ11
xj
.
.
.
xr = δr
γrr
−
Pn
j=r+1
γrj
γrr
xj
As r incógnitas, ditas principais, dependem das restantes n − r incógnitas não princi-
pais. Assim, o sistema diz-se possı́vel indeterminado, sendo n − r o grau de indeter-
minação.
20
3o
Caso: Se r  m, temos que













α11 α12 · · · α1r | · · · α1n | β1
0 α22 · · · α2r | · · · α2n | β2
· · ·
... ... · · · | · · · · · · |
.
.
.
0 · · · 0 αrr | · · · αrn | βr
−− −− −− −− | −− −− | −−
0 · · · · · · 0 | 0 · · · · · · 0 | βr+1
· · · · · · · · · · · · | · · · · · · |
.
.
.
0 · · · · · · 0 | 0 · · · · · · 0 | βm













e duas possibilidades:
1. βr+1 = · · · = βm = 0;
2. βr+1, . . . , βm não todos nulos.
1. Se as últimas m − r linhas somente têm elementos nulos, as equações transformam-se em
0 = 0. Logo, fica





α11 α12 · · · α1r | · · · α1n | β1
0 α22 · · · α2r | · · · α2n | β2
· · ·
...
... · · · | · · · · · · |
.
.
.
0 · · · 0 αrr | · · · αrn | βr





e tal como antes,
sistema possı́vel

determinado, se r = n,
indeterminado, se r  n, com grau de indeterminação n − r.
2. Se nas últimas equações algum βj 6= 0, obtemos 0x1 + 0x2 + · · · + 0xn = βj. Logo, o
sistema é impossı́vel. Neste caso, a caracterı́stica de [A|B] é maior que r, isto é, maior
do que a caracterı́stica de A.
Em Resumo:
Sistema Possı́vel: Car A = Car[A|B]
Sistema Possı́vel



Determinado, se Car A = n,
Indeterminado, se Car A  n, com grau de indeterminação
n − Car A.
Sistema Impossı́vel: Car A  Car[A|B]
Exercı́cios:
1. Resolva e classifique o seguinte sistema:



2x − y − z = 1
x + y − z = 2
−x + 2y + 2z = 4
21
2. Considere o sistema de equações lineares sobre R, nas incógnitas x, y, z e t:







x = a − b
5ax − 2by + az + t = 1
−bz = 1
−3ax + 2by − az + (b − a)t = 2a − 1
Utilizando o método de condensação, discuta o sistema em função dos parâmetros a e b.
Cálculo da Matriz Inversa de uma Matriz Regular
Seja A uma matriz quadrada de ordem n. Sabemos que A é regular (isto é, invertı́vel) se
existe uma matriz quadrada, com a mesma ordem, B tal que
AB = BA = I.
Vamos determinar a matriz B tal que
AB = I
e em seguida mostraremos que essa matriz B também é inversa à esquerda, isto é, BA = I.
Representemos B por X, e Xj e Ij, respectivamente, as j-ésimas colunas de X e I. Assim,
a equação matricial AX = I é equivalente a n sistemas de equações lineares:

AXj = Ij
j = 1, . . . , n
Pelo que vimos anteriormente, tais sistemas têm solução única se, e somente se, Car A = n.
Cada um dos sistemas é resolvido passando da matriz ampliada [A|Ij] para a matriz [I|Xj].
Isto é equivalente à passagem de [A|I] para [I|X] efectuando as operações elementares nos
n sistemas.
Exercı́cio: Determine a inversa à direita da matriz
A =


2 0 2
−1 1 −3
0 2 1

 .
Mostremos agora que a existência de uma inversa à direita garante a existência de inversa
à esquerda e que elas são iguais.
Sabemos que se A tem inversa X à direita se, e somente se, Car A = n (ordem de A).
Desta forma, AT
também tem inversa à direita, digamos Y, isto é, AT
Y = I. Logo,
AT
Y
T
= IT
⇔ Y T
A = I,
isto é, a matriz A tem inversa à esquerda.
22
Agora basta mostrar que Y T
= X. Ora, Y T
A = I implica
Y T
AX = IX ⇔ Y T
(AX) = X ⇔ Y T
I = X ⇔ Y T
= X.
Portanto, concluı́mos que a inversa à esquerda é igual à inversa à direita. Chamar-lhe-
-emos apenas inversa de A e representa-se por A−1
.
Sistemas Homogéneos
Seja A ∈ MK(m, n). Se no sistema AX = B, a matriz B é a matriz nula (B = 0), estamos
perante um sistema de equações lineares homogéneo (AX = 0) onde todas as equações são
homogéneas de grau 1.
É evidente que todo o sistema homogéneo é um sistema possı́vel: admite sempre a
solução nula (X = 0), pelo menos! Assim, sendo r a caracterı́stica de A,
se r = n, o sistema é possı́vel e determinado, tendo somente a solução nula, X = 0.
se r  n, o sistema é possı́vel indeterminado, admite soluções não nulas.
Suponhamos que A é uma matriz quadrada de ordem n. Então temos o seguinte resultado:
Teorema 2.11 A é regular se, e somente se, AX = 0 só tem a solução X = 0.
Demonstração: Exercı́cio.
Propriedades da Inversão de Matrizes
1. Se A é regular, também o é A−1
e (A−1
)
−1
= A.
2. Um produto de matrizes quadradas é invertı́vel se, e somente se, cada factor é invertı́vel
e
(A1 . . . Ak)−1
= A−1
k . . . A−1
1 .
3. Se A é regular, Ak
−1
= (A−1
)
k
.
4. Se A é regular, então AT
, A e A∗
também são regulares e temos que
AT
−1
= A−1
T
; A
−1
= A−1; (A∗
)−1
= A−1
∗
.
Definição 2.12 Uma matriz quadrada A é dita
i) ortogonal se A−1
= AT
, isto é, AT
A = I = AAT
.
ii) unitária se A−1
= A∗
, isto é, A∗
A = I = AA∗
.
Exemplo: A matriz
 √
2
2
−
√
2
2
√
2
2
√
2
2
#
é ortogonal (e unitária).
23
3 ESPAÇOS VECTORIAIS. APLICAÇÕES LINEARES.
Definição 3.1: Seja K um corpo. Diz-se que um conjunto E, não vazio, é um espaço vectorial
ou um espaço linear sobre K se nele estão definidas duas leis de composição:
a) Uma lei de composição interna, dita adição, a respeito da qual E é um grupo
abeliano.
b) Uma lei de composição externa, isto é, uma aplicação de E
K ×
( ,
α
em E,
denominada multiplicação escalar, que associa a todo par ordenado , com
)
x
K
∈
α e ,
E
x ∈ um elemento ,
E
x ∈
α satisfazendo as propriedades:
i) ( ) y
x
y
x
,
E
y
,
x
,
K α
+
α
=
+
α
∈
∀
∈
α
∀
(Distributividade da multiplicação escalar relativamente à adição em E).
ii) ( ) x
x
x
,
E
x
,
K
, β
+
α
=
β
+
α
∈
∀
∈
β
α
∀
(Distributividade da multiplicação escalar relativamente à adição em K).
iii) ( ) ( )
x
x
,
E
x
,
K
, β
α
=
αβ
∈
∀
∈
β
α
∀
(Associativadade da multiplicação escalar).
iv) x (1 é o elemento unidade de K).
x
1
,
E
x =
⋅
∈
∀
Os elementos de K denominam-se escalares e os elementos de E vectores.
No caso de K ser o corpo IR, dos números reais, diz-se que E é um espaço vectorial
real. No caso de K ser o corpo C
 , dos números complexos, diz-se que E é um espaço
vectorial complexo.
Por vezes, o elemento neutro E
0∈ é designado por origem ou zero de E.
Exemplos:
1. O conjunto dos vectores livres do espaço ordinário é um espaço vectorial real com as
operações usuais:
- Adição: A soma , resultado da adição dos vectores
v
u
r
r
+ u
r
e , é definida pela
regra do paralelogramo.
v
r
- Multiplicação escalar: u
r
α é o vector com a direcção de u
r
, sentido de se
u
r
α é
positivo e sentido oposto se α é negativo e cujo comprimento é dado pelo produto
do módulo do número real α pelo comprimento de u
r
.
2. IR é um espaço vectorial real.
3. C
 é um espaço vectorial real.
4. C
 é um espaço vectorial complexo.
5. IR não é um espaço vectorial complexo.
6. Seja K um corpo. Para cada IN, o conjunto K
∈
n
n
( )
{ ∈
= i
n
2
1 x
:
x
,
,
x
,
x K K ,
é um espaço vectorial sobre K relativamente às operações (ditas usuais):
}
n
,
,
2
,
1
i K
=
- Adição: definida pela relação
( ) ( ) ( )
n
n
2
2
1
1
n
2
1
n
2
1 y
x
,
,
y
x
,
y
x
y
,
,
y
,
y
x
,
,
x
,
x +
+
+
=
+ K
K
K ;
24
- Multiplicação escalar: definida por
( ) ( )
n
2
1
n
2
1 x
,
,
x
,
x
x
,
,
x
,
x α
α
α
=
α K
K ;
(em que as operações que figuram nos n-uplos dos segundos membros das
igualdades anteriores são as operações adição e multiplicação em k).
Nota: Dado um corpo K, sempre que seja feita referência ao espaço vectorial K
n
sobre o
corpo K, assumiremos que as operações consideradas são as usuais, a menos que seja dito
o contrário.
7. Para cada n IN , o conjunto IR
∈
n
(respectivamente, C

n
) é um espaço vectorial real
(respectivamente, complexo).
8. Para cada IN,o conjunto C

∈
n
n
é um espaço vectorial real.
9. O conjunto de todos os polinómios na variável x, com coeficientes em K, de grau não
superior a n ( IN) é um espaço vectorial sobre K (K = IR ou K = C
 ) com as operações
definidas por:
∈
n
( ) ( )
( ) ( ) ( ) ( ) n
n
n
2
2
2
1
1
0
0
n
n
2
2
1
0
n
n
2
2
1
0
x
b
a
x
b
a
x
b
a
b
a
x
b
x
b
x
b
b
x
a
x
a
x
a
a
+
+
+
+
+
+
+
+
=
=
+
+
+
+
+
+
+
+
+
L
L
L
e
( ) ( ) ( ) ( ) ( n
n
2
2
1
0
n
n
2
2
1
0 x
a
x
a
x
a
a
x
a
x
a
x
a
a α
+
+
α
+
α
+
α
=
+
+
+
+
α L
L ) .
10. O conjunto de todos os polinómios na variável x, com coeficientes em K, é um espaço
vectorial sobre K, com as operações definidas de forma análoga às definidas em 9 (ditas
usuais).
Propriedades dos Espaços Vectoriais:
1. ( ) y
x
y
x
,
E
y
,
x
,
K α
−
α
=
−
α
∈
∀
∈
α
∀
De facto, tem-se
( ) ( )
[ ] x
y
y
x
y
y
x α
=
+
−
α
=
α
+
−
α ,
atendendo-se à propriedade i) da multiplicação escalar e a ( )
+
,
E ser um grupo.
2. 0
0
,
K =
α
∈
α
∀
É um caso particular de 1. para .
y
x =
3. ( ) ( )
y
y
,
E
y
,
K α
−
=
−
α
∈
∀
∈
α
∀
É um caso particular de 1. para .
0
x =
4. ( ) x
x
x
,
E
x
,
K
, β
−
α
=
β
−
α
∈
∀
∈
β
α
∀
De facto, tem-se
( ) ( )
[ ] x
x
x
x α
=
β
+
β
−
α
=
β
+
β
−
α
25
atendendo-se à propriedade ii) da multiplicação escalar e a K ser um corpo.
5. 0
x
0
,
E
x =
∈
∀
É um caso particular de 4. para .
β
=
α
6. ( ) ( )
x
x
,
E
x
,
K β
−
=
β
−
∈
∀
∈
β
∀
É um caso particular de 4. para .
0
=
α
7. 0
x
0
0
x
,
E
x
,
K =
∨
=
α
⇔
=
α
∈
∀
∈
α
∀
Demonstração: Exercício.
Definição 3.2: Seja K um corpo e E um espaço vectorial sobre K. Se S é um subconjunto não
vazio de E e se é um espaço vectorial sobre K relativamente às mesmas operações definidas
em E, então diz-se que S é um subespaço vectorial de E.
Exemplos:
1. IRé um subespaço vectorial real do espaço vectorial real C
 .
2. O espaço vectorial dos polinómios reais de grau não superior a 3 é subespaço vectorial do
espaço vectorial dos polinómios de grau não superior a 6, etc..
3. Qualquer que seja o espaço vectorial E, o conjunto { }
0 e E são subespaços vectoriais de E.
Teorema 3.3: Um subconjunto S, não vazio, do espaço vectorial E é subespaço vectorial se, e
somente se, S é fechado relativamente às leis de composição definidas em E, isto é, S
satisfazendo às condições:
E
⊂
a) ,
∅
≠
S
b) ,
S
y
x
,
S
y
,
x ∈
+
∈
∀
c) ,
S
x
,
S
x
,
K ∈
α
∈
∀
∈
α
∀
é um subespaço vectorial de E.
Demonstração: Exercício.
Exercício: Considere os seguintes conjuntos
( )
{ ∈
= z
,
y
,
x
A IR
3
: z }
0
= e ( )
{ ∈
= z
,
y
,
x
B IR
3
: }
0
z
y
x ≠
+
+ .
Averigúe se são ou não subespaços vectoriais de IR
3
.
Teorema 3.4: Seja E um espaço vectorial definido sobre um corpo K e seja { } um
conjunto de subespaços vectoriais de E. Então
I
i
:
Si ∈
I
I
i
i
S
S
∈
=
26
é também um subespaço vectorial de E.
Demonstração: Exercício.
Seja E um espaço vectorial sobre um corpo K e E
x
,
,
x
,
x n
2
1 ∈
K . Todo o vector v que
se pode exprimir sob a forma
n
n
2
2
1
1 x
x
x
v α
+
+
α
+
α
= L ,
com ,
i diz-se combinação linear dos vectores
,
K
i ∈
α n
,
,
1 K
= .
x
,
,
x
,
x n
2
1 K
Analogamente, se A é um subconjunto de E, então qualquer vector de E da forma
n
n
2
2
1
1 x
x
x α
+
+
α
+
α L ,
com e
K
,
,
, n
2
1 ∈
α
α
α K ,
A
x
,
,
x
,
x n
2
1 ∈
K diz-se combinação linear (finita) de elementos
de A.
Obs.: É óbvio que qualquer elemento de A é combinação linear de elementos de A. De facto,
se podemos escrever
,
A
x ∈
,
x
0
x
0
x
1
x n
2 ⋅
+
+
⋅
+
⋅
= L
com .
A
x
,
,
x
,
x n
3
2 ∈
K
Exercício: Dados os vectores, em IR
4
,
( b
,
a
,
1
,
1
u = ) ( )
3
,
1
,
1
,
3
v = ( )
5
,
1
,
0
,
2
w = ,
determine o valor das constantes a e b por forma a ser possível escrever o vector u
como combinação linear dos vectores v e w.
Teorema 3.5: Seja E um espaço vectorial sobre um corpo K e A uma parte não vazia de E. O
conjunto F de todas as combinações lineares de elementos de A é o “menor” subespaço
vectorial de E que contém A.
Demonstração: Exercício.
Sendo A uma parte não vazia do espaço vectorial E definido sobre um corpo K, o
subespaço F de E formado por todas as combinações lineares de elementos de A diz-se
subespaço gerado por A, ou, também, que A gera o subespaço F.
No caso de F coincidir com o próprio E, diz-se que os vectores de A constituem um
sistema de geradores de E.
Notação: O subespaço gerado por A representa-se por
A ou [ ]
A ou ainda ,
x
,
,
x
,
x n
2
1 K
se .
{ }
n
2
1 x
,
,
x
,
x
A K
=
Em resumo: se F for o subespaço gerado pelo conjunto { }
n
2
1 x
,
,
x
,
x K ,
27
,
K
:
x
x
,
,
x
,
x
F i
n
1
i
i
i
n
2
1






∈
α
α
=
= ∑
=
K
isto é, todo o vector de F é combinação linear dos vectores .
n
2
1 x
,
,
x
,
x K
Exercícios:
1. Considere os vectores do espaço vectorial real IR
3
( )
3
,
2
,
1
x1 = e ( )
1
,
1
,
2
x2 −
= .
Escreva uma condição que caracterize o subespaço F de IR
3
gerado por .
{ }
2
1 x
,
x
A =
2. No espaço vectorial IR
4
, considere os conjuntos
( ) (






−
−
−
−






−
−
= 0
,
1
,
1
,
0
,
1
,
2
,
2
,
1
,
2
1
,
1
,
1
,
2
1
B ) e ( ) ( )
{ }
0
,
1
,
1
,
0
,
2
,
0
,
0
,
2
C = .
Mostre que B e C geram o mesmo subespaço vectorial de IR
4
.
Exemplos:
1. No espaço dos vectores OP de um plano, dois vectores quaisquer desse plano não
colineares são geradores do espaço.
2. Os vectores ( ) ( ) ( ) ( )
1
,
1
,
1
e
1
,
0
,
0
,
0
,
1
,
0
,
0
,
0
,
1 são geradores de IR
3
.
3. Também geram IR
( ) ( ) ( 1
,
0
,
0
e
0
,
1
,
0
,
0
,
0
,
1 ) 3
.
4. Em geral, o espaço vectorial IR
n
é gerado pelos n vectores
( )
( )
( )
1
,
0
,
,
0
,
0
,
0
e
0
,
0
,
,
0
,
1
,
0
e
0
,
0
,
,
0
,
0
,
1
e
n
2
1
K
K
K
K
K
K
K
K
K
K
=
=
=
5. IR é gerado por qualquer número real não nulo.
6. O espaço real C
 é gerado por { }
i
1
,
i
,
1 + e também por { }
i
,
1 , pois a i
b
1
a
bi ⋅
+
⋅
=
+ .
7. O espaço complexo C
 é gerado por qualquer número complexo não nulo.
Observem-se os exemplos 2. e 3.. Repare-se que o número de vectores no exemplo 3. é o
menor número de vectores que geram o espaço. O mesmo já não acontece no exemplo 2.
porque ( ) ( ) ( ) ( )
1
,
0
,
0
1
0
,
1
,
0
1
0
,
0
,
1
1
1
,
1
,
1 ⋅
+
⋅
+
⋅
= . Diremos por isso, como vamos ver, que os
quatro vectores são linearmente dependentes.
Definição 3.6: Os vectores x dizem-se linearmente dependentes se existem
escalares não todos nulos tais que
n
2
1 x
,
,
x
, K
n
2
1 ,
,
, α
α
α K
0
x
x n
n
1
1 =
α
+
+
α L .
Esses vectores dizem-se linearmente independentes se a combinação linear nula só
acontece quando todos os escalares são nulos, isto é,
28
0
0
x
x n
2
1
n
n
1
1 =
α
=
=
α
=
α
⇒
=
α
+
+
α L
L .
Proposição 3.7: Os vectores são linearmente dependentes se, e somente se,
algum deles é combinação linear dos restantes.
n
2
1 x
,
,
x
,
x K
Demonstração: Exercício.
Exercícios:
1. Verifique se os vectores ( ),
1
,
1
,
0
,
1 ( )
0
,
1
,
3
,
2 , ( )
1
,
1
,
1
,
2 − e ( )
0
,
0
,
0
,
1 são linearmente inde-
pendentes.
2. Verifique se os elementos do espaço vectorial real P3(x) (conjunto dos polinómios reais de
grau menor ou igual a 3)
1, ,
2
x
2
x − 3
2
x
x + , 3
x
2
x +
são linearmente independentes.
Propriedades:
1. Se os vectores são linearmente dependentes, então qualquer conjunto finito
de vectores que os contenha é um conjunto de vectores linearmente dependentes.
n
2
1 x
,
,
x
,
x K
2. Dados n vectores, se um deles é o vector nulo, então os n vectores são linearmente
dependentes. Pois, 1 0
x
0
x
0
0 1
n
1 =
⋅
+
+
⋅
+
⋅ −
L .
3. Qualquer subconjunto de um conjunto de n vectores linearmente
independentes, é formado por vectores linearmente independentes.
n
2
1 x
,
,
x
,
x K
4. A dependência ou independência linear de n vectores não se altera por
qualquer troca na ordem pela qual estes vectores são indicados.
n
2
1 x
,
,
x
,
x K
5. A dependência ou independência linear de n vectores não se altera quando a um deles se
adiciona uma combinação linear de qualquer número dos restantes.
Depois destas considerações, podemos afirmar que os geradores ( ) ( ) ( )
1
,
0
,
0
,
0
,
1
,
0
,
0
,
0
,
1 de
IR
3
são linearmente independentes, mas os geradores ( ) ( ) ( ) ( )
1,1,1
,
1
,
0
,
0
,
0
,
1
,
0
,
0
,
0
,
1 são
linearmente dependentes.
Definição 3.8: Chama-se base do espaço vectorial E a um conjunto de geradores de E
linearmente independentes.
Obviamente, excluindo o caso em que { }
0
E = , os vectores de uma base são não nulos.
Definição 3.9: Um espaço vectorial E sobre um corpo K diz-se finitamente gerado se admite
um conjunto de geradores finito.
Nota: Somente trabalharemos no contexto dos espaços vectoriais finitamente gerados.
29
Teorema 3.10: Todo o espaço vectorial { }
0
E ≠ finitamente gerado admite uma base.
Teorema 3.11: Todas as bases de um espaço vectorial E finitamente gerado têm o mesmo
número de elementos.
Definição 3.12: Seja E um espaço vectorial finitamente gerado sobre um corpo K. O número
de elementos de qualquer base de E diz-se dimensão de E e designa-se por , ou
apenas . Por convenção,
( )
E
dimK
( )
E
dim { }
( ) 0
0
dim = .
Definição 3.13: Dado um espaço vectorial E sobre um corpo K e { }
n
2
1 x
,
,
x
,
x K
E
x
uma base de
E, chamam-se componentes ou coordenadas de um vector ∈ relativamente à base
considerada aos escalares n
2
1 ,
,
, α
α
α K que surgem na combinação linear
∑
=
α
=
n
1
i
i
ix
x .
Teorema 3.14: Um conjunto de vectores { }
n
2
1 x
,
,
x
,
x K é uma base de um espaço vectorial E
se, e somente se, cada vector x se exprime de forma única como combinação linear dos
vectores x , isto é,
E
∈
n
2
1 x
,
,
x
, K
∑
=
α
=
n
1
i
i
ix
x ,
com únicos.
n
2
1 ,
,
, α
α
α K
Demonstração: Exercício.
Exemplos:
1. Em IR
2
são bases ( ) ( )
{ }
1
,
0
,
0
,
1 , ( ) ( )
1
,
1
,
0
,
1
{ }, etc.
2. No espaço K
n
sobre o corpo K, chama-se base canónica à base
( ) ( ) ( )
{ }
1
,
0
,
,
0
,
0
,
,
0
,
0
,
,
1
,
0
,
0
,
0
,
,
0
,
1 K
K
K
K .
3. No espaço real C
 , { é uma base: tem dimensão 2. O espaço complexo C
 tem dimensão
1.
}
}
}
}
}
i
,
1
Teorema 3.15: Sejam E um espaço vectorial sobre um corpo K de dimensão igual a n e
um conjunto de n vectores de E. Então, as seguintes afirmações são
equivalentes:
{ n
2
1 e
,
,
e
,
e K
a) é uma base de E;
{ n
2
1 e
,
,
e
,
e K
b) é um conjunto de geradores de E;
{ n
2
1 e
,
,
e
,
e K
c) é um conjunto de vectores linearmente independentes de E.
{ n
2
1 e
,
,
e
,
e K
Demonstração: Exercício.
30
Exercícios:
1. Indique a condição a que deve satisfazer λ de modo a que os vectores ( ), ( ) e
constituam uma base de IR
1
,
0
,
1 0
,
,
0 λ
( λ
,
0
,
1 ) 3
.
2. Considere o seguinte subespaço vectorial do espaço vectorial IR
4
:
( )
{ ∈
= t
,
z
,
y
,
x
A IR
4
: }
0
t
z
y
x =
+
−
− .
Determine uma base e a dimensão do subespaço A.
Pelo que vimos anteriormente, fixada uma base { }
n
2
1 e
,
,
e
,
e K no espaço E, cada
vector de E fica bem definido pelas suas coordenadas, isto é, pelos escalares que aparecem
em:
( )
n
2
1 ,
,
, α
α
α K ou [ ]
n
2
1 α
α
α L ou em .












α
α
α
n
2
1
M
Exemplo: No espaço dos polinómios de grau não superior a 3, { }
3
2
x
,
x
,
x
,
1 é uma base. Nesta
base, as coordenadas do polinómio são
3
2
x
5
x
4
x
2 −
+
+
− [ ]
5
4
1
2 −
− .
Aplicações Lineares
Definição 3.16: Sejam E e F dois espaços vectoriais definidos sobre o mesmo corpo K e ϕ
uma aplicação de E em F. Se é tal que
ϕ
( ) ( ) ( )
y
x
y
x
,
E
y
,
x ϕ
+
ϕ
=
+
ϕ
∈
∀
( ) ( )
x
x
,
E
x
,
K αϕ
=
α
ϕ
∈
∀
∈
α
∀
então diz-se que é uma aplicação linear, um homomorfismo ou uma transformação
linear de E em F.
ϕ
Uma aplicação linear de E em E diz-se um endomorfismo.
Um aplicação linear bijectiva diz-se também um isomorfismo de E em F. Caso exista
esse isomorfismo diz-se que E e F são espaços isomorfos. Um isomorfismo de E em E
denomina-se automorfismo.
Observação: Pode mostrar-se que as duas proposições da definição de aplicação linear são
equivalentes à proposição: ( ) ( ) (y
x
y
x
,
E
y
,
x
,
K
, )
βϕ
+
αϕ
=
β
+
α
ϕ
∈
∀
∈
β
α
∀ .
Exemplos:
31
1. A aplicação f de IR
3
em IR
2
definida por ( ) ( )
z
y
x
,
x
z
,
y
,
x
f +
+
= .
2. Homotetia (em IR
3
): .
( ) ( z
2
,
y
2
,
x
2
z
,
y
,
x a )
3. Rotação (em IR
2
): ( ) ( x
,
y
y
,
x −
a ) (rotação de
2
π
)
ou ( ) ( ) ( )







 +
−
2
y
x
2
,
2
y
x
2
y
,
x a (rotação de
4
π
)
Exercício: Verifique se a seguinte aplicação é linear:
:
f IR
3
→ IR
2
( ) ( )
z
y
,
y
x
z
,
y
,
x −
−
a .
Representaremos por L o conjunto de todas as aplicações lineares de E em F,
com E e F espaços vectoriais sobre um mesmo corpo K.
( F
,
E )
Observação: Prova-se que o conjunto L ( )
F
,
E é um espaço vectorial sobre K, para as
operações:
Adição: ∈
ψ
ϕ,
∀ L ,
( )
F
,
E ( )( ) ( ) ( )
x
x
x ψ
+
ϕ
=
ψ
+
ϕ .
Multiplicação Escalar: ∈
ϕ
∀
∈
α
∀ ,
K L ( )
F
,
E , ( )( ) ( )
[ ]
x
x ϕ
α
=
αϕ .
Propriedades das Aplicações Lineares:
Sejam ∈
ϕ L ( )
F
,
E e ψ L
∈ ( )
G
,
F , com E, F e G espaços vectoriais sobre o mesmo
corpo K.
1. ( ) .
0
0 =
ϕ
2. é uma aplicação linear de E em G.
ϕ
ψ o
3. é um subespaço vectorial de F.
( )
E
ϕ
4. , denominado núcleo da aplicação linear ϕ , é um
subespaço vectorial de E.
{ }
( ) ( )
{ 0
x
:
E
x
0
N 1
=
ϕ
∈
=
ϕ
= −
ϕ }
5. ( ) ( ) ( )
( )
E
dim
N
dim
E
dim ϕ
+
= ϕ .
6. A aplicação é injectiva se, e somente se,
ϕ { }
0
N =
ϕ .
Exercício: Considere a aplicação linear
:
f IR
3
→ IR
2
( ) ( )
z
y
,
y
x
z
,
y
,
x −
−
a .
a) Determine . A aplicação f é injectiva?
f
N
b) Determine dim (f (IR
3
)).
Teorema 3.17: Sejam E e F dois espaços vectoriais sobre o mesmo corpo K, { }
uma base de E e uma aplicação linear de E em F. Sejam f respectivamente, as
imagens por dos vectores da base de E, isto é,
n
2
1 e
,
,
e
,
e K
ϕ ,
f
,
,
f
, n
2
1 K
ϕ n
2
1 e
,
,
e
,
e K
32
( ) i
i f
e =
ϕ ( )
n
,
,
2
,
1
i K
=
Então podemos afirmar que:
a) é injectiva se, e somente se, f são linearmente independentes.
ϕ n
2
1 f
,
,
f
, K
b) é sobrejectiva se, e somente se, f geram F.
ϕ n
2
1 f
,
,
f
, K
c) é bijectiva se, e somente se, f constituem uma base de F.
ϕ n
2
1 f
,
,
f
, K
Demonstração: Exercício.
Definição 3.18: Sejam E e F dois espaços vectoriais (de dimensão finita) sobre um mesmo
corpo K. Chama-se característica de uma aplicação linear ϕ de E em F, à dimensão do
subespaço ϕ .
( )
E
Matriz de uma Aplicação Linear
Sejam E e F dois espaços vectoriais (de dimensão finita) sobre um mesmo corpo K,
uma base de E, { uma base de F e
{ n
2
1 e
,
,
e
,
e K } }
m
2
1 f
,
,
f
,
f K ∈
ϕ L ( )
F
,
E .
Os vectores ( )
j
e
ϕ , com pertencem ao espaço F e como é
uma base de F, então os vectores
,
n
,
,
2
,
1
j K
= { }
m
2
1 f
,
,
f
,
f K
( )
j
e
ϕ podem representar-se de maneira única como
combinação linear desses vectores,
( ) ∑
=
=
ϕ
m
1
i
i
ij
j f
a
e ( ),
n
,
,
2
,
1
j K
=
onde cada designa a coordenada do vector
K
aij ∈ ( )
j
e
ϕ , relativamente ao vector da base
de F. Isto é, tem-se
i
f
( )
( )
( ) m
mn
2
n
2
1
n
1
n
m
2
m
2
22
1
12
2
m
1
m
2
21
1
11
1
f
a
f
a
f
a
e
f
a
f
a
f
a
e
f
a
f
a
f
a
e
+
+
+
=
ϕ
+
+
+
=
ϕ
+
+
+
=
ϕ
L
K
K
K
K
K
K
K
K
K
K
K
K
K
L
L
Desta forma, podemos escrever as coordenadas de cada vector ( )
j
e
ϕ na forma matricial












=
mn
2
m
1
m
n
2
22
21
n
1
12
11
a
a
a
a
a
a
a
a
a
A
K
K
K
K
K
K
K
sendo A a matriz, em que cada coluna j ( )
n
,
,
2
,
1
j K
= é constituída pelas coordenadas do
vector ( )
j
e
ϕ
1
e
relativamente à base { , a matriz da aplicação linear em relação
às bases { } e{ . Designa-se, em geral, A por
}
m
f
,
}
2
1 ,
f
,
f K
m
f
,
ϕ
n
2 e
,
,
e
, K 2
1 ,
f
,
f K ( )
}
f
{
},
,
M i
ϕ e
{ j ou,
apenas, por .
( )
ϕ
M
Observe-se agora o seguinte: seja E
x ∈ e suponhamos que pretendemos determinar a
imagem de x pela aplicação linear ϕ . Como { }
n
2
1 e
,
,
e
,
e K é uma base de E, podemos
escrever
33
n
n
2
2
1
1 e
e
e
x α
+
+
α
+
α
= L .
Logo, atendendo a que ϕ é uma aplicação linear, podemos obter sucessivamente o seguinte:
( ) ( )
( ) ( ) ( )
,
f
a
f
a
f
a
f
a
f
a
e
e
e
e
e
e
x
m
1
i
i
n
1
j
j
ij
n
1
j
m
1
i
i
ij
j
m
1
i
i
in
n
m
1
i
i
2
i
2
m
1
i
i
1
i
1
n
n
2
2
1
1
n
n
2
2
1
1
∑ ∑
∑ ∑
∑
∑
∑
= =
= =
=
=
=








α
=
α
=
α
+
+
α
+
α
=
ϕ
α
+
+
ϕ
α
+
ϕ
α
=
=
α
+
+
α
+
α
ϕ
=
ϕ
L
L
L
Mas e, portanto, representa-se de maneira única como combinação linear dos
vectores f da base de F,
( ) F
x ∈
ϕ
2
1 ,
f
, m
f
,
K
( ) ∑
=
β
=
β
+
+
β
+
β
=
ϕ
m
1
i
i
i
m
m
2
2
1
1 f
f
f
f
x L .
Consequentemente, tem-se
∑
=
α
=
β
n
1
j
j
ij
i a ( )
m
,
,
2
,
1
i K
=
e podemos escrever












α
α
α












=












β
β
β
n
2
1
mn
2
m
1
m
n
2
22
21
n
1
12
11
m
2
1
a
a
a
a
a
a
a
a
a
M
K
K
K
K
K
K
K
M
Observação: Pelo que vimos anteriormente, fixadas as bases em E e F, a aplicação linear ϕ
fica bem definida pela matriz .
( )
ϕ
M
Teorema 3.19: Sejam E e F espaços vectoriais, de dimensões n e m, respectivamente, sobre
um corpo K. A aplicação que associa a toda a aplicação
Ψ ∈
ϕ L a matriz
correspondente é uma aplicação bijectiva do espaço vectorial L no espaço
vectorial , isto é, L
( F
,
E
( )
F
,
E
)
( )
ϕ
M
( )
n
,
m
MK :
Ψ ( )
F
,
E → ( )
n
,
m
MK , tal que ( ) ( )
ϕ
=
ϕ
Ψ M , é bijectiva.
Deste teorema podemos concluir que a cada aplicação linear está associada uma matriz
e a cada matriz está associada uma aplicação linear. Assim, a característica de uma aplicação
linear é igual à característica da matriz que lhe está associada. Mais, a característica de uma
matriz é igual à dimensão do subespaço vectorial ( )
E
ϕ , sendo ϕ a aplicação linear que lhe
está associada.
Exercício: Seja f IR
:
3
→ IR
2
tal que ( ) ( )
z
y
,
y
x
z
,
y
,
x
f −
−
= , uma aplicação linear.
a) Determine a matriz de f relativamente às bases canónicas de IR
3
e IR
2
.
34
b) A aplicação f tem inversa? Justifique.
c) Calcule , usando:
( 3
,
2
,
1
f )
i) a definição de f;
ii) a matriz de f.
Matrizes de Mudança de Base
Seja E um espaço vectorial sobre um corpo K. Suponhamos que E é de dimensão n e
sejam
{ }
n
2
1 e
,
,
e
,
e K e { }
n
2
1 e
,
,
e
,
e ′
′
′ K
duas bases de E.
Como todo o vector de E se pode representar como combinação linear única dos
vectores da base, podemos escrever
( ),
n
,
1,2,
j
e
t
e
t
e
t
e
t
e
n
1
i
i
ij
n
nj
2
j
2
1
j
1
j
K
L
=
=
+
+
+
=
′
∑
=
e obter a matriz












=
nn
2
n
1
n
n
2
22
21
n
1
12
11
t
t
t
t
t
t
t
t
t
T
L
L
L
L
L
L
L
,
cuja coluna j é formada pelas coordenadas de ej
′ em relação à base { }
n
2
1 e
,
,
e
,
e K . Esta matriz
denomina-se de matriz de transformação, matriz de mudança de base ou matriz de
passagem da base para a base
{ n
2
1 e
,
,
e
,
e K } { }
n
2 e
,
,
e
,
1
e ′
′
′ K .
Pode considerar-se T como a matriz da aplicação identidade em E relativamente às
bases e
{ }
n
2
1 e
,
,
e
,
e ′
′
′ K { }
n
2
1 e
,
,
e
,
e K , isto é,
( )
}
e
{
},
e
{
,
id
M
T i
j
E
′
= .
Seja x um vector de E. Então podemos escrever
∑
=
α
=
α
+
+
α
+
α
=
n
1
i
i
i
n
n
2
2
1
1 e
e
e
e
x L
e
∑
=
′
β
=
′
β
+
+
′
β
+
′
β
=
n
1
j
j
j
n
n
2
2
1
1 e
e
e
e
x L .
Logo,
∑ ∑
∑ ∑
∑ = =
= =
=








β
=
β
=
′
β
=
n
1
i
i
n
1
j
j
ij
n
1
j
n
1
i
i
ij
j
n
1
j
j
j e
t
e
t
e
x .
Consequentemente, devido à unicidade das coordenadas do vector x relativamente à base
, tem-se
{ }
n
2
1 e
,
,
e
,
e K
35
∑
=
β
=
α
n
1
j
j
ij
i t
ou
β
=
α T ,
onde designa a matriz coluna e
α [ T
n
1 α
α L ] β a matriz coluna [ ]T
n
1 β
β L .
Analogamente, se T designar a matriz quadrada de ordem n cuja coluna j é formada
pelas coordenadas de e relativamente à base
′
j { }
n
2
1 e
,
,
e
,
e ′
′
′ K , isto é, se T é a matriz de
passagem da base {
′
}
n
1 e
,
e ′
2 , e
,
′
′ K para a base { }
n
2 e
,
,
e K
1,
e , tem-se
α
′
=
β T .
Combinando estas duas relações, tem-se












α
α
α
′
⋅
=












β
β
β
=












α
α
α
n
2
1
n
2
1
n
2
1
T
T
T
M
M
M
e também












β
β
β
⋅
′
=












α
α
α
′
=












β
β
β
n
2
1
n
2
1
n
2
1
T
T
T
M
M
M
.
Então , isto é, é a matriz inversa de T, ou seja T
n
I
T
T
T
T =
⋅
′
=
′
⋅ T′ 1
T−
=
′ .
Considere-se agora uma aplicação linear ∈
ϕ L ( )
F
,
E e vejamos que alterações
ocorrem na matriz de ϕ quando se mudam as bases de E e F.
Teorema 3.20: Sejam e
{ }
n
2
1 e
,
,
e
,
e K { }
n
2
1 e
,
,
e
,
e ′
′
′ K duas bases de E e T a matriz de
passagem da base { }
n
2
1 e
,
,
e
, K
e para a base { }
n
2 e
,
,
e
1,
e ′
′
′ K . Sejam { } e
duas bases de F e S a matriz de passagem da base
m
2
1 f
,
,
f
,
f K
{ m
2
1 f
,
,
f
,
f ′
′
′ K } { }
m
f
,
2
1 ,
f
,
f K para a base
. Seja A=
{ }
m
2
1 f
,
,
f
,
f ′
′
′ K ( )
}
f
{
},
e
{
, i
j
ϕ
M e A′ = ( )
}
f
{ i
},
e
{
, j
M ′
′
ϕ . Então podemos afirmar que
T
A
S
A 1
⋅
⋅
=
′ −
.
As matrizes A e , do tipo
A′ n
m× , por satisfazerem à relação ou à
relação equivalente , com S e T matrizes regulares, de ordem m e n
respectivamente, dizem-se matrizes equivalentes.
T
A
S
A 1
⋅
⋅
=
′ −
1
T
A
A −
⋅
′
S⋅
=
É óbvio que A e têm a mesma característica. No caso particular em que
A′ ,
F
E =
isto é, no caso em que ∈
ϕ L , tem-se
( E
,
E )
T
A
T
A 1
⋅
⋅
=
′ −
,
36
em que T é a matriz de passagem da base { }
n
2
1 e
,
,
e
,
e K para a base { }
n
2
1 e
,
,
e
,
e ′
′
′ K .
As matrizes A e satisfazendo à relação A
A′ T
A
T 1
⋅
⋅
=
′ −
ou à equivalente
em que T é regular, dizem-se matrizes semelhantes.
,
T
A
T
A 1
−
⋅
′
⋅
=
Exercício: Sejam E e F dois espaços vectoriais reais e { }
3
2
1
1 e
,
e
,
e
B = e bases de
E e F, respectivamente. Seja a aplicação linear tal que
{ 2
1
1 f
,
f
B =
′ }
)
F
E
:
f →
( ) 





=
′
0
1
1
1
0
1
B
,
B
,
f
M 1
1 .
Determine ( 2
2 B
,
B
,
f
M ′ , onde { }
3
2
1
2
1
2
1
2 e
e
e
,
e
e
,
e
e
B +
+
+
−
= e { }
2
2
1
2 f
,
f
2
f
B −
+
=
′ são
bases em E e F, respectivamente.
Valores Próprios e Vectores Próprios
Definição 3.21: Seja E um espaço vectorial sobre um corpo K e ϕ um endomorfismo de E.
Um escalar λ é dito valor próprio de ϕ se existe algum vector em E tal que
. Chama-se vector próprio de
0
x ≠
( ) x
x λ
=
ϕ ϕ associado ao valor próprio λ a todo o vector não
nulo tal que .
E
x ∈ ( ) x
x λ
=
ϕ
Definição 3.22: Seja A uma matriz quadrada de ordem n. Um escalar λ é dito valor próprio
de A se existe alguma matriz coluna X 0
≠ , ( )
1
,
n
M
X K
∈ , tal que . Chama-se
vector próprio de A associado ao valor próprio
X
AX λ
=
λ a toda a matriz não nula tal
que .
( 1
,
n
MK )
X ∈
X
AX λ
=
Evidentemente, a definição anterior é um caso particular da definição 3.21. Pois, a
cada aplicação linear está associada uma matriz e basta designar ( )
1
,
n
MK por E para que
seja linear.
AX
X a
Exemplos:
1. Se 





=
2
1
0
2
A , 2
=
λ e , temos






=
1
0
X X
AX λ
= .
2. Sejam ,










−
−
=
5
2
1
12
4
3
4
0
2
A 0
1 =
λ , 1
2 =
λ , 2
3 =
λ ,









−
=
1
2
3
2
X1 , e
, com . Então










α
α
−
= 0
4
X2





β
β
0
IR
, ∈
β
α





=
2
X3 i
i X
i
AX λ
= , para i 3
,
2
,
1
= .
Teorema 3.23: O conjunto dos vectores próprios de ∈
ϕ L ( )
E
,
E
I
λ
−
ϕ
associado a um mesmo
valor próprio acrescido do vector nulo é o subespaço de E (chamado subespaço
K
∈
λ N
37
próprio de associado a e à sua dimensão chama-se multiplicidade geométrica do valor
próprio λ ).
ϕ λ
1,
λ
Demonstração: Exercício.
Teorema 3.24: Se os vectores próprios de um endomorfismo estão associados a
distintos valores próprios , então os vectores são linearmente independentes.
n
1 x
,
,
x K
n
,λ
K
Demonstração: Exercício.
Corolário 3.25: Um endomorfismo de um espaço vectorial de dimensão n tem, no máximo, n
valores próprios distintos.
38
4 DETERMINANTES
Antes de iniciarmos o estudo da teoria dos determinantes, estudaremos alguns
conceitos relacionados com permutações, essenciais à compreensão da dita teoria.
Definição 4.1: Sejam n um número natural e { }
n
,
,
2
,
1
A K
= . Chama-se permutação de A a
qualquer aplicação bijectiva de A em A.
Observações:
1. O número de permutações de n elementos é igual a .
!
n
2. Designaremos por o conjunto de todas as permutações de n elementos. (Veja a
observação da página 2).
n
S
Exemplos:
1. As permutações que pertencem a S são:
4








4
3
2
1
4
3
2
1








1
3
2
4
4
3
2
1
, , , , ,
, etc.








3
4
2
1
4
3
2
1








4
2
3
1
4
3
2
1








4
3
1
2
4
3
2
1








2
3
4
1
4
3
2
1
2. As permutações








4
2
1
5
3
6
6
5
4
3
2
1
e 






 4
6
3
1
2
5
6
5
4
3
2
1
pertencem a S .
6
É vulgar escrever-se ( em vez de , tornando a escrita mais
simplificada. Repare-se que a escrita simplificada de uma permutação não é de forma alguma
ambígua.
)
)
)
1
,
3
,
2 







1
3
2
3
2
1
Teorema 4.2: ( é um grupo, onde o é a operação binária composição de aplicações.
o
,
Sn
Obs.: O grupo não é necessariamente comutativo.
( o
,
Sn
Exemplo: Em S ,
3








=
















2
1
3
3
2
1
3
1
2
3
2
1
2
3
1
3
2
1
o
e
39








=
















1
3
2
3
2
1
2
3
1
3
2
1
3
1
2
3
2
1
o
Definição 4.3: Uma transposição é uma permutação σ de S tal que
n ( ) j
i =
σ e , para
, e σ ,
( ) i
j =
σ
j
i ≠ ( ) k
k = j
,
i
k ≠
∀ .
Exemplo:
1. A permutação 


pode simplesmente escrever-se na forma , isto é,




 2
4
3
5
1
5
4
3
2
1
( 5
,
2 )
)
( )
5
,
2
2
4
3
5
1
5
4
3
2
1
=








.
2. Analogamente, podemos escrever
( )( )( ) ( )( 5
,
2
4
,
3
,
1
2
1
4
5
3
5
4
3
2
1
3
,
4
1
,
3
5
,
2 =








=
Nota: Uma transposição é inversa de si própria.
Teorema 4.4: Qualquer permutação de S ( ) é composição de transposições, isto é, se
é um permutação, então
n 2
n ≥
k
σ 2
1 τ
τ
τ
=
σ o
o o
L , com ,
k
,
,
1
i
,
i K
=
τ transposições.
Exemplos:
1. Em S ,
2
( 2
,
1
1
2
2
1
=








) e ( )( )
1
,
2
2
,
1
2
1
2
1
=








2. Em S ,
5
( ) ( )( )( )
3
,
4
2
,
3
1
,
2
4
,
3
,
2
,
1
5
1
4
3
2
5
4
3
2
1
=
=








.
Definição 4.5: Diz-se que uma permutação é par se é decomponível num número par de
transposições e ímpar se é decomponível num número ímpar de transposições.
Observação: Embora a decomposição de uma permutação em composição de transposições
não seja única, a paridade do número de transposições em cada decomposição é sempre a
mesma. Isto é, se uma permutação σ é tal que k
2
1 τ
τ
τ
=
σ o
L
o
o e m
2
1 π
π
π
=
σ o
L
o
o ,
então ou k e m são números pares ou k e m são números ímpares.
40
Exemplo: A permutação 


é par já que, por exemplo, 


.




 1
4
2
3
4
3
2
1
( )( 3
,
1
4
,
1
1
4
2
3
4
3
2
1
=





)
Teorema 4.6: Uma permutação não pode ser simultaneamente par e ímpar.
Além da definição, existe um outro método, mais prático, para a determinação da
paridade de uma permutação. Esse método é descrito no teorema que se segue. Antes, defina-
-se para uma permutação , tal que
n
S
∈
σ r
2
1 τ
τ
τ
=
σ o
L
o
o
1
, o seu sinal como ε . Se
é par, ; se é ímpar,
( ) ( )r
1
−
=
σ
σ ( ) 1
=
σ
ε σ ( ) −
=
σ
ε .
Teorema 4.7: Para qualquer permutação n
S
∈
σ , tem-se ( ) ( ) ( )
, em que ν é o
número de pares ( tais que 1
σ
ν
−
=
σ
ε 1 ( )
σ
)
j
,
i n
j
i ≤

≤ e ( ) ( )
j
i σ

σ .
Dizemos que o número ν (definido no teorema anterior) é o número de inversões
de σ .
( )
σ
Observação: É óbvio que uma permutação é par ou ímpar se o seu número de inversões é,
respectivamente, par ou ímpar.
Exercício: Determine a paridade das seguintes permutações a partir do teorema anterior:
a) b) 










3
1
2
4
4
3
2
1




 5
6
2
1
4
3
6
5
4
3
2
1
Teorema 4.8: Para , tem-se:
2
n ≥
1. Se é uma transposição, então
n
S
∈
τ ( ) 1
−
=
τ
ε ;
2. ( ) ( ) (θ
ε
σ
ε )
=
θ
σ
ε
∈
θ
σ
∀ o
,
S
, n .
Corolário 4.9: Se σ , então
n
S
∈ ( ) ( )
σ
ε
=
σ
ε −1
.
Exercício: Determine a inversa da permutação








=
σ
6
5
3
2
1
4
6
5
4
3
2
1
e verifique que ( ) ( )
σ
ε
=
σ
ε −1
.
41
Funções Multilineares
Definição 4.10: Seja K um corpo e n
n
n
K
K
K ×
×
× L o espaço vectorial constituído pelo
produto cartesiano de n factores n
K . Chama-se função n-linear ( ou multilinear) sobre n
K
a uma aplicação
K
K
K
K
:
f n
n
n
→
×
×
× L
tal que
( ) ( ) ( )
n
i
1
n
i
1
n
i
i
1 x
,
,
y
,
,
x
f
x
,
,
x
,
,
x
f
x
,
,
y
x
,
,
x
f K
K
K
K
K
K β
+
α
=
β
+
α ,
para , , isto é, f é linear em relação a cada um dos n
argumentos.
n
i
1 ≤
≤ n
n
1 K
x
,
,
x
,
K
, ∈
∀
∈
β
α
∀ K
Observação: A condição
( ) ( ) ( )
n
i
1
n
i
1
n
i
i
1 x
,
,
y
,
,
x
f
x
,
,
x
,
,
x
f
x
,
,
y
x
,
,
x
f K
K
K
K
K
K β
+
α
=
β
+
α
é equivalente a:
( ) ( ) ( )
n
i
1
n
i
1
n
i
i
1 x
,
,
y
,
,
x
f
x
,
,
x
,
,
x
f
x
,
,
y
x
,
,
x
f K
K
K
K
K
K +
=
+
e
( ) ( )
n
i
1
n
i
1 x
,
,
x
,
,
x
f
x
,
,
x
,
,
x
f K
K
K
K α
=
α .
Exemplos:
1. IR
:
f
2
× IR
2
→ IR, tal que, ( ) ( )
( ) bd
ac
d
,
c
,
b
,
a
f +
= é bilinear.
2. IR
:
f
2
IR
×
2
→ IR , tal que, ( ) ( )
( ) bc
ad
d
,
c
,
b
,
a
f −
= é bilinear. Pode provar-se que
( ) ( )
( )
,
c
,
b
f d
,
a é a área do paralelogramo definido pelos vectores ( )
b
,
a e .
( )
d
,
c
Pode facilmente verificar-se que aplicação bilinear do exemplo 2. satisfaz as
propriedades: ( ) ( )
( ) 0
b
,
a
,
b
,
a
f = e ( ) ( )
( ) ( ) ( )
( )
b
,
a
,
d
,
c
f
d
,
c
,
b
,
a
f −
= , ao contrário da aplicação
bilinear do exemplo 1.. Estas propriedades sugerem a seguinte definição:
Definição 4.11: Uma função n-linear f diz-se alternada se para ,
x
x j
i = com ,
j
i ≠
( ) 0
x
,
,
x
,
,
x
,
,
x
f n
j
i
1 =
K
K
K ,
isto é, anula-se sempre que dois dos vectores sejam iguais.
Uma função n-linear f diz-se anti-simétrica se
( ) ( )
n
i
j
1
n
j
i
1 x
,
,
x
,
,
x
,
,
x
f
x
,
,
x
,
,
x
,
,
x
f K
K
K
K
K
K −
= ,
isto é, uma troca de sinal corresponde a uma troca de posição de dois vectores.
Teorema 4.12: Sejam K um corpo de característica diferente de 2 (isto é, um corpo que
satisfaça a propriedade: 0
x
0
x
x =
⇒
=
+ ) e uma função n-linear.
Então as seguintes afirmações são equivalentes:
K
K
K
K
:
f n
n
n
→
×
×
× L
a) f é anti-simétrica.
b) f é alternada.
c) Se e são linearmente dependentes, então
i
x j
x ( ) 0
x
,
,
x
,
,
x
,
,
x
f n
j
i
1 =
K
K
K .
42
Observação: Se uma função n-linear é anti-simétrica e σ é uma permutação de S , então
n
( ) ( ) ( )
( ) ( ) ( )
n
2
1
n
2
1 x
,
,
x
,
x
f
x
,
,
x
,
x
f K
K σ
ε
=
σ
σ
σ .
A partir de agora consideraremos sempre um corpo K de característica diferente 2. O
corpo dos reais ou dos complexos são considerados corpos de característica zero (ou infinita).
Seja A uma matriz quadrada de ordem n sobre K, isto é,












=
nn
2
n
1
n
n
2
22
21
n
1
12
11
a
a
a
a
a
a
a
a
a
A
L
L
L
L
L
L
L
.
É evidente que uma matriz pode identificar-se com um elemento de n
n
n
K
K
K ×
×
× L
n
,
bastando identificar cada uma das suas linhas, L como elementos de
,
L
,
,
L
, n
2
1 K K . Assim,
no contexto de podemos definir a seguinte função n-linear:
( n
,
n
MK )
Definição 4.13: Chama-se determinante de ( )
n
,
n
M
A K
∈ à função n-linear alternada das
linhas de A definida por:
[ ] ( ) ( ) ( ) ( )
∑
∈
σ
σ
σ
σ ⋅
σ
ε
=
=
=
n
S
n
n
2
2
1
1
ij a
a
a
A
A
det
a
A L
a .
Observação: O determinante de uma matriz quadrada não é mais do que a soma de todos os
produtos de n elementos da matriz, correspondentes a cada uma das permutações de S ,
afectados pelo sinal da permutação correspondente. Assim, o número de parcelas é igual a n .
n
!
]
A partir da definição, podemos facilmente constatar que:
- Se A , então .
[ 11
a
= 11
a
A
det =
- Se A , então det






=
22
21
12
11
a
a
a
a
21
12
22
11 a
a
a
a
A −
= , já que S , sendo a
permutação par e a permutação ímpar.






















=
1
2
2
1
,
2
1
2
1
2








2
1
2
1








1
2
2
1
Assim, o determinante de uma matriz quadrada de ordem 2 é igual à diferença entre o
produto dos elementos principais e o produto dos elementos da diagonal secundária.
- Se A , então










=
33
32
31
23
22
21
13
12
11
a
a
a
a
a
a
a
a
a
43
32
23
11
33
21
12
31
22
13
32
21
13
31
23
12
33
22
11
33
32
31
23
22
21
13
12
11
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
−
−
−
+
+
= ,
já que as permutações de S são:
3








3
2
1
3
2
1
, , , , , .








1
3
2
3
2
1








2
1
3
3
2
1








1
2
3
3
2
1








3
1
2
3
2
1








2
3
1
3
2
1
Em termos práticos, o cálculo do determinante de uma matriz quadrada de ordem 3
pode ser efectuado usando a Regra de Sarrus: as parcelas de sinal positivo do
determinante são referentes ao produto dos elementos principais e aos produtos dos
elementos que se dispõem nos vértices dos dois triângulos cuja base é paralela à diagonal
principal, e as parcelas de sinal negativo do determinante são referentes ao produto dos
elementos da diagonal secundária e aos produtos dos elementos que se dispõem nos
vértices dos dois triângulos cuja base é paralela à diagonal secundária. Observe o
esquema:
33
32
31
23
22
21
13
12
11
a
a
a
a
a
a
a
a
a
Exercício: Calcule o determinante das seguintes matrizes:
a) b) c)





−
1
3
5
2










−
−
−
3
3
1
1
2
1
4
0
2










−
−
−
1
2
3
2
4
2
1
2
1
No cálculo do determinante de uma matriz de ordem superior ou igual a 4 não é usual
aplicar-se a definição de determinante, pois torna-se um cálculo fastidioso. No entanto,
iremos estudar propriedades que facilitam esses cálculos. Antes dessas propriedades,
estudemos agora as propriedades básicas dos determinantes.
Propriedades dos Determinantes:
Seja A uma matriz quadrada de ordem n.
1. (n-linear) Se uma fila de A se decompuser numa soma de filas, o determinante de A é
igual à soma dos determinantes de duas matrizes em que nessa fila se usa uma parcela de
cada vez, mantendo-se as restantes. Isto é,
[ ] [ ] [ ]
n
i
1
n
i
1
n
i
i
1 F
,
,
F
,
,
F
det
F
,
,
F
,
,
F
det
F
,
,
F
F
,
,
F
det K
K
K
K
K
K ′
+
=
′
+ .
2. (n-linear) Se multiplicarmos uma fila de A por um escalar α , então o determinante vem
multiplicado por , isto é,
α
[ ] [ ]
n
i
1
n
i
1 F
,
,
F
,
,
F
det
F
,
,
F
,
,
F
det K
K
K
K α
=
α .
44
Assim, também temos que A
A n
α
=
α .
3. (Anti-simetria) Ao trocarmos entre si duas filas paralelas de A, o determinante troca de
sinal, isto é,
[ ] [ ]
n
i
j
1
n
j
i
1 F
,
,
F
,
,
F
,
,
F
det
F
,
,
F
,
,
F
,
,
F
det K
K
K
K
K
K −
= .
4. (Função alternada) Se as filas de A são linearmente dependentes, então o determinante
de A é igual a zero.
5. Não se altera o determinante de A quando a uma fila se adiciona uma combinação linear
de outras filas paralelas. Basta observar que:
[ ] [ ] [ ]
n
j
j
1
n
i
1
n
j
i
1 F
,
,
F
,
,
F
,
,
F
det
F
,
,
F
,
,
F
det
F
,
,
F
F
,
,
F
det K
K
K
K
K
K
K α
+
=
α
+ .
6. . Pois, representando a por a , cada parcela de det é da forma
A
det
A
det T
= ji
T
ij
T
A
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
( ) ( ) ( )
n
n
1
1
1
n
n
1
1
n
n
1
1
T
n
n
T
1
1 1
1
1
1 a
a
a
a
a
a
a
a −
−
−
−
σ
σ
−
σ
σ
σ
σ
σ
σ σ
ε
=
σ
ε
=
σ
ε
=
σ
ε L
L
L
L ,
isto é, corresponde a outro termo de , com o mesmo sinal.
A
det
7. ∗
=
= A
det
A
det
A
det .
8. Se A é uma matriz triangular, então
nn
22
11 a
a
a
A
det L
= .
Em particular, .
1
I
det =
9. A característica da matriz A é inferior à ordem se, e somente se, , isto é, A é
uma matriz singular se, e somente se, det
0
A
det =
0
A = . Evidentemente, A é regular se, e somente
se, .
0
A
det ≠
10. B
A
B
A ⋅
=
⋅ .
11. Se A é regular, então
A
1
A 1
=
−
.
12. A característica da matriz A é igual à mais alta ordem das submatrizes quadradas de A
com determinante não nulo.
Exercício: Sejam A e B duas matrizes quadradas de ordem 2 tais que .
Calcule
B
det
2
A
det −
=
=
( )
( )
[ ]
T
1
AB
2
det
−
.
Complementos Algébricos
Definição 4.14: Seja A uma matriz quadrada de ordem n. Chama-se menor de ordem m de A
ao determinante de qualquer submatriz de A de ordem m ( n
m  ).
Dois menores dizem-se complementares se num deles estão representadas
exactamente as linhas e colunas de A que não figuram no outro.
Um menor diz-se principal se a sua diagonal tem somente elementos principais da
matriz inicial.
Um menor de A diz-se par ou ímpar conforme é par ou ímpar a soma dos índices das
linhas e das colunas de A nele representadas.
45
Dado um menor de A, o seu complemento algébrico é o produto do seu menor
complementar pelo respectivo sinal ( )ω
−1 , onde ω é a soma dos índices que determinam a
paridade do menor.
Notação: Sendo um elemento de A, representaremos por o complemento algébrico do
menor
ij
a ij
A
ij
a .
Exemplo: Seja . Um seu menor é
















−
−
−
=
1
2
5
3
4
2
0
1
0
1
1
3
4
1
0
0
2
1
0
0
4
5
0
3
1
A
2
3
4
0
0
1
2
0
0
−
e é par, porque
18
4
2
1
5
4
2 =
+
+
+
+
+
=
ω . O seu menor complementar é
1
4
4
0
−
e o complemento
algébrico é ( )
1
4
4
0
1
4
4
0
−
=
−
ω
1
− .
Exercício: Determine o complemento algébrico do menor 12
a , sendo a elemento da matriz
A do exemplo anterior.
12
Propriedades:
a) Um menor principal é sempre par.
b) Um menor e o seu complementar têm a mesma paridade.
Depois destes conceitos, estamos em condições de estudar um teorema muito
importante que permite calcular mais facilmente o determinante de uma matriz de ordem
superior ou igual a quatro.
Teorema 4.15: (Teorema de Laplace) Um determinante de uma matriz é igual à soma dos
produtos dos elementos de uma fila pelos respectivos complementos algébricos.
Exercício: Seja A . Utilize o teorema de Laplace para calcular












−
−
−
−
−
=
1
2
4
3
1
3
2
1
0
4
2
0
2
1
1
2
A .
Nota: Na aplicação do teorema de Laplace convém escolher uma das filas com mais zeros (se
existirem). No entanto, podemos sempre fazer surgir zeros através da utilização de operações
elementares que não alterem o valor do determinante.
46
Teorema 4.16: A soma dos produtos dos elementos de uma fila pelos complementos
algébricos dos elementos homólogos de outra fila paralela é nula, isto é,
hn
in
2
h
2
i
1
h
1
i A
a
A
a
A
a
0 +
+
+
= L (i h
≠ )
ou
nk
nj
k
2
j
2
k
1
j
1 A
a
A
a
A
a
0 +
+
+
= L ( k
j ≠ ).
Demonstração: Essa soma é igual ao determinante da matriz obtida substituindo a linha i pela
linha h (ou coluna j pela coluna k). Desta forma, a matriz fica com duas filas iguais e portanto
o determinante é nulo.
Este teorema e o teorema de Laplace permitem escrever:
∑
∑ =
=
=
=
n
1
i
ij
ij
n
1
j
ij
ij A
a
A
a
A e 0 ,
)
h
i
e
k
j
(
A
a
A
a
n
1
i
ik
ij
n
1
j
hj
ij ≠
≠
=
= ∑
∑ =
=
isto é, usando o símbolo de Kronecker,
A
A
a ih
n
1
j
hj
ij δ
=
∑
=
ou A
A
a jk
n
1
i
ik
ij δ
=
=
∑ .
Teorema 4.17: (Teorema de Laplace Generalizado) Um determinante de uma matriz é
igual à soma dos produtos dos menores de ordem m contidos em m filas paralelas pelos
respectivos complementos algébricos.
Exercício: Seja . Utilize o teorema de Laplace generalizado para
calcular
















−
−
−
=
1
2
5
3
4
2
0
1
0
1
1
3
4
1
0
0
2
1
0
0
4
5
0
3
1
A
A .
Definição 4.18: Seja A uma matriz quadrada. Chama-se adjunta de A à matriz que desta se
obtém substituindo cada elemento pelo seu complemento algébrico e transpondo a matriz
resultante.
Notação: A adjunta de uma matriz A é representada por adj A ou .
Â
De acordo com a definição anterior, se [ ]
ij
a
A = , então a matriz adjunta de A é tal
que adjA .
[ ] [ ji
T
ij A
A =
= ]
Exercício: Determine a matriz adjunta da matriz .










−
−
=
0
1
1
0
0
1
2
1
0
A
47
Teorema 4.19: Seja A uma matriz quadrada de ordem n regular. Então I
A
adjA
A ⋅
=
⋅ e
1
n
A
adjA
−
= .
Demonstração: Basta observar que multiplicando A e , obtemos:
adjA
[ ] ,
b
adjA
A ij
=
⋅ com ∑ δ
=
=
k
ij
jk
ik
ij A
A
a
b e [ ] ,
c
A ij
=
⋅
adjA com ∑ δ
=
=
k
ij
kj
ki
ij A
a
A
c .
Assim, podemos concluir que I
A
A ⋅
=
⋅
adjA
adjA
A =
⋅ . E desta fórmula, usando as
propriedades dos determinantes e o facto de A ser regular, temos que
1
n
n
A
adjA
A
adjA
A
I
A
adjA
A
−
=
⇔
=
⋅
⇔
⋅
=
⋅
Corolário 4.20: Se A é uma matriz quadrada regular, então
adjA
A
1
A 1
⋅
=
−
.
Demonstração: Usando-se o teorema 4.19, resulta de imediato que
I
A
adjA
A
1
adjA
A
1
A =
⋅








⋅
=








⋅
⋅ .
Este corolário dá-nos assim um novo processo para calcular a inversa de uma matriz
regular.
Exercício: Utilizando a última propriedade, determine, caso exista, a matriz inversa da matriz










−
−
=
0
1
1
0
0
1
2
1
0
A .
Resolução de Sistemas de Equações Lineares Usando a Teoria dos Determinantes
Seja





=
+
+
+
=
+
+
+
m
n
mn
2
2
m
1
1
m
1
n
n
1
2
12
1
11
b
x
a
x
a
x
a
b
x
a
x
a
x
a
L
M
L
,
um sistema de m equações lineares com n incógnitas, sobre um corpo K. Já sabemos que este
sistema é equivalente à equação matricial AX B
= , com
48










=
mn
1
m
n
1
11
a
a
a
a
A
L
L
L
L
L
, e .










=
n
1
x
x
X M










=
m
1
b
b
B M
1º Caso: Se , então o sistema é possível e determinado e a matriz A é
quadrada. Assim, a matriz A é invertível o que implica que o seu determinante é não nulo.
Logo, pelo Corolário 4.20,
(A
car
n
m =
= )
( ) B
adjA
A
1
X
B
A
X
B
A
AX
A
B
AX 1
1
1
⋅
=
⇔
=
⇔
=
⇔
= −
−
−
,
isto é,










⋅










⋅
=










n
1
nn
n
1
1
n
11
n
1
b
b
A
A
A
A
A
1
x
x
M
L
L
L
L
L
M ,
e portanto,
( )
A
a
b
a
a
b
a
b
A
b
A
b
A
A
1
x nn
n
1
n
n
1
1
11
n
ni
2
i
2
1
i
1
i
L
L
M
L
M
L
M
L
L
L =
+
+
+
= ,
onde os termos independentes aparecem na coluna i, com n
,
,
2
,
1
i K
= .
Regra de Cramer: Um sistema de n equações com n incógnitas com o determinante da
matriz dos coeficientes não nulo é possível e determinado e o valor de cada incógnita é o
inverso do determinante da matriz dos coeficientes multiplicado pelo determinante da matriz
que se obtém a partir da matriz dos coeficientes substituindo os coeficientes dessa incógnita
pelos correspondentes termos independentes.
Os sistemas deste primeiro caso são usualmente denominados por sistemas de
Cramer.
Exercício: Resolva, se possível, o seguinte sistema usando a regra de Cramer:





=
+
=
−
=
+
+
0
y
x
2
z
x
1
z
y
x
.
2º Caso: Se , então o sistema
( ) n
m
A
car 
=





=
+
+
+
=
+
+
+
m
n
mn
2
2
m
1
1
m
1
n
n
1
2
12
1
11
b
x
a
x
a
x
a
b
x
a
x
a
x
a
L
M
L
é possível indeterminado e é equivalente a
49





−
−
−
=
+
+
+
−
−
−
=
+
+
+
+
+
+
n
mn
1
m
1
m
,
m
m
m
mm
2
2
m
1
1
m
n
n
1
1
m
1
m
1
1
m
m
1
1
11
x
a
x
a
b
x
a
x
a
x
a
x
a
x
a
b
x
a
x
a
L
L
M
L
L
Este último sistema pode resolver-se pela regra de Cramer, pois, relativamente às incógnitas
principais, podemos considerar que estamos na presença de um sistema de Cramer.
Sendo o número de incógnitas principais igual a ( ) m
A
Car = (as não principais são
), chama-se determinante principal do sistema ao determinante dos coeficien-
tes das incógnitas (escolhidas para) principais. É óbvio que
( )
A
car
n − ∆
∆ é não nulo, de ordem ( )
A
Car .
3º Caso: . Por condensação, a matriz ampliada do sistema transforma-se em
( ) m
r
A
Car 
=













β
β
−
−
−
−
−
−
β
α
β
α
β
α













−
−
−
−
−
−
−
−
α
α
α
α
α
α
+
m
1
r
r
rn
2
n
2
1
n
1
rr
r
2
22
r
1
12
11
|
0
0
|
|
|
|
0
0
|
|
|
|
|
|
|
|
|
|
|
0
0
0
0
0
0
0
L
L
M
L
L
L
L
L
M
L
L
L
L
L
L
L
L
L
L
L
L
L
L
O
O
L
L
L
Assim, para este caso temos que considerar r incógnitas e equações principais, que definem
um determinante principal, não nulo, e r
n − incógnitas não principais e r
m − equações
não principais. Nestas circunstâncias, sabemos que o sistema é possível se, e somente se,
.
0
m
2
r
1
r =
β
=
=
β
=
β +
+ L
Seja o determinante da matriz obtida a partir da matriz de determinante
s
∆ ∆
acrescentando-lhe uma última linha, constituída pelos coeficientes das incógnitas principais
da equação de ordem s não principal, e uma última coluna constituída pelos termos
independentes dessas 1
r + equações, isto é,
s
r
1
sr
1
s
rr
1
r
r
1
11
s
b
|
|
b
|
|
b
|
a
a
a
a
a
a
−
−
−
−
−
−
−
−
=
∆
M
L
L
L
L
L
L
.
Chama-se a determinante característico.
s
∆
Como as operações elementares não alteram o determinante de uma matriz caso este
seja nulo, então
0
|
|
|
|
|
0
0
0
0
b
|
|
b
|
|
b
|
a
a
a
a
a
a
s
r
1
rr
r
1
11
s
r
1
sr
1
s
rr
1
r
r
1
11
s =
β
−
−
β
β
−
−
−
−
−
−
α
α
α
=
−
−
−
−
−
−
−
−
=
∆
M
L
L
O
L
L
M
L
L
L
L
L
L
se, e somente se, , isto é, se, e somente se, cada determinante característico é nulo. Em
conclusão:
0
s =
β
50
Teorema 4.21: (Teorema de Rouché) Um sistema de equações lineares é possível se, e
somente se, ou não existem determinantes característicos ou, existindo, são todos nulos.
Exemplos:
1. Considere o seguinte sistema:





=
+
+
=
+
+
−
=
−
+
3
z
y
3
x
2
1
z
2
y
x
2
z
y
2
x
3
.
Verifique que
0
1
3
2
2
1
1
1
2
3
=
−
−
.
Um determinante principal é, por exemplo, 0
5
1
1
2
3
≠
=
−
=
∆ . Um outro é, por exemplo,
0
5
2
1
1
2
≠
=
−
. Neste caso, existe um determinante característico:
3
3
2
1
1
1
2
2
3
3 −
=
∆
e . Logo, o sistema é possível e indeterminado.
0
3 =
∆
2. Considere o seguinte sistema:







=
+
−
−
=
+
−
=
+
−
=
+
2
z
y
x
3
1
z
y
2
x
0
z
2
y
3
x
4
1
y
x
2
.
A matriz dos coeficientes é:












−
−
−
1
1
3
1
2
1
2
3
4
0
1
2
.
Observe, por exemplo, que:
1. 0
2 ≠ ;
2. 0
10
3
4
1
2
≠
−
=
−
;
51
3. 0
1
2
1
2
3
4
0
1
2
=
−
− .
4. 0
1
1
3
2
3
4
0
1
2
=
−
−
Logo, a característica da matriz dos coeficientes é 2 e um determinante principal é
3
4
1
2
−
=
∆ . Como,
,
0
5
1
2
1
0
3
4
1
1
2
3 ≠
=
−
−
−
=
∆
então o sistema é impossível.
Neste último exemplo foi usado o seguinte resultado:
Teorema 4.22: A característica de uma matriz é r se, e somente se, contém um menor de
ordem r não nulo e todos os de ordem 1
r + que dele se obtêm juntando uma linha e uma
coluna da matriz são nulos.
Sistemas Homogéneos
Dado que um sistema homogéneo AX 0
= é sempre possível, tendo sempre a solução
, então, quando a matriz dos coeficientes é quadrada, o sistema é determinado se, e
somente se,
0
X =
0
A ≠ . Será indeterminado se, e somente se, 0
A = .
Cálculo de Valores Próprios
Recordemos que o escalar é valor próprio de um endomorfismo de um espaço
vectorial se existe um vector tal que
λ
0
ϕ
x ≠ ( ) x
x λ
=
ϕ . Equivalentemente, se A é a matriz da
aplicação linear , em relação a certa base previamente fixada no espaço vectorial, temos a
equação matricial AX
ϕ
X
λ
= ou ( ) 0
X
I
A =
λ
− , isto é, um sistema homogéneo que deve ter
outras soluções além da nula, ou seja, deve ser indeterminado. Logo, a matriz I
A λ
− é
singular (não regular), o que é equivalente a 0
I
A =
λ
− . À equação 0
I
A λ
− = , cujas raízes
são os valores próprios de A, chama-se equação característica. Chama-se polinómio
característico ao polinómio I
A λ
− em λ de grau igual à ordem de A. Para este polinómio é
válido o seguinte teorema:
52
Teorema 4.23: Um polinómio característico não depende da matriz que representa o
endomorfismo de um espaço vectorial.
ϕ
Demonstração: Sejam e
{ }
( )
i
e
,
M
A ϕ
= { }
( )
i
e
,
M
B ′
ϕ
= , com { }
i
e e { }
i
e′ bases do espaço
vectorial. Sabemos que , em que P é a matriz de passagem de { para {
P
A
P
B 1
⋅
⋅
= −
}
i
e }
i
e′ .
Vamos mostrar que I
A
I
B λ
−
=
λ
− . Ora,
I
A
P
I
A
P
P
I
P
P
A
P
I
B
1
1
1
λ
−
=
λ
−
=
⋅
⋅
λ
−
⋅
⋅
=
λ
−
−
−
−
.
Exercício: Determine os valores próprios da matriz










− 1
1
1
0
4
3
0
1
0
Teorema 4.24: Um endomorfismo ϕ de E, espaço vectorial de dimensão n, pode ser
representado por uma matriz diagonal, isto é, é diagonalizável, se, e somente se, E admite
uma base formada por vectores próprios de ϕ . Neste caso, os elementos principais dessa
matriz diagonal são os valores próprios de ϕ e cada matriz de ϕ é semelhante a essa matriz.
Demonstração: Basta observar que { }
n
1 e
,
,
e K é base de vectores próprios com ( ) i
i
i e
e λ
=
ϕ ,
, se, e somente se,
n
,
,
1
i K
=












λ
λ
λ
n
2
1
0
0
0
0
0
0
L
L
L
L
L
L
L
é a matriz de em relação a essa base.
ϕ
Corolário 4.25: Se tem n valores próprios distintos, então
ϕ ϕ pode ser representada por
uma matriz diagonal.
Demonstração: A n valores próprios distintos correspondem n vectores próprios linearmente
independentes. Logo, porque n vectores linearmente independentes formam uma base, E
admite uma base formada por vectores próprios de ϕ .
Exercício: Seja o endomorfismo de IR
ϕ
3
representado, em relação à base { de IR
}
3
2
1 e
,
e
,
e
3
,
pela matriz










=
1
2
0
0
0
1
0
2
1
A .
a) Determine os valores próprios de ϕ .
b) Determine o subespaço próprio associado a um dos valores próprios de .
ϕ
c) Diga, justificando, se a matriz A é, ou não, semelhante a uma matriz diagonal, isto é, se
A é diagonalizável.
53
5 Espaços Euclidianos e Espaços Unitários
Neste capítulo consideraremos sempre um espaço vectorial E sobre K, com K = IRou
K = C
/ .
Definição 5.1: Uma aplicação do produto cartesiano E
E× em K tal que ( ) ( v
u
v
,
u a ) diz-se um
produto interno (ou escalar) em E se satisfaz as seguintes propriedades:
P1: ( ) . E
0
u
u ≥ ( ) 0
u
u = se, e somente se, 0
u = ;
P2: ( ) ( ) ( )
w
v
w
u
w
v
u β
+
α
=
β
+
α ;
P3: Se K = IR, ( ) ( v
u
u
v = ); Se K = C
/ , ( ) ( )
v
u
u
v = .
Chama-se espaço euclidiano (ou unitário) a um espaço vectorial real (ou complexo) de
dimensão finita com produto interno.
Observações:
1. Independentemente do corpo ser o real ou o complexo, ( )∈
u
u IR.
2. Se K = IR , ( ) ( ) ( )
v
w
u
w
v
u
w β
+
α
=
β
+
α , logo o produto interno é bilinear.
3. Se K = C
/ , ( ) ( ) ( )
v
w
u
w
v
u
w β
+
α
=
β
+
α .
Exemplos:
1. Em IR
n
(que é um espaço vectorial real), se ∈
y
,
x IR
n
, usando as coordenadas dos vectores na
base canónica, e
( )
n
1 x
,
,
x
x K
= ( )
n
y
,
K
1,
y
y = , podemos definir um produto interno do
seguinte modo:
( ) ∑
=
=
n
1
i
i
i y
x
y
x .
Para ,
3
n = ( ) 3
3
2
2
1
1 y
x
y
x
y
x
y
x +
+
= .
2. Em C
/
n
podemos definir um produto interno do seguinte modo:
( ) ∑
=
=
n
1
i
i
i y
x
y
x .
Propriedades do Produto Interno:
1. ( ) ( ) .
0
x
0
0
x =
= Pois, basta observar que ( ) ( ) ( ) ( ) 0
x
x
x
x
x
x
x
0
x =
−
=
−
= .
2. Se ( ) ,
E
y
,
0
y
x ∈
∀
= então . E, se
0
x = ( ) ,
E
y
,
0
x
y ∈
∀
= então 0
x = .
3. (Desigualdade de Cauchy-Schwarz) Se E é espaço euclidiano e ,
E
y
,
x ∈ então
( ) ( )( )
y
y
x
x
y
x
2
≤ .
54
Definição 5.2: Num espaço E com produto interno chama-se norma do vector ao escalar
real
E
x ∈
x definido por:
( )
x
x
x = .
Exemplo: Em IR
n
, ( ) ∑
=
=
+
+
+
=
n
1
i
2
i
2
n
2
2
2
1
n
2
1 x
x
x
x
x
,
,
x
,
x L
K é uma norma denominada
euclidiana. Em C
/
n
, ( ) ∑
=
=
+
+
+
=
=
n
1
i
2
i
2
n
2
2
2
1
n
2
1 x
x
x
x
x
,
,
x
,
x
x L
K .
Propriedades da Norma:
1. 0
x = se, e somente se, e
0
x = 0
x ≥ , para todo E
x ∈ .
2. x
x ⋅
α
=
α , para quaisquer α e
K
∈ E
x ∈ .
3. (Desigualdade Triangular) y
x
y
x +
≤
+ , para quaisquer E
y
,
x ∈ .
Observação: A desigualdade triangular é consequência da desigualdade de Cauchy-Schwarz:
( ) y
x
y
x ⋅
≤ .
Definição 5.3: Dois vectores x e y, de um espaço vectorial E, com produto interno, dizem-se
ortogonais se ( ) 0
y
x = . Neste caso escreve-se y
x⊥ .
Chama-se complemento ortogonal de um conjunto S ao conjunto
E
⊂
{ }
S
x
,
x
y
:
E
y
S ∈
⊥
∈
=
⊥
.
Uma base é dita ortonormada (o.n.) se os vectores são ortogonais dois a dois e têm
norma 1, isto é, a base { é ortonormada se
}
n
2
1 e
,
,
e
,
e K ( ) 0
e
e j
i = , para , e
j
i ≠ 1
ei = , para
.
n
,
,
2
,
1
i K
=
Exemplos:
1. e .
{ } E
0 =
⊥
{ }
0
E =
⊥
2. Em IR
3
, com o produto interno já referido, são ortonormadas as bases:
( ) ( ) ( )
{ }
1
,
0
,
0
,
0
,
1
,
0
,
0
,
0
,
1
e
( )


















−








01
,
0
,
0
,
2
2
,
2
2
,
0
,
2
2
,
2
2
.
55
Teorema 5.4: Um espaço euclidiano (ou unitário) admite sempre uma base ortonormada.
Demonstração: Este teorema é consequência do facto de qualquer espaço vectorial, de dimensão
finita, ter uma base e uma base poder transformar-se numa base o.n. usando-se o processo de
ortonormalização de Gram-Schmidt. Vejamos em que consiste este processo num espaço
vectorial de dimensão 3.
Seja E um espaço euclidiano (ou unitário) de dimensão 3 e { }
3
2
1 e
,
e
,
e uma sua base.
Definam-se os vectores e por:
2
1 u
,
u 3
u
1
1
1
e
e
u = ;
,
u
u
u
2
2
2
′
′
= com ( ) 1
1
2
2
2 u
u
e
e
u −
=
′ ;
,
u
u
u
3
3
3
′
′
= com ( ) ( ) 1
1
3
2
2
3
3
3 u
u
e
u
u
e
e
u −
−
=
′ .
É imediato verificar que estes vectores têm norma 1. Vejamos que u e são
ortogonais:
1 2
u
( ) ( )
( )
( )
( ) ( )( )
( )
( ) ( )
( )
.
0
u
e
u
e
u
1
u
u
u
e
u
e
u
1
u
u
u
e
e
u
1
u
u
1
2
1
2
2
1
1
1
2
1
2
2
1
1
1
2
2
2
1
2
=
−
′
=
−
′
=
−
′
=
De modo semelhante pode mostrar-se que os restantes pares de vectores possíveis são também
ortogonais.
Mostrando que { constituem uma base de E (exercício!), conclui-se que
é uma base o.n. de E.
}
}
3
2
1 u
,
u
,
u
{ 3
2
1 u
,
u
,
u
Em geral, se E é um espaço vectorial de dimensão n e { }
n
2
1 e
,
,
e
,
e K é uma base de E,
então constituem uma base ortonormada de E se:
{ n
2
1 u
,
,
u
,
u K }
1
1
1
e
e
u = ,
,
u
u
u
k
k
k
′
′
= com ( )
∑
−
=
−
=
′
1
k
1
i
i
i
k
k
k u
u
e
e
u , para k n
,
,
2 K
= .
(Ortonormalização de Gram-Schmidt)
56
Definição 5.5: Sejam E um espaço euclidiano e { }
0

E
y
,
x ∈ . Define-se ângulo formado pelos
vectores x e y por meio da igualdade
θ
( )
y
x
y
x
cos
⋅
=
θ , π
≤
θ
≤
0 .
Observações:
1. Da definição anterior conclui-se que ( ) θ
⋅
⋅
= cos
y
x
y
x .
2. O ângulo θ já que, pela desigualdade de Cauchy-Schwarz,
[ π
∈ ,
0 ]
( )
( ) ( ) 1
y
x
y
x
1
1
y
x
y
x
y
x
y
x ≤
⋅
≤
−
⇔
≤
⋅
⇔
⋅
≤
e a função cos(x) é uma bijecção de [ ]
π
,
0 em [ ]
1
,
1
− .
Cálculo do Produto Interno de Dois Vectores
Sejam { uma base do espaço unitário E e
}
n
2
1 e
,
,
e
,
e K E
y
,
x ∈ . Então, existem ,
K
, i
i ∈
β
α
tais que
,
n
,
,
1
i K
=
n
n
2
2
1
1 e
e
e
x α
+
+
α
+
α
= L
e
n
n
2
2
1
1 e
e
e
y β
+
+
β
+
β
= L .
Assim, podemos escrever:
( ) ( )
( ) ( ) ( )
( ) ( ) ( )
( )
∑∑
= =
β
α
=
β
α
+
+
β
α
+
β
α
+
+
β
α
+
+
β
α
+
β
α
=
β
+
+
β
α
+
+
α
=
n
1
i
n
1
j
j
i
j
i
n
n
n
n
2
n
2
n
1
n
1
n
n
1
n
1
2
1
2
1
1
1
1
1
n
n
1
1
n
n
1
1
e
e
e
e
e
e
e
e
e
e
e
e
e
e
e
e
e
e
y
x
L
L
L
L
L
(1)
Se representarmos ( )
j
i e
e por a , podemos obter a matriz
ij [ ]
ij
a
=
A e deste modo, a expressão (1)
para o produto interno de x por y pode escrever-se na forma matricial:
( ) Y
A
X
y
x T
⋅
⋅
= , (2)
em que










α
α
=
n
1
X M , e










β
β
=
n
1
Y M [ ]
ij
a
A = .
57
Observe-se que a matriz A é hermítica, pois ( ) ( )
i
j
j
i e
e
e
e = , no caso complexo, ou simétrica no
caso real, já que ( ) ( )
i
j
j
i e
e
e
e = .
Em particular, se a base { }
n
2
1 e
,
,
e
,
e K é o.n., então ( ) ij
j
i e
e δ
= , para quaisquer
ou seja, . Consequentemente, as fórmulas (1) e (2) resumem-se a:
,
n
,
,
1
j
,
i K
= n
I
A =
( ) Y
X
y
x T
n
1
i
i
i ⋅
=
β
α
= ∑
=
(no caso complexo) ou ( ) Y
X
y
x T
n
1
i
i
i ⋅
=
β
α
= ∑
=
(no caso real).
No caso dos espaços vectoriais IR
n
e C
/
n
, temos as seguintes expressões para a norma de um
vector:
- No caso geral: X
A
X
x T
⋅
⋅
= ;
- Com bases o.n.: ∑
=
α
=
⋅
=
n
1
i
2
i
T
X
X
x .
Matriz de Passagem de uma Base O.N. para outra Base O.N.
Sejam { } e {
n
2
1 e
,
,
e
,
e K }
n
2
1 e
,
,
e
,
e ′
′
′ K duas bases o.n. de E, espaço vectorial real ou
complexo, e seja P a matriz de passagem da segunda base para a primeira base. Então, para
,
E
y
,
x ∈
PX
X =
′ e Y PY
=
′ ,
em que X e Y são matrizes coluna das coordenadas de x e y na primeira base e e
X′ Y′ são as
matrizes coluna das coordenadas de x e y na segunda base.
Suponhamos que E é um espaço euclidiano. Então, neste caso,
( ) ,
Y
P
P
X
Y
X
Y
X
y
x T
T
T
T
⋅
⋅
⋅
=
′
⋅
′
=
⋅
=
isto é, , que equivale a afirmar que P é ortogonal.
I
P
PT
=
⋅
Suponhamos agora que E é um espaço unitário. Então, neste caso,
( ) ,
Y
P
P
X
Y
X
Y
X
y
x T
T
T
T
⋅
⋅
⋅
=
′
⋅
′
=
⋅
=
isto é, I
P
PT
=
⋅ , que equivale a afirmar que P é unitária.
Em conclusão, uma matriz de passagem de uma base o.n. para outra base o.n. é ortogonal
(se o espaço é real) ou unitária (se o espaço é complexo).
Nota:
1. P ortogonal 1
P
1
P
I
P
P
2
T
±
=
⇒
=
⇒
=
⋅
⇔ .
2. P unitária θ
=
⇔
=
⇒
=
⋅
⇒
=
⋅
⇔ cis
P
det
1
P
det
1
P
P
I
P
PT
, [ [
π
∈
θ 2
,
0 .
58
Se E é um espaço real e det 1
P = , então dizemos que as duas bases o.n. têm a mesma
orientação e obtém-se uma a partir da outra por uma rotação.
Exemplos: As bases { } e
( ) ( ) ( )
1
,
0
,
0
,
0
,
1
,
0
,
0
,
0
,
1 ( ) ( ) ( )
{ }
0
,
1
,
0
,
1
,
0
,
0
,
0
,
0
,
1 não têm a mesma orientação,
pois
1
0
1
0
1
0
0
0
0
1
P
det −
=
= .
Uma rotação em IR
2
é uma aplicação linear que pode ser representada pela matriz ortogonal:






θ
θ
θ
−
θ
=
cos
sen
sen
cos
P .
Produto Vectorial e Misto em IR
3
Definição 5.14: Sejam x e y dois vectores de IR
3
(com o produto escalar usual). Define-se
produto vectorial (ou externo) de x por y, que denotamos por y
x ∧ , do seguinte modo:
- Se x e y são linearmente dependentes, 0
y
x =
∧ .
- Se x e y são linearmente independentes, y
x ∧ é tal que
1. é ortogonal a x e a y.
y
x ∧
2. é uma base directa (ou positiva) (isto é, a matriz de passagem da base
para esta base tem determinante positivo).
( y
x
,
y
,
x ∧
( )
( ,
1
,
0
,
0
,
0
,
1
)
))
( ) ( 1
,
0
,
0
,
0
3. θ
⋅
⋅
=
∧ sen
y
x
y
x , com [ ]
π
∈
θ ,
0 , o ângulo formado pelos vectores x e y.
Observação: A partir de agora consideraremos sempre a base canónica de IR
3
, inclusivé na
Geometria Analítica, representada por três segmentos de recta de origem O e tal que um
observador com a cabeça no sentido de , vê e à sua direita e e à sua esquerda (isto é,
rodando no sentido directo um ângulo de
3
e 1 2
1
e 2
π obtém-se ). Fixando esta base como
positiva, diremos que a base com orientação contrária (isto é, obtida por uma mudança de base
cuja matriz tem determinante negativo) é inversa (ou negativa). Por isto, utiliza-se a notação
em lugar de { }
2
e
( 3
2
1 e
,
e
,
e )
)
3
2
1 e
,
e
,
e .
Cálculo do produto vectorial:
Se ( é uma base de IR
3
2
1 e
,
e
,
e
3
o.n. directa e
3
3
2
2
1
1 e
x
e
x
e
x
x +
+
= , 3
3
2
2
1
1 e
y
e
y
e
y
y +
+
= ,
então
( ) ( ) ( ) 3
1
2
2
1
2
1
3
3
1
1
2
3
3
2 e
y
x
y
x
e
y
x
y
x
e
y
x
y
x
y
x −
+
−
−
−
=
∧ .
59
No cálculo do produto vectorial pode utilizar-se o determinante simbólico (não tem valor como
determinante):
3
2
1
2
1
2
3
1
3
1
1
3
2
3
2
3
2
1
3
2
1
3
2
1
e
y
y
x
x
e
y
y
x
x
e
y
y
x
x
y
y
y
x
x
x
e
e
e
y
x +
−
=
=
∧ .
Propriedades do Produto Vectorial
1. ;
x
y
y
x ∧
−
=
∧
2. ( ) ( ) ( y
x
y
x
y
x α
∧ )
=
∧
α
=
∧
α , ∈
α IR;
3. ( ) ( ) ( z
y
z
x
z
y
x ∧ )
+
∧
=
∧
+ ;
4. ;
( ) ( ) ( z
x
y
x
z
y
x ∧
+
∧
=
+
∧ )
5. ( ) ( ) ( )x
z
y
y
z
x
z
y
x −
=
∧
∧ ;
6. y
x ∧ é a área do paralelogramo definido pelos vectores x e y.
Exercício: Mostre que ( ) ( ) ( ) 0
y
x
z
x
z
y
z
y
x =
∧
∧
+
∧
∧
+
∧
∧ .
Definição 5.15: Sejam IR
∈
z
,
y
,
x
3
. Chama-se produto misto dos três vectores x, y e z ao escalar
( ) z
y
x ∧ .
Atenção: É óbvio que no produto misto efectua-se primeiro o produto vectorial e depois o
produto escalar.
Propriedades do Produto Misto:
1. Se é uma base de IR
( 3
2
1 e
,
e
,
e ) 3
o.n. directa e
3
3
2
2
1
1 e
x
e
x
e
x
x +
+
= , 3
3
2
2
1
1 e
y
e
y
e
y
y +
+
= , 3
3
2
2
1
1 e
z
e
z
e
z
z +
+
=
então
( )
3
2
1
3
2
1
3
2
1
z
z
z
y
y
y
x
x
x
z
y
x =
∧ .
2. O produto misto troca de sinal sempre que se troquem entre si as posições de dois dos três
vectores, isto é,
60
( ) ( ) ( ) ( ) y
z
x
x
y
z
z
x
y
z
y
x ∧
−
=
∧
−
=
∧
−
=
∧ .
3. O produto misto não se altera por permutação circular dos três vectores ou pela troca dos
sinais e
∧ , isto é,
( ) ( ) ( ) ( )
z
y
x
y
x
z
x
z
y
z
y
x ∧
=
∧
=
∧
=
∧ .
4. ( ) z
y
x ∧
( )
é o volume do paralelepípedo definido pelos três vectores. Observe-se ainda que
cos
z
y
x
z
y
x θ
⋅
⋅
∧
=
∧ , com [ ]
π
∈
θ ,
0 , o ângulo formado pelos vectores e z.
y
x ∧
x
θ z y
y
x ∧
61
6 Geometria Analítica
Definição 6.1: Seja E um espaço vectorial real. Chama-se espaço afim associado ao espaço E
a qualquer conjunto E, não vazio, cujos elementos são ditos pontos, tal que, a cada par
ordenado E×E corresponde um vector de E (dito vector livre) designado por
( )∈
B
,
A AB ou
, de modo que
A
B −
a) 0
CA
BC
AB =
+
+ , para quaisquer pontos ∈
C
,
B
,
A E;
b) fixado em E um ponto qualquer O, a aplicação :
Ψ E E definida por
→ ( ) OP
P =
Ψ é uma
aplicação biunívoca de E sobre E.
Observações:
1. A condição em a) pode escrever-se na forma ( ) ( ) ( ) 0
C
A
B
C
A
B =
−
+
−
+
− .
2. Em b), podemos escrever , para
u
O
P =
− ( ) u
P =
Ψ .
3. Se E é um espaço euclidiano, E diz-se euclidiano.
4. Se E tem dimensão n, diz-se que E tem dimensão n.
Propriedades: Sejam E, com E um espaço afim.
∈
D
,
C
,
B
,
A
1. 0
AA = ;
2. BA
AB −
= ;
3. AC
BC
AB =
+ ;
4. C
B
AC
AB =
⇒
= ;
5. B
A
0
AB =
⇒
= ;
6. BD
AC
CD
AB =
⇒
= .
Definição 6.2: Se E é um espaço afim euclidiano, chama-se distância entre A a B, com
E, a
∈
B
,
A ( ) ( ) AB
AB
AB
B
,
A =
=
d .
Definição 6.3: Sejam E e . Chama-se soma de A com u, , ao ponto B tal
que .
∈
A E
u ∈ u
A +
u
A
B =
−
Proposição 6.4: Para E e ,
∈
A E
u ∈
1. u
u
AA =
+ ;
2. .
0
u
A
u
A =
⇒
=
+
62
Definição 6.5: Sejam E um espaço vectorial, ( )
n
2
1 e
,
,
e
,
e K uma base de E e E, com E
espaço afim associado a E. Chama-se referencial ou sistema de referência do espaço afim E
a . Ao ponto O chama-se origem do referencial. Se a base é
o.n., o referencial é dito ortonormado. Chamam-se coordenadas do ponto P no referencial
às coordenadas do vector
∈
O
1 e
,
e
( n
2
1 e
,
,
e
,
e
;
O K
( n
2
1 e
,
,
e
,
e
;
O K
)
)
( )
n
2 e
,
,K
OP em relação à base considerada.
De acordo com esta definição, podemos “identificar” um ponto P de E com o vector
OP de E. Por exemplo, no espaço afim tridimensional R
3
associado a IR
3
, podemos
“identificar”
( c
,
b
,
a
P ) com 3
2
1 ce
be
ae
OP +
+
= .
Ainda em R
3
, se é um referencial e Q um ponto, a translação do referencial
segundo
( 3
2
1 e
,
e
,
e
;
O )
OQ é o novo referencial . Assim, se
( 3
2
1 e
,
e
,
e
;
Q ) ∈
P R
3
, é tal que ( )
z
,
y
,
x
=
OP e
( 0
0
0 z
,
y
,
x
OQ = ), tem-se a mudança de coordenadas por translação





′
+
=
′
+
=
′
+
=
z
z
z
y
y
y
x
x
x
0
0
0
com ( z
,
y
,
x
QP ′
′
′
= ), já que QP
OQ
OP +
= .
Definição 6.6: O conjunto dos pontos de R
3
que estão a uma distância r de um ponto fixo C
dado denomina-se esfera de centro C e raio r, isto é,
( )
{ } { } ( ) 




 =
=
=
=
= r
CP
CP
:
P
r
CP
:
P
r
C
,
P
d
:
P .
Num referencial o.n. e
( )
3
2
1 e
,
e
,
e
;
O s ( )
z
,
y
,
x
P e ( )
3
2
1 c
,
c
,
c
C , então
( )
{ } ( ) ( ) ( ) ( )
{ }
2
2
3
2
2
2
1 r
c
z
c
y
c
x
:
z
,
y
,
x
P
r
C
,
P
d
:
P =
−
+
−
+
−
=
= .
Definição 6.7: Chama-se subespaço afim (ou variedade linear) de um espaço afim E,
associado a um espaço vectorial real E, a um subconjunto F não vazio de E tal que
F , em que é um ponto fixado em F e F é um subespaço vectorial de E.
{ F
P
P
:
P 0 +
∈
= } 0
P
Observações:
1. { }
F
v
:
v
P
F
P 0
0 ∈
+
=
+ .
2. A dimensão do subespaço afim F é a dimensão de F. Um subespaço afim de dimensão 1
denomina-se recta e um subespaço afim de dimensão 2 denomina-se plano. Assim,
, com e
u
P
P 0 λ
+
= { }
0

E
u ∈ ∈
λ IR , é uma equação que define uma recta e
, com
v
µ
+
u
P
P 0 λ
+
= { }
0

E
v
,
u ∈ (linearmente independentes) e λ IR , é uma
equação que define um plano.
∈
µ
,
3. Se , F e se F = E, F = E.
{ }
0
F = { }
0
P
=
4. De acordo com a definição e no caso de IR
3
, F é a translação de um subespaço vectorial
F de IR
3
.
63
Em R
3
, se ( é um referencial o.n.,
)
3
2
1 e
,
e
,
e
;
O ∈
0
P R
3
e ∈
u IR
3
 , o conjunto
IR é uma recta que passa por P e tem a direcção de u (paralela a u).
Se são as coordenadas de u na base
{ }
0
{ ∈
λ
λ
+
= ,
u
P
P
:
P 0
( )
3
2
1 u
,
u
,
u
} 0
( )
3
e
e (
2 ,
e
1, 3
2
2
1 e
e
u
u 3
u
+
1
e
u +
= ) e γ
β
α ,
,
são os ângulos formados por u com , respectivamente, então
3
2
1 e
,
e
,
e
( )
2
3
2
2
2
1
1
1
1
1
u
u
u
u
u
u
e
u
e
u
cos
+
+
=
=
⋅
=
α ,
( )
2
3
2
2
2
1
2
2
2
2
u
u
u
u
u
u
e
u
e
u
cos
+
+
=
=
⋅
=
β ,
( )
2
3
2
2
2
1
3
3
3
3
u
u
u
u
u
u
e
u
e
u
cos
+
+
=
=
⋅
=
γ ,
denominados cosenos directores da recta.
Observações:
1. .
1
cos
cos
cos 2
2
2
=
γ
+
β
+
α
2. Dado um ponto O
P ≠ em R
3
, tem-se que ( )
3
2
1 e
cos
e
cos
e
cos
OP
OP ⋅
γ
+
⋅
β
+
⋅
α
= , em
que γ
β,
,
α são os ângulos formados por OP com e , respectivamente.
3
2
1 e
,
e
,
No estudo das rectas e dos planos usaremos sempre o referencial canónico, isto é, o
referencial onde é a base canónica de IR
( )
3
2
1 e
,
e
,
e
;
O ( 3
2
1 e
,
e
,
e ) 3
. Ficará assim subentendido
que as representações cartesianas das rectas e dos planos são sempre relativas a este
referencial.
Estudo das Rectas e dos Planos em R
3
O Plano: Pelo que vimos anteriormente, um plano é um subespaço afim de dimensão 2 de
R
3
. Assim, é definido por dois vectores linearmente independentes e por um ponto, isto é, um
plano é o conjunto dos pontos P de R
3
que satisfazem a equação (dita equação vectorial do
plano) , com IR, onde é um ponto dado de R
v
u
P
P 0 µ
+
λ
+
= ∈
µ
λ, 0
P
3
e u, v são vectores
linearmente independentes de IR
3
. Temos assim uma forma de definir um plano a partir de um
ponto e duas direcções não colineares.
Casos particulares: Se o plano passa por ( )
0
0
0
0 z
,
y
,
x
P e é paralelo a
- YOZ, então ;
0
x
x =
- XOZ, então ;
0
y
y =
- XOY, então .
0
z
z =
Sejam ( )
P e dois pontos e
0
0
0
0 z
,
y
,
x ( z
,
y
,
x
P )
3
3
2
2
1
1 e
u
e
u
e
u
u +
+
= ,
3
3
2
2
1
1 e
v
e
v
e
v
v +
+
= .
64
Se representarmos por P, P0, U, V as matrizes coluna das coordenadas de P, P , u, v,
respectivamente, então, da equação vectorial de um plano, podemos escrever a equação
matricial
0
P = P0 + λ U + µV, ∈
µ
λ, IR,
ou, equivalentemente,





µ
+
λ
+
=
µ
+
λ
+
=
µ
+
λ
+
=
3
3
0
2
2
0
1
1
0
v
u
z
z
v
u
y
y
v
u
x
x
∈
µ
λ, IR,
ditas equações paramétricas.
A equação vectorial do plano é, evidentemente, equivalente à equação
v
u
P
P0 µ
+
λ
= ,
isto é, o vector P
P0 é ortogonal ao produto vectorial de u e v. Logo, é nulo o produto misto
( ) 0
v
u
P
P0 =
∧ ,
isto é,
0
v
v
v
u
u
u
z
z
y
y
x
x
3
2
1
3
2
1
0
0
0
=
−
−
−
,
que é uma nova equação sem os parâmetros λ e µ. A partir desta equação ou das equações
paramétricas, eliminando os parâmetros λ e µ, podemos obter uma equação da forma
0
D
Cz
By
Ax =
+
+
+ ,
dita equação cartesiana do plano, na forma geral, ou equação geral do plano.
Observação: O vector de coordenadas ( )
C
,
B
,
A é perpendicular ao plano.
Agora, podemos facilmente compreender como podemos definir um plano a partir de
dois pontos , e uma direcção , tal que
0
P 1
P u 1
0P
P e u sejam linearmente independentes, ou
três pontos , , , não colineares. Basta, respectivamente, substituir nas equações já
apresentadas v por
0
P 1
P 2
P
1
0P
P ou u e v por 1
0P
P e 2
0P
P . Pois, por exemplo, se
e são não colineares, então
( )
0
0
0
0 z
,
y
,
x
P ,
( )
1
1
1
1 z
,
y
,
x
P ( 2 y
,
x )
2
2 z
,
2
P 1
0P
P e 2
0P
P são linearmente
independentes e a equação vectorial do plano vem dada por
( ) ( )
0
2
0
1
0 P
P
P
P
P
P −
µ
+
−
λ
+
= , ∈
µ
λ, IR,
e as equações paramétricas por
65
( ) ( )
( ) (
( ) (





−
µ
+
−
λ
+
=
−
µ
+
−
λ
+
=
−
µ
+
−
λ
+
=
0
2
0
1
0
0
2
0
1
0
0
2
0
1
0
z
z
z
z
z
z
y
y
y
y
y
y
x
x
x
x
x
x
)
)
, ∈
µ
λ, IR.
Como anteriormente, podemos também obter a equação geral do plano eliminando os
parâmetros ou utilizando a equação
( ) ( ) ( )
( ) 0
P
P
P
P
P
P 0
2
0
1
0 =
−
∧
−
− ,
que é equivalente a
0
z
z
y
y
x
x
z
z
y
y
x
x
z
z
y
y
x
x
0
2
0
2
0
2
0
1
0
1
0
1
0
0
0
=
−
−
−
−
−
−
−
−
−
ou 0
1
z
y
x
1
z
y
x
1
z
y
x
1
z
y
x
2
2
2
1
1
1
0
0
0
= .
Nota: Da última equação podemos deduzir que quatro pontos ( ) 0,1,2,3
i
,
z
,
y
,
x
P i
i
i
i = , estão
no mesmo plano se, e somente se,
0
1
z
y
x
1
z
y
x
1
z
y
x
1
z
y
x
3
3
3
2
2
2
1
1
1
0
0
0
= .
Também podemos definir um plano a partir de um ponto ( )
0
0
0
0 z
,
y
,
x
P e um vector
perpendicular ao plano:
( 3
2
1 u
,
u
,
u
u = )
( )
( ) 0
u
P
P 0 =
− ,
que é equivalente a
( ) ( ) ( ) 0
z
z
u
y
y
u
x
x
u 0
3
0
2
0
1 =
−
+
−
+
−
ou
( ) 0
z
u
y
u
x
u
z
u
y
u
x
u 0
3
0
2
0
1
3
2
1 =
+
+
−
+
+ ,
que é a equação geral do plano.
Generalização:
Seja By
Ax + a equação geral de um plano.
0
D
Cz =
+
+
• Se , então o plano é paralelo a OX;
0
A =
• Se , então o plano é paralelo a OY;
0
B =
• Se , então o plano é paralelo a OZ;
0
C =
• Se , então o plano passa pela origem.
0
D =
66
Suponhamos agora que 0
D
Cz
By
Ax
: =
+
+
+
π , com A, B, C e D não nulos (isto é, o
plano não é paralelo a qualquer dos eixos e não passa pela origem). Então a equação geral é
equivalente a
π
1
C
D
z
B
D
y
A
D
x
=
−
+
−
+
−
,
ou seja
1
c
z
b
y
a
x
=
+
+ ,
dita equação axial do plano. Observe-se que:
- se x = e , então . O plano passa pelo ponto
0 0
y = c
z = ( )
c
,
0
,
0 ;
- se x = e , então . O plano passa pelo ponto
0 0
z = b
y = ( )
0
,
b
,
0 ;
- se y = e , então . O plano passa pelo ponto
0 0
z = a
x = ( )
0
,
0
,
a .
Suponhamos que o ponto do plano
0
P π é o ponto de intersecção com o plano da normal a
passando pela origem O do referencial.
π
π
( 0
OP é perpendicular ao plano)
x
y
z
( )
0
,
0
,
a
( )
0
,
b
,
0
( )
c
,
0
,
0
0
OP
Sejam γ
β
α ,
, os ângulos que o vector ( )
0
0
0
0 z
,
y
,
x
=
OP forma com os eixos OX, OY, OZ,
respectivamente. Então,
a
OP
cos
0
=
α ,
b
OP
cos
0
=
β ,
c
OP
cos
0
=
γ
e p
OP0 = é a distância do plano à origem. Logo, da equação axial obtemos
p
cos
z
cos
y
cos
x =
γ
⋅
+
β
⋅
+
α
⋅ ,
dita equação normal ou hessiana.
Seja By
Ax 0
D
Cz =
+
+
+ outra equação cartesiana do plano , nas mesmas
condições (não é paralelo a qualquer dos eixos e não passa pela origem). Evidentemente, esta
equação é equivalente à equação normal. Logo, temos que
π
p
D
cos
C
cos
B
cos
A −
=
γ
=
β
=
α
67
donde
1
C
B
A
cos
C
cos
B
cos
A
p
D 2
2
2
2
2
2
2
2
2
2
2
+
+
=
γ
=
β
=
α
=
implicando que
2
2
2
C
B
A
D
p
+
+
= ,
que é a distância da origem ao plano.
Agora, podemos determinar os cosenos directores. Para isso temos que ter ,
isto é, − com o mesmo sinal de p (caso seja necessário, multiplica-se por os dois
membros da equação geral do plano). Então,
0
D 
−
D 1
−
2
2
2
C
B
A
A
cos
+
+
=
α ,
2
2
2
C
B
A
B
cos
+
+
=
β ,
2
2
2
C
B
A
C
cos
+
+
=
γ
são os cosenos directores da normal ao plano, que serão exactamente A, B, C se
e . Em geral, A, B, C são parâmetros directores dessa normal, isto
é, definem um vector com a mesma direcção. Dito por outras palavras, o vector de
coordenadas é perpendicular ao plano.
1
C
B
A 2
2
2
=
+
+
( ,
A
0
D 
−
)
C
,
B
Estrela de Planos
Dado um ponto , a equação geral dos planos que passam pelo ponto é
dada por
( 0
0
0
0 z
,
y
,
x
P )
( ) ( ) ( ) 0
z
z
C
y
y
B
x
x
A 0
0
0 =
−
+
−
+
− ,
com , em que os coeficientes A, B, C são parâmetros arbitrários. A equação
anterior define uma estrela de planos cujo centro é .
0
C
B
A 2
2
2
≠
+
+
0
P
Posição Relativa de Planos
Posição relativa de dois planos:
Sejam 0
D
z
C
y
B
x
A
: 1
1
1
1
1 =
+
+
+
π e 0
D
z
C
y
B
x
A
: 2
2
2
2
2 =
+
+
+
π . Estas duas
equações definem um sistema



=
+
+
+
=
+
+
+
0
D
z
C
y
B
x
A
0
D
z
C
y
B
x
A
2
2
2
2
1
1
1
1
.
Sabemos que este sistema somente pode ser possível indeterminado ou impossível.
Analisemos cada um dos casos.
Considerem-se a matriz dos coeficientes e a matriz ampliada do sistema:






=
2
2
2
1
1
1
C
B
A
C
B
A
M , 





=
′
2
2
2
2
1
1
1
1
D
C
B
A
D
C
B
A
M
68
1º Caso: Suponhamos que o sistema é possível indeterminado. Isto é, Car ou
.
2
M
Car
M =
′
=
1
M
Car
M
Car =
′
=
- Se Car 2
M
Car
M =
′
=
1
π 2
π
, o sistema é possível simplesmente indeterminado, então os
planos e são concorrentes, isto é, a intersecção deles é uma recta:
1
π
2
π
- Se Car 1
M
Car
M =
′
=
2
, o sistema é possível duplamente indeterminado, então os planos
e π são coincidentes (paralelos em sentido lato). Assim, temos que
1
π
2
1
2
1
2
1
D
D
C
C
B
B
=
=
=
2
1
A
A
:
2
1 π
≡
π
2º Caso: Suponhamos que o sistema é impossível. Então 2
M
Car
e
1
M
Car =
′
= . Neste
caso, os planos e são paralelos (em sentido estrito) e tem-se que
1
π 2
π
2
1
2
1
2
1
2
1
D
D
C
C
B
B
A
A
≠
=
= :
2
π
1
π
Posição relativa de três planos:
Sejam
0
D
z
C
y
B
x
A
: 1
1
1
1
1 =
+
+
+
π , 0
D
z
C
y
B
x
A
: 2
2
2
2
2 =
+
+
+
π ,
e
0
D
z
C
y
B
x
A
: 3
3
3
3
3 =
+
+
+
π .
69
Estas equações definem um sistema de 3 equações a 3 incógnitas





=
+
+
+
=
+
+
+
=
+
+
+
0
D
z
C
y
B
x
A
0
D
z
C
y
B
x
A
0
D
z
C
y
B
x
A
3
3
3
3
2
2
2
2
1
1
1
1
.
Considerem-se a matriz dos coeficientes e a matriz ampliada do sistema:










=
3
3
3
2
2
2
1
1
1
C
B
A
C
B
A
C
B
A
M , M










=
′
3
3
3
3
2
2
2
2
1
1
1
1
D
C
B
A
D
C
B
A
D
C
B
A
1º Caso: Suponhamos que o sistema é possível determinado, isto é, . Então o
sistema tem uma única solução, um ponto. Logo, os três planos têm um só ponto em comum
(fazem parte da estrela de planos centrada nesse ponto):
3
M
Car =
2
π
1
π
3
π
2º Caso: Suponhamos que o sistema é possível indeterminado. Assim:
- se Car 2
M
Car
M =
′
= , o sistema é possível simplesmente indeterminado, então a
intersecção dos três planos é uma recta:
3
π
1
π
2
π
- se Car 1
M
Car
M =
′
= , o sistema é possível duplamente indeterminado, então os três
planos coincidem:
3
2
1 π
≡
π
≡
π
3º Caso: Suponhamos que o sistema é impossível. Assim:
70
71
- se Car (só duas equações compatíveis), então um plano forma com
os outros dois um prisma triangular ou é paralelo a algum deles, não havendo pontos
comuns aos três planos:
3
M
Car
e
2
M =
′
=
1
π
- se Car , então os três planos são paralelos ou dois são coincidentes e o
outro é paralelo a estes:
2
M
Car
e
1
M =
′
=
1
π
2
π
3
π
π
1
π
3
π
2
π
2
1 π
≡
3
π
3
π
2
π
A Recta: Pelo que vimos anteriormente, uma recta é um subespaço afim de dimensão 1 de
R
3
. Assim, é definida por um vector e um ponto, isto é, uma recta é o conjunto dos pontos P
de R
3
que satisfazem a equação (dita equação vectorial/equação matricial da recta)
, com IR, onde é um ponto dado de R
u
P
P 0 λ
+
= ∈
λ 0
P
3
e u é um vector, não nulo, de IR
3
.
Em resumo: podemos definir uma recta que passa por um ponto e tem a direcção de um
vector.
Sejam (
P um ponto e
)
0
0
0
0 z
,
y
,
x ( )
3
2
1 u
,
u
,
u
u = um vector. Da equação vectorial da
recta podemos obter as equações





λ
+
=
λ
+
=
λ
+
=
3
0
2
0
1
0
u
z
z
u
y
y
u
x
x
, ∈
λ IR,
ditas equações paramétricas da recta (sendo ( )
z
,
y
,
x
P um ponto qualquer da recta).
Suponhamos que as coordenadas do vector u são todas não nulas. Então, eliminando o
parâmetro nas equações paramétricas obtemos as correspondentes equações cartesianas
λ
3
0
2
0
1
0
u
z
z
u
y
y
u
x
x −
=
−
=
−
,
denominadas equações normais da recta e denominam-se parâmetros directores
da recta. Observe-se que a recta tem a direcção da normal ao plano de equação
.
3
2
1 u
,
u
,
u
0
z
u
y
u
x
u 3
2
1 =
+
+
Suponhamos agora que somente uma das coordenadas do vector u é nula, por exemplo
. Então, as equações paramétricas são dadas por
3
u





=
λ
+
=
λ
+
=
0
2
0
1
0
z
z
u
y
y
u
x
x
, ∈
λ IR,
e as equações normais por
0
2
0
1
0
z
z
u
y
y
u
x
x
=
∧
−
=
−
.
Para os outros casos é semelhante.
Se 0
u ≠ , podemos sucessivamente escrever
3
( )
( ) 


+
=
+
=
⇔







−
+
=
−
+
=
⇔









λ
=
−
λ
+
=
λ
+
=
⇔





λ
+
=
λ
+
=
λ
+
=
q
nz
y
p
mz
x
z
z
u
u
y
y
z
z
u
u
x
x
u
z
z
u
y
y
u
x
x
u
z
z
u
y
y
u
x
x
0
3
2
0
0
3
1
0
3
0
2
0
1
0
3
0
2
0
1
0
e obter as denominadas equações reduzidas da recta, em que
0
3
2
0
0
3
1
0
3
2
3
1
z
u
u
y
q
e
z
u
u
x
p
,
u
u
n
,
u
u
m −
=
−
=
=
= .
Como e , então
3
1 mu
u = 3
2 nu
u = ( ) ( )
1
,
n
,
m
u
u
,
u
,
u 3
3
2
1 = (m, n e 1 são parâmetros
directores da recta). Observe-se que a equação p
mz
x +
= é a equação de um plano paralelo
a OY (que é o plano projectante da recta em XOZ) e a equação q
nz
y +
= é a equação de
um plano paralelo a OX (que é o plano projectante da recta em YOZ). É evidente que ambos
contêm a recta. Para os outros casos é semelhante.
Pelo que vimos antes e no estudo do plano, sabemos que uma recta pode ser definida
por dois planos não paralelos. Durante o estudo do plano concluímos que o sistema



=
′
+
′
+
′
+
′
=
+
+
+
0
D
z
C
y
B
x
A
0
D
Cz
By
Ax
representa uma recta se, e somente se, é possível, simplesmente indeterminado. Deste modo,
pelo menos um dos menores de 2ª ordem
72
B
A
B
A
′
′
,
C
B
C
B
′
′
,
A
C
A
C
′
′
é não nulo. Como os vectores 3
2
1 Ce
Be
Ae
u +
+
= e u 3
2
1 e
C
e
B
e
A ′
+
′
+
′
=
′ dão as direcções
das normais àqueles planos, a recta (que é a intersecção dos planos) tem a direcção de u
u ′
∧ ,
isto é, tem direcção de
3
2
1 e
B
A
B
A
e
A
C
A
C
e
C
B
C
B
′
′
+
′
′
+
′
′
.
Assim, se é um ponto da recta, podemos obter uma equação vectorial da recta
0
P
( )
u
u
P
P 0
′
∧
λ
+
=
ou as equações normais da recta
B
A
B
A
z
z
A
C
A
C
y
y
C
B
C
B
x
x 0
0
0
′
′
−
=
′
′
−
=
′
′
−
.
Estudemos agora como definir uma recta a partir de dois pontos:
. Observe-se que a recta tem a direcção do vector
( )
0
0
0
0 z
,
y
,
x
P e
( 1
1
1
1 z
,
y
,
x
P ) 0
P
−
1
1
0 P
P
P = . Assim, a
equação vectorial/equação matricial vem dada por
( )
0
1
0 P
P
P
P −
λ
+
= , ∈
λ IR,
as equações paramétricas por
( )
(
( )





−
λ
+
=
−
λ
+
=
−
λ
+
=
0
1
0
0
1
0
0
1
0
z
z
z
z
y
y
y
y
x
x
x
x
), ∈
λ IR,
e as equações normais por
0
1
0
0
1
0
0
1
0
z
z
z
z
y
y
y
y
x
x
x
x
−
−
=
−
−
=
−
−
.
Observação: Três pontos, ( )
0
0
0
0 z
,
y
,
x
P , ( )
1
1
1
1 z
,
y
,
x
P e ( )
2
2
2
2 z
,
y
,
x
P , são colineares se, e
somente se,
0
1
0
2
0
1
0
2
0
1
0
2
z
z
z
z
y
y
y
y
x
x
x
x
−
−
=
−
−
=
−
−
ou, equivalentemente, se, e somente se, a matriz










1
z
y
x
1
z
y
x
1
z
y
x
2
2
2
1
1
1
0
0
0
tiver característica igual a 2.
73
Equação Geral dos Planos que Passam por uma Recta
Considere-se a recta r definida por



=
′
+
′
+
′
+
′
=
+
+
+
0
D
z
C
y
B
x
A
0
D
Cz
By
Ax
:
r
É óbvio que a equação
( ) ( ) 0
D
z
C
y
B
x
A
D
Cz
By
Ax =
′
+
′
+
′
+
′
β
+
+
+
+
α ,
representa uma família de planos que contêm a recta r, desde que pelo menos um dos
parâmetros reais α e β seja não nulo. Temos assim uma equação que define um feixe de
planos em que a recta é a charneira do feixe.
Equação Geral das Rectas que Passam por um Ponto
Seja um ponto. A equação geral das rectas que passam por é dada
por
( 0
0
0
0 z
,
y
,
x
P ) 0
P
c
z
z
b
y
y
a
x
x 0
0
0 −
=
−
=
−
,
onde os parâmetros directores são tais que a . Temos assim equações que
definem uma estrela de rectas:
0
c
b 2
2
2
≠
+
+
Nota: Se algum dos denominadores é nulo, também o numerador deve ser nulo.
Posições Relativas de Rectas e/ou Planos
Posição relativa de uma recta e um plano: Considere-se uma recta e um plano definidos por



=
+
+
+
=
+
+
+
0
D
z
C
y
B
x
A
0
D
z
C
y
B
x
A
:
r
2
2
2
2
1
1
1
1
0
D
z
C
y
B
x
A
: 3
3
3
3 =
+
+
+
π .
74
Sabemos que a recta r é definida por dois planos não paralelos. Logo, o estudo deste caso tem
partes em comum com o estudo da posição relativa de três planos. À semelhança do estudo
feito nesse caso, tomemos a matriz dos coeficientes e a matriz ampliada do sistema definido
pelas três equações:










=
3
3
3
2
2
2
1
1
1
C
B
A
C
B
A
C
B
A
M , .










=
′
3
3
3
3
2
2
2
2
1
1
1
1
D
C
B
A
D
C
B
A
D
C
B
A
M
1. Se (sistema possível e determinado), a recta e o plano têm um ponto em
comum:
3
M
Car =
r
π
2. Se e Car (sistema impossível), a recta e o plano são paralelos
2
M
Car = 3
M =
′
π
r
3. Se (o sistema é possível indeterminado, isto é, o sistema tem uma
infinidade de soluções), a recta está contida no plano
M
Car
2
M
Car ′
=
=
r
π
Posição relativa de duas rectas: Considerem-se duas rectas definidas por:
1
1
1
1
1
1
1
c
z
z
b
y
y
a
x
x
:
r
−
=
−
=
−
2
2
2
2
2
2
2
c
z
z
b
y
y
a
x
x
:
r
−
=
−
=
−
.
Observe-se que é um caso particular de posição relativa de quatro planos e que os vectores
e
( )
1
1
1
1 c
,
b
,
a
u = ( )
2
2
2
2 c
,
b
,
a
u = têm a direcção das rectas e , respectivamente.
1
r 2
r
1. Se isto é,
,
0
u
u 2
1 =
∧
2
1
2
1
2
1
c
c
b
b
a
a
=
= , as rectas têm a mesma direcção e:
i) se ( ) 2
1
1
1
1 r
z
,
y
,
x
P ∈ , as rectas são coincidentes.
75
ii) se ( ) 2
1
1
1
1 r
z
,
y
,
x
P ∉ , as rectas são paralelas.
2. Se as rectas não têm a mesma direcção.
,
0
u
u 2
1 ≠
∧
i) Se ( )
( as rectas são concorrentes.
) ,
0
u
u
P
P 2
1
2
1 =
∧
−
1
r
1
P
2
P
2
1 u
u ∧ 2
1 P
P −
ii) Se ( )
( as rectas são enviesadas.
,
0
u
u
P
P 2
1
2
1 ≠
∧
−
2
1 P
−
P
2
1 u
u ∧
2
r
)
2
P
1
P
1
r
2
r
Ângulos
Ângulo de duas rectas: Sejam e duas rectas. Sabemos que o ângulo formado pelas
rectas e r é o menor ângulo formado por duas rectas complanares, uma delas com a
direcção de r e a outra com a direcção de . Se
1
r 2
r
1
r 2
1 2
r θ é esse ângulo, então 




 π
∈
θ
2
,
0 e
. Assim, dados os vectores e , directores das rectas r e , respectivamente, o
ângulo das rectas é o menor dos ângulos formados por u e ou u e (suplementar do
ângulo formado por e ). Portanto o ângulo
0
cos ≥
θ 1
u 2
u 1
1
2
r
−
1 2
u 2
u
1
u 2
u θ fica definido por meio da igualdade
( )
2
1
2
1
u
u
u
u
cos
⋅
=
θ .
Ângulo de dois planos: Sejam π e
1 2
π dois planos e e vectores perpendiculares a
e , respectivamente. O ângulo dos planos
1
w 2
w
1
π 2
π 1
π e 2
π é o menor dos ângulos formados
pelos vectores e ou e
1
w 2
w 1
w 2
w
− (suplementar do ângulo formado por e ).
Assim, se é esse ângulo (
1
w 2
w
θ 


cos



,
π
θ
2
∈ 0 e 0
≥
θ ), então
( )
2
1
2
1
w
w
w
w
cos
⋅
=
θ .
76
Ângulo de uma recta com um plano: Sejam π um plano, w um vector perpendicular ao
plano , r uma recta e u um vector director da recta r. O ângulo da recta com o plano é o
complementar do ângulo formado por r com uma recta perpendicular ao plano. Assim, se
π
θ é
esse ângulo ( 




 π
∈
θ
2
,
0 e ), então
0
cos ≥
θ
( )
w
u
w
u
sen
⋅
=
θ .
Observação: As fórmulas anteriores são válidas em qualquer referencial. No caso particular
em que o referencial é o.n., as fórmulas podem tomar outro aspecto. Por exemplo, para o
ângulo de dois planos, se
0
D
z
C
y
B
x
A
:
e
0
D
z
C
y
B
x
A
: 2
2
2
2
2
1
1
1
1
1 =
+
+
+
π
=
+
+
+
π ,
então





 π
∈
θ
+
+
+
+
+
+
=
θ
2
0,
,
C
B
A
C
B
A
C
C
B
B
A
A
cos
2
2
2
2
2
2
2
1
2
1
2
1
2
1
2
1
2
1
.
Casos Particulares: Paralelismo e perpendicularidade.
Paralelismo Perpendicularidade
Dois Planos
0
D
z
C
y
B
x
A
: 1
1
1
1
1 =
+
+
+
π
0
D
z
C
y
B
x
A
: 2
2
2
2
2 =
+
+
+
π
2
1
2
1
2
1
C
C
B
B
A
A
=
=
2
1 || π
π
0
C
C
B
B
A
A 2
1
2
1
2
1 =
+
+
2
1 π
⊥
π
Duas Rectas
1
1
1
1
1
1
1
c
z
z
b
y
y
a
x
x
:
r
−
=
−
=
−
2
2
2
2
2
2
2
c
z
z
b
y
y
a
x
x
r
−
=
−
=
−
2
1
2
1
2
1
c
c
b
b
a
a
=
=
2
1 r
||
r
0
c
c
b
b
a
a 2
1
2
1
2
1 =
+
+
2
1 r
r ⊥
Recta e Plano
c
z
z
b
y
y
a
x
x
:
r 0
0
0 −
=
−
=
−
0
D
Cz
By
Ax
: =
+
+
+
π
0
Cc
Bb
Aa =
+
+
π
||
r c
C
b
B
a
A
=
=
π
⊥
r
Distâncias
Seja ( um referencial o.n..
)
3
2
1 e
,
e
,
e
;
O
Distância entre dois pontos: Sejam ( )
1
1
1
1 z
,
y
,
x
P e ( )
2
2
2
2 z
,
y
,
x
P . Então
( ) ( ) ( ) ( )2
2
1
2
2
1
2
2
1
2
1
2
1 z
z
y
y
x
x
P
P
P
,
P
d −
+
−
+
−
=
= .
77
Distância de um ponto a um plano: Sejam ( )
0
0
0
0 z
,
y
,
x
P e 0
D
Cz
By
Ax
: =
+
+
+
π .
1. Suponhamos que o plano está definido por um ponto
π ( )
1
1
1
1 z
,
y
,
x
P e duas direcções u e
v (ou pela direcção da normal, w). Observe-se a seguinte figura:
0
P
M
1
P
P
e recorde-se que
( ) x
proj
y
y
proj
x
cos
y
x
y
x y
x ⋅
=
⋅
=
θ
⋅
= ,
com ângulo formado pelos vectores x e y. Então,
θ
( )
( )
P
P
P
P
P
P
P
P
proj
M
P
,
P
d
0
1
0
0
1
0
P
P
0
0
0
=
=
=
π .
Podemos escolher para vector P
P0 , perpendicular ao plano, o vector ou w. Logo,
v
u ∧
( )
( )
v
u
P
P
v
u
,
P
d
1
0
0
∧
∧
=
π ou ( )
( )
w
P
P
w
,
P
d
1
0
0 =
π .
2. Se é definido por três pontos podemos fazer
π ,
P
,
P
,
P 3
2
1 2
1P
P
=
u e 3
1P
P
v = e temos que
( )
( )
3
1
2
1
1
0
3
1
2
1
0
P
P
P
P
P
P
P
P
P
P
,
P
d
∧
∧
=
π .
3. Se , já sabemos que se é a origem O,
0
D
Cz
By
Ax
: =
+
+
+
π 0
P
( ) 2
2
2
0
C
B
A
D
,
P
d
+
+
=
π .
Agora, para um ponto qualquer , basta efectuar uma translação do referencial
escolhendo para origem do referencial:
0
P
0
P
P
O
0
P
78





′
+
=
′
+
=
′
+
=
+
=
z
z
z
y
y
y
x
x
x
P
P
OP
OP
0
0
0
0
0
Logo, a nova equação de no novo referencial é
π
( ) ( ) ( ) 0
D
z
z
C
y
y
B
x
x
A 0
0
0 =
+
′
+
+
′
+
+
′
+ ,
isto é,
( ) 0
D
Cz
By
Ax
z
C
y
B
x
A 0
0
0 =
+
+
+
+
′
+
′
+
′ .
Consequentemente,
( ) 2
2
2
0
0
0
0
C
B
A
D
Cz
By
Ax
,
P
d
+
+
+
+
+
=
π .
Plano Bissector de um Diedro: Sejam
0
D
z
C
y
B
x
A
: 1
1
1
1
1 =
+
+
+
π e 0
D
z
C
y
B
x
A
: 2
2
2
2
2 =
+
+
+
π
dois planos concorrentes. Os planos bissectores dos diedros formados por π e π é o lugar
geométrico dos pontos P equidistantes de
1 2
( z
,
y
,
x ) 1
π e 2
π , isto é, os pontos tais que
. Ou seja,
( z
,
y )
)
,
x
P
( ) ( 2
1 ,
P
d
,
P
d π
=
π
2
2
2
2
2
2
2
2
2
2
2
1
2
1
2
1
1
1
1
1
C
B
A
D
z
C
y
B
x
A
C
B
A
D
z
C
y
B
x
A
+
+
+
+
+
±
=
+
+
+
+
+
.
Temos assim dois planos, definidos pelos sinais + e − :
2
π
1
π
Distância de uma recta a um plano (paralelos): Basta calcular a distância de um ponto da
recta ao plano. Assim, se
c
z
z
b
y
y
a
x
x
:
r 0
0
0 −
=
−
=
−
e 0
D
Cz
By
Ax
: =
+
+
+
π ,
então
79
( ) ( ) 2
2
2
0
0
0
0
C
B
A
D
Cz
By
Ax
,
P
d
,
r
d
+
+
+
+
+
=
π
≡
π ,
com .
r
P0 ∈
Distância entre dois planos (paralelos): Basta calcular a distância de um ponto de um dos
planos ao outro plano. Assim, se
0
D
z
C
y
B
x
A
: 1
1
1
1
1 =
+
+
+
π , 0
D
z
C
y
B
x
A
: 2
2
2
2
2 =
+
+
+
π
e , então
( ) 2
0
0
0
0 z
,
y
,
x
P π
∈
( ) ( ) 2
1
2
1
2
1
1
0
1
0
1
0
1
0
1
2
1
C
B
A
D
z
C
y
B
x
A
P
,
d
,
d
+
+
+
+
+
=
π
≡
π
π .
Esta fórmula pode ainda tomar outro aspecto. Como os planos são paralelos, então
2
1
2
1
2
1
C
C
B
B
A
A
=
= .
Multiplicando a equação que define 2
π por
2
1
A
A
e fazendo 0
2
1
2 D
A
A
D = , obtemos uma nova
equação para :
2
π 0
z
C
y
B
x
A 1
1
1 D0 =
+
+
+ . Como ( ) 2
0
0 z
,
0
0 y
,
x
P π
∈ , então
0
0
1
0
1
0
1 D
z
C
y
B
x
A −
=
+
+ ,
e substituindo na fórmula da distância antes obtida, resulta
( ) 2
1
2
1
2
1
0
1
2
1
C
B
A
D
D
,
d
+
+
−
=
π
π , com 2
2
1
0 D
A
A
D = .
Distância de um ponto a uma recta : Sejam
( )
0
0
0
0 z
,
y
,
x
P e
c
z
z
b
y
y
a
x
x
:
r 1
1
1 −
=
−
=
−
.
Observando-se a figura seguinte,
0
P
r
M
1
P θ
concluímos que ( ) θ
=
= sen
P
P
MP
r
,
P
d 0
1
0
0 . No entanto, não é necessário conhecer o ângulo
, pois sabemos que
θ
( )
r
,
P
d
u
sen
P
P
u
P
P
u 0
0
1
0
1 ⋅
=
θ
⋅
=
∧ ,
com e consequentemente,
( c
,
b
,
a
u = )
80
( )
u
P
P
u
r
,
P
d
0
1
0
∧
= .
Exercício: Verifique que também é verdadeira a fórmula seguinte:
( )
( )
u
u
P
P
u
P
P
r
,
P
d
2
0
1
2
2
0
1
0
−
=
Distância entre duas rectas (paralelas ou enviesadas): Sejam
1
1
1
1
1
1
1
c
z
z
b
y
y
a
x
x
:
r
−
=
−
=
−
e
2
2
2
2
2
2
2
c
z
z
b
y
y
a
x
x
:
r
−
=
−
=
−
,
sendo e os vectores directores e
( )
1
1
1
1 c
,
b
,
a
u = ( 2
2
2
2 c
,
b
,
a
u = ) ( )
1
1
1
1 z
,
y
,
x
P e
pontos de e , respectivamente.
( )
2
2
2
2 z
,
y
,
x
P
1
r 2
r
1. Se , então as rectas são paralelas e temos de imediato que
0
u
u 2
1 =
∧
( ) ( ) ( )
1
2
1
1
2
1
2
1
2
1
u
P
P
u
P
,
r
d
r
,
P
d
r
,
r
d
∧
=
=
= .
2. Se , as rectas não são paralelas e
0
u
u 2
1 ≠
∧ 2
1 u
u ∧ dá a direcção perpendicular a ambas
as rectas. Se as rectas são enviesadas, a distância entre as rectas e é a norma da
projecção de
1
r 2
r
2
P
1
P sobre u , isto é,
2
1 u
∧
( )
( )
2
1
2
1
2
1
2
1
u
u
2
1
u
u
P
P
u
u
P
P
proj
r
,
r
d 2
1
∧
∧
=
= ∧ .
Observação: Se as rectas são concorrentes, então definem um plano perpendicular a 2
1 u
u ∧
e 0
P
P
proj 2
1
u
u 2
1
=
∧ . Consequentemente, ( ) 0
r
,
r
d 2
1 = .
81
Estudo das Quádricas com as Equações na Forma Canónica
Definição 6.8: Uma quádrica é um conjunto de pontos de R
3
cujas coordenadas cartesianas
satisfazem uma equação algébrica inteira do 2º grau.
A equação de uma quádrica é então da forma:
0
a
z
a
2
z
a
y
a
2
yz
a
2
y
a
x
a
2
xz
a
2
xy
a
2
x
a 44
34
2
33
24
23
2
22
14
13
12
2
11 =
+
+
+
+
+
+
+
+
+
Se designarmos por A a matriz simétrica tal que [ ]
ij
a
=
A e por X a matriz coluna tal que
, então a equação de uma quádrica pode escrever-se na forma matricial:
[ T
1
z
y
x
X = ]
0
AX
XT
= .
Por meio de uma apropriada mudança de referencial (translação da origem e mudança
de base), é possível, para o referencial o.n. escolhido, obter uma equação simplificada da
quádrica, chamada equação canónica (ou equação reduzida).
Equações das quádricas na forma reduzida:
1. Considere-se a equação
1
c
z
b
y
a
x
2
2
2
2
2
2
=
+
+ .
A quádrica representada por esta equação denomina-se elipsóide. Estudemos as
particularidades desta quádrica observando as projecções (ou traço) sobre os planos
coordenados:
- Traço em XOY ( 0
z = ): 1
b
y
a
x
2
2
2
2
=
+ (elipse);
- Traço em YOZ ( 0
x = ): 1
c
z
b
y
2
2
2
2
=
+ (elipse);
- Traço em XOZ ( 0
y = ): 1
c
z
a
x
2
2
2
2
=
+ (elipse).
Assim, obtemos a figura seguinte para um elipsóide:
Os parâmetros a, b e c são os semi-eixos.
82
Se a , o elipsóide é de revolução em torno do eixo OZ;
b
=
Se , o elipsóide é de revolução em torno do eixo OY;
c
a =
Se , o elipsóide é de revolução em torno do eixo OX.
c
b =
Se b
a =
= , obtemos a equação , que é a equação de uma esfera
de raio r e centro na origem.
r
c = 2
2
2
2
r
z
y
x =
+
+
Nota: Em geral, a equação de uma esfera de centro ( )
0
0
0 z
,
y
,
x e raio r é dada por
( ) ( ) ( ) 2
2
0
2
0
2
0 r
z
z
y
y
x
x =
−
+
−
+
−
2. Considere-se a equação
1
c
z
b
y
a
x
2
2
2
2
2
2
=
−
+ .
A quádrica representada por esta equação denomina-se hiperbolóide de uma folha.
- Traço em XOY : 1
b
y
a
x
2
2
2
2
=
+ (elipse);
- Traço em YOZ : 1
c
z
b
y
2
2
2
2
=
− (hipérbole);
- Traço em XOZ: 1
c
z
a
x
2
2
2
2
=
− (hipérbole);
- Num plano horizontal, isto é, fazendo-se k
z = , obtemos 2
2
2
2
2
2
c
k
1
b
y
a
x
+
=
+ (elipse).
Assim, obtemos a figura seguinte para um hiperbolóide de uma folha:
a e b são ditos semi-eixos reais e c semi-eixo imaginário.
Se b
a = o hiperbolóide é de revolução em torno do eixo OZ (eixo do hiperbolóide).
83
Outros hiperbolóides de uma folha:
1
c
z
b
y
a
x
2
2
2
2
2
2
=
+
− e 1
c
z
b
y
a
x
2
2
2
2
2
2
=
+
+
− .
A equação de um hiperbolóide pode escrever-se de outra forma. Por exemplo,
considere-se a equação
1
c
z
b
y
a
x
2
2
2
2
2
2
=
−
+
e observe a seguinte sequência de equivalências:
,
b
y
1
c
z
a
x
b
y
1
c
z
a
x
b
y
1
b
y
1
c
z
a
x
c
z
a
x
b
y
1
c
z
a
x
1
c
z
b
y
a
x
2
2
2
2
2
2
2
2
2
2
2
2







−
=






−
λ






+
λ
=
+
⇔






−






+
=






−






+
⇔
−
=
−
⇔
=
−
+
λ
com arbitrário.
O sistema obtido representa, para cada valor de λ , uma recta que pertence à quádrica,
isto é, a superfície é formada por este conjunto de rectas!
Analogamente, também é equivalente ao sistema:
,
b
y
1
c
z
a
x
b
y
1
c
z
a
x







+
=






−
µ






−
µ
=
+
com µ arbitrário.
Assim, esta superfície diz-se duplamente regrada: por cada um dos seus pontos passam duas
rectas (geratrizes) que estão sobre a superfície.
Nota: Duas diferentes geratrizes do mesmo sistema são enviesadas.
3. Considere-se a equação
1
c
z
b
y
a
x
2
2
2
2
2
2
=
−
− .
A quádrica que é definida por esta equação denomina-se hiperbolóide de duas folhas.
- Traço em XOY : 1
b
y
a
x
2
2
2
2
=
− (hipérbole);
84
- Traço em YOZ : 1
c
z
b
y
2
2
2
2
=
−
− (conjunto vazio);
- Traço em XOZ : 1
c
z
a
x
2
2
2
2
=
− (hipérbole);
- Traço num plano k
x = , onde a
k  , obtemos 1
a
k
c
z
b
y
2
2
2
2
2
2
−
=
+ (elipse).
Assim, obtemos a figura seguinte para um hiperbolóide de duas folhas:
a é o semi-eixo real e b, c os semi-eixos imaginários.
Se , o hiperbolóide de duas folhas é de revolução em torno do eixo OX.
c
b =
Outros hiperbolóides de duas folhas:
1
c
z
b
y
a
x
2
2
2
2
2
2
=
+
−
− e 1
c
z
b
y
a
x
2
2
2
2
2
2
=
−
+
− .
4. Considere-se a equação
1
c
z
b
y
a
x
2
2
2
2
2
2
=
−
−
− .
É evidente que esta equação representa o conjunto vazio.
5. Dada a equação
0
c
z
b
y
a
x
2
2
2
2
2
2
=
+
+ ,
o único ponto pertencente ao conjunto definido por ela é a origem de R
3
({ ).
}
O
6. Considere-se agora a equação
0
c
z
b
y
a
x
2
2
2
2
2
2
=
−
+ .
A quádrica representada por esta equação denomina-se cone (ou superfície cónica).
- Traço em XOY : ( )
0
,
0
,
0
{ (origem);
}
- Traço em YOZ :
c
z
b
y
±
= (duas rectas concorrentes);
85
- Traço em XOZ :
c
z
a
x
±
= (duas rectas concorrentes);
- Traço num plano k
z = : 2
2
2
2
2
2
c
k
b
y
a
x
=
+ (elipse).
Assim, obtemos a figura seguinte para uma superfície cónica:
Se , o cone é de revolução em torno do eixo OZ.
b
a =
É uma superfície simplesmente regrada, pois







+
=
µ






−
µ
=
⇔
−
=
⇔
=
−
+
b
y
c
z
a
x
b
y
c
z
a
x
b
y
c
z
a
x
0
c
z
b
y
a
x
2
2
2
2
2
2
2
2
2
2
2
2
, com µ arbitrário.
Outras superfícies cónicas:
0
c
z
b
y
a
x
2
2
2
2
2
2
=
+
− e 0
c
z
b
y
a
x
2
2
2
2
2
2
=
−
− .
7. Se agora a equação for
pz
2
b
y
a
x
2
2
2
2
=
+ , com 0
p ≠ ,
ela representa uma quádrica denominada parabolóide elíptico.
- Traço em XOY : ( )
0
,
0
,
0
{ (origem);
}
- Traço em YOZ : pz
2
b
y
2
2
= (parábola);
- Traço em XOZ : pz
2
a
x
2
2
= (parábola);
- Traço num plano 0
k
z 
= :






=
+

∅
0.
p
se
(elipse),
pk
2
b
y
a
x
0;
p
se
),
(
vazio
conjunto
2
2
2
2
86
Traço num plano z :
0
k 
=






=
+

∅
0.
p
se
(elipse),
pk
2
b
y
a
x
0;
p
se
),
(
vazio
conjunto
2
2
2
2
Assim, obtemos as figuras seguintes para parabolóides elípticos:
Outros parabolóides elípticos:
py
2
c
z
a
x
2
2
2
2
=
+ , com (eixo OY) e
0
p ≠ px
2
c
z
b
y
2
2
2
2
=
+ , com (eixo OX).
0
p ≠
8. Seja a equação
pz
2
b
y
a
x
2
2
2
2
=
− , com 0
p ≠ .
A superfície com esta equação denomina-se parabolóide hiperbólico (ou sela).
- Traço em XOY : 2
2
2
2
b
y
a
x
= (duas rectas);
- Traço em YOZ : pz
2
b
y
2
2
=
− (parábola);
- Traço em XOZ : pz
2
a
x
2
2
= (parábola);
- Traço num plano k
z = : pk
2
b
y
a
x
2
2
2
2
=
− (hipérbole).
Assim, obtemos a figura seguinte para um parabolóide hiperbólico:
z
y
x
Esta superfície é duplamente regrada, pois
87
pz
2
b
y
a
x
b
y
a
x
pz
2
b
y
a
x
2
2
2
2
=






−






+
⇔
=
−
é equivalente a







=






−
λ
λ
=
+
pz
2
b
y
a
x
b
y
a
x
e a







=






+
µ
µ
=
−
pz
2
b
y
a
x
b
y
a
x
,
cujas geratrizes são paralelas aos planos 0
b
y
a
x
:
1 =
+
π e 0
b
y
a
x
:
2 =
−
π , respectivamente.
Estes planos são ditos planos directores.
Outros parabolóides hiperbólicos:
py
2
c
z
a
x
2
2
2
2
=
− e px
2
c
z
b
y
2
2
2
2
=
− , com p 0
≠ .
9. Se a equação for dada por
1
b
y
a
x
2
2
2
2
=
+ ,
temos uma quádrica denominada cilindro elíptico.
- Traço em XOY : 1
b
y
a
x
2
2
2
2
=
+ (elipse);
- Traço em YOZ : b
y ±
= (duas rectas paralelas);
- Traço em XOZ : a
x ±
= (duas rectas paralelas);
Assim, obtemos a figura seguinte para um cilindro elíptico:
É uma superfície simplesmente regrada, pois
88







+
=
λ






−
λ
=
⇔
−
=
⇔
=
+
b
y
1
a
x
b
y
1
a
x
b
y
1
a
x
1
b
y
a
x
2
2
2
2
2
2
2
2
, com λ arbitrário,
sendo as geratrizes perpendiculares ao plano XOY.
Outros cilindros elípticos:
1
c
z
a
x
2
2
2
2
=
+ e 1
c
z
b
y
2
2
2
2
=
+ .
10. A equação
1
b
y
a
x
2
2
2
2
=
−
representa a quádrica denominada cilindro hiperbólico.
- Traço em XOY : 1
b
y
a
x
2
2
2
2
=
− (hipérbole);
- Traço em YOZ : conjunto vazio (∅);
- Traço em XOZ : a
x ±
= (duas rectas paralelas);
Assim, obtemos a figura seguinte para um cilindro hiperbólico:
É uma superfície simplesmente regrada, pois







=






+
λ
λ
=
−
⇔
=
−
1
b
y
a
x
b
y
a
x
1
b
y
a
x
2
2
2
2
.
Outros cilindros hiperbólicos:
1
a
x
b
y
2
2
2
2
=
− , 1
c
z
a
x
2
2
2
2
=
− , 1
a
x
c
z
2
2
2
2
=
− , 1
c
z
b
y
2
2
2
2
=
− e 1
b
y
c
z
2
2
2
2
=
− .
11. Se a equação é dada por
0
b
y
a
x
2
2
2
2
=
+ ,
89
obtemos uma recta, pois , que é o eixo OZ. Analogamente, também são rectas
0
y
x =
=
0
c
z
b
y
e
0
c
z
a
x
2
2
2
2
2
2
2
2
=
+
=
+ .
12. Se a equação é dada por
0
b
y
a
x
2
2
2
2
=
− ,
obtemos um par de planos (
b
y
a
x
±
= ) concorrentes em OZ. Analogamente, também obtemos
pares de planos se
0
c
z
a
x
2
2
2
2
=
− e 0
c
z
b
y
2
2
2
2
=
− .
13. As equações
1
b
y
a
x
2
2
2
2
=
−
− , 1
c
z
a
x
2
2
2
2
=
−
− e 1
c
z
b
y
2
2
2
2
=
−
− ,
representam o conjunto vazio.
14. Considere-se a equação
py
2
x2
= , com 0
p ≠ .
A quádrica representada por esta equação denomina-se cilindro parabólico.
- Traço em XOY : (parábola);
py
2
x2
=
- Traço em YOZ : eixo OZ;
- Traço em XOZ : eixo OZ.
Assim, obtemos a figura seguinte para um cilindro parabólico:
É uma superfície regrada, pois



=
λ
λ
=
⇔
=
py
2
x
x
py
2
x2
.
90
Outros cilindros parabólicos:
pz
2
x2
= , , , e z , com .
px
2
y2
= pz
2
y2
= px
2
z2
= py
2
2
= 0
p ≠
15. A quádrica com a equação
1
a
x
2
2
= ,
reduz-se a dois planos paralelos, pois a
x
1
a
x
2
2
±
=
⇔
= . Analogamente, obtemos planos
paralelos se a equação é dada por 1
b
y
2
2
= ou dada por 1
c
z
2
2
= .
16. No caso da equação
1
a
x
2
2
=
− ,
temos o conjunto vazio. Analogamente para 1
b
y
2
2
=
− e 1
c
z
2
2
=
− .
17. No caso da equação , temos pares de planos coincidentes. Analogamente para
0
x2
=
0
y2
= e .
0
z2
=
No caso geral de uma equação de uma quádrica, pode mostrar-se que se fizermos uma
translação que leve a origem para um centro da quádrica (caso exista), a nova equação tem os
mesmos termos do 2º grau, não tem termos do 1º grau e o termo independente obtém-se
substituindo as coordenadas do centro no primeiro membro da equação inicial.
Para se reduzir às direcções principais é necessário uma mudança de base apropriada.
Esta mudança de base existe já que a matriz A (ver início do estudo da quádricas) é
diagonalizável, isto é, a mudança é feita para uma base o.n. constituída pelos vectores
próprios associados aos valores próprios de A. Por exemplo, 9
é a equação de um elipsóide de centro na origem, cujos eixos não são os eixos coordenados.
No entanto, os valores próprios da matriz
0
32
z
32
xy
14
y
9
x 2
2
2
=
−
+
+
+












−
=
32
0
0
0
0
32
0
0
0
0
9
7
0
0
7
9
A
são 2, 16, 32 e –32, e deste modo, da mudança da base canónica para uma base o.n. de
vectores próprios associados a estes valores próprios, obtém-se uma nova equação para o
elipsóide que é dada por , isto é,
0
32
z
32
y
16
x
2 2
2
2
=
−
+
+
1
z
2
y
16
x 2
2
2
=
+
+ .
91
7 BIBLIOGRAFIA
Dias Agudo, F.R. (1989). Introdução à Álgebra Linear e Geometria Analítica.
Livraria Escolar Editora.
Fernandes de Carvalho, J. A. (1977). Álgebra e Geometria I. Instituto Politécnico
da Covilhã
Giraldes, E. e outros (1995). Álgebra Linear e Geometria Analítica. Editora
McGraw-Hill.
Gregório, L. e Ribeiro, C.S. (1985). Álgebra Linear. Editora McGraw-Hill.
Lispchutz, S.. Álgebra Linear. Colecção Schaum. Editora McGraw-Hill.
Magalhães, L.T. (1993). Álgebra Linear como Introdução à Matemática Aplicada.
Texto Editora.
Sampaio Martins, J.. Transparências de Álgebra Linear e Geometria Analítica.
Universidade da Beira Interior.
92

Apostila de Algebra Linear.pdf

  • 1.
    UNIVERSIDADE DA BEIRAINTERIOR Apontamentos Teóricos de Álgebra Linear e Geometria Analı́tica Cristina Gama Jorge Gama Ano Lectivo 2001/2002
  • 2.
    1 ESTRUTURAS ALGÉBRICAS Osconceitos que se seguem servirão de suporte aos objectivos da disciplina. Esses conceitos são as estruturas de grupo, anel e corpo. No final do capı́tulo faremos um estudo mais aprofundado do corpo dos números complexos. Definição 1.1 Seja A um conjunto não vazio. Chama-se operação binária ou lei de composição interna no conjunto A a qualquer aplicação definida do conjunto A×A (produto cartesiano de A por A) em A, isto é, se representarmos por θ essa aplicação, então θ : A × A → A (a, b) 7→ θ(a, b) No caso das operações binárias é usual escrever-se aθb no lugar de θ(a, b). Passaremos a usar essa notação. Exemplos: 1. No conjunto N, a adição e a multiplicação usuais são operações binárias. 2. No conjunto Z a adição e a multiplicação usuais são operações binárias. 3. Em Q ou R a adição e a multiplicação usuais são operações binárias. 4. A subtracção é uma operação binária em N? E em Z? 5. A divisão é uma operação binária em N, Z, Q, ou R? E em Q {0} ou R {0}? 6. Se em N0 definirmos ∗ : N0 ×N0 → N0 tal que a∗b = a+b+1, ∗ é uma operação binária. Definição 1.2 Seja A um conjunto, não vazio, e θ uma operação binária definida em A. Diz-se que (A, θ) é um grupo quando se verificam os seguintes axiomas: G1. ∀a, b, c ∈ A, (aθb)θc = aθ(bθc) (Associatividade) G2. ∃u ∈ A : ∀a ∈ A, aθu = uθa = a (Existência de elemento neutro) G3. ∀a ∈ A, ∃a0 ∈ A : aθa0 = a0 θa = u (Existência de elemento oposto) No caso em que a operação é também comutativa, isto é, G4. ∀a, b ∈ A, aθb = bθa o grupo (A, θ) diz-se comutativo ou abeliano. Observações: 1
  • 3.
    1. É usualdesignarem-se as operações binárias por adição ou multiplicação, representadas respectivamente por + e · (não é necessário que tenham alguma coisa a ver com a adição e multiplicação usuais). 2. No contexto da observação anterior, o elemento neutro designa-se por zero (0), se a operação é uma adição, e designa-se por identidade (1), se a operação é uma multi- plicação. Analogamente, se a operação é uma adição, o oposto de um elemento a chama-se simétrico (representa-se por −a), se a operação é uma multiplicação, o oposto chama-se inverso (representa-se por a−1 ). Exercı́cio: Seja A um conjunto e θ uma operação binária definida em A. Em (A, θ), com θ associativa, mostre que a) quando existe elemento neutro, ele é único. b) quando um elemento tem oposto, este é único. Exemplos de Grupos: (Z, +), (Q, +), (R, +), (R {0}, ·), (F, ◦), com F o conjunto de todas as funções bijectivas de um conjunto nele próprio (em particular, o conjunto S3 das permutações de {1, 2, 3} com a composição), etc. Observação: No caso (S3, ◦), os elementos de S3 são I = 1 2 3 1 2 3 T1 = 1 2 3 1 3 2 T2 = 1 2 3 2 1 3 T3 = 1 2 3 2 3 1 T4 = 1 2 3 3 1 2 T5 = 1 2 3 3 2 1 e, por exemplo, T1 ◦ T2 = 1 2 3 1 3 2 ◦ 1 2 3 2 1 3 = T4. Outro exemplo: (Z2, +), onde Z2 = {0, 1} e + está definida por + 0 1 0 0 1 1 1 0 Definição 1.3 Seja (A, θ) um grupo e B um subconjunto não vazio de A. Diz-se que (B, θ) é um subgrupo de (A, θ) se (B, θ) é um grupo em relação à operação binária definida em A. Exercı́cio: Nos exemplos anteriores, verifique quais os grupos que são subgrupos de algum dos outros grupos. 2
  • 4.
    Homomorfismos de Grupos Definição1.4 Sejam (A, θ) e (A0 , σ) dois grupos. Uma aplicação f : A → A0 diz-se um homomorfismo se ∀a, b ∈ A, f(aθb) = f(a)σf(b). Observações: Se f : A → A0 é um homomorfismo, então i) f(u) = u0 (u elemento neutro de (A, θ) e u0 elemento neutro de (A0 , σ)) ii) (f(a))−1 = f(a−1 ). Exemplos: 1. Seja f : R+ → R x 7→ ln(x). f é um homomorfismo do grupo (R+ , ·), no grupo (R, +), já que ln(x · y) = ln(x) + ln(y). 2. A aplicação g : R → R+ x 7→ ex é um homomorfismo de (R, +) no grupo (R+ , ·), já que ex+y = ex · ey . Definição 1.5 Um terno (A, +, ·), com A um conjunto, não vazio, e + e · operações binárias definidas em A, é um anel se: A1. (A, +) é um grupo abeliano; A2. A operação · é associativa; A3. A operação · é distributiva relativamente à operação +, isto é, ∀a, b, c ∈ A, a · (b + c) = (a · b) + (a · c) ∧ (a + b) · c = (a · c) + (b · c). O elemento neutro da primeira operação chama-se zero do anel. Se a segunda operação for comutativa, então o anel diz-se comutativo. Caso o anel A tenha elemento unidade, isto é, se (A, ·) tiver elemento neutro, A diz-se anel com elemento unidade ou anel unitário. Exemplos de Anéis: 1. (Z, +, ·) é um anel comutativo unitário. 2. O conjunto R2 = {(a, b) : a, b ∈ R} com as operações definidas por (a, b) + (c, d) = (a + c, b + d) (a, b) · (c, d) = (ac, bd) é um anel. 3
  • 5.
    Definição 1.6 Umterno (K, +, ·) diz-se um corpo se (K, +, ·) é uma anel comutativo com identidade e todos os elementos de K {0} têm inverso, isto é, (K, +, ·) é um corpo se (K, +) e (K {0}, ·) são grupos comutativos e · é distributiva relativamente a +. Exemplos de Corpos: (Q, +, ·), (R, +, ·), com + e · as operações usuais, e (Z2, +, ·), com + 0 1 0 0 1 1 1 0 · 0 1 0 0 0 1 0 1 Propriedades 1.7 Num corpo são válidas as seguintes proposições: 1. a · 0 = 0 · a = 0 (0 é elemento absorvente da multiplicação) 2. a · b = 0 ⇔ a = 0 ∨ b = 0 (lei do anulamento do produto) Definição 1.8 Sejam (K, +, ·) e (K0 , θ, ∗) dois corpos. A aplicação f : K → K0 diz-se um homomorfismo de corpos se, para todos x, y ∈ K, f(x + y) = f(x)θf(y) e f(x · y) = f(x) ∗ f(y). Se f é bijectiva, f diz-se um isomorfismo. Se K = K0 , f diz-se um endomorfismo. E um endomorfismo bijectivo diz-se um automorfismo. Depois de definirmos todas estas estruturas, podemos estudar mais profundamente um corpo muito importante: Corpo dos Complexos, isto é, C = {(a, b) : a, b ∈ R} munido com as operações: (a, b) + (c, d) = (a + c, b + d) (a, b) · (c, d) = (ac − bd, ad + bc) Exercı́cio: Mostre que (C, +, ·) é um corpo. Observações: 1. Não é difı́cil verificar que (0, 0) é o zero de C e (1, 0) é a unidade de C. 2. Seja S = {(a, 0) : a ∈ R}, subconjunto de C. (S, +, ·) é um corpo para as operações definidas em C. Dado que a aplicação f : (R, +, ·) → (S, +, ·) a 7→ (a, 0) é um isomorfismo de corpos, podemos simplificar a escrita identificando os complexos (a, 0) com o correspondente número real a. 4
  • 6.
    Da definição dadapara a multiplicação em C, resulta (0, 1)2 = (0, 1) · (0, 1) = (0 − 1, 0 + 0) = (−1, 0). Deste modo, o número complexo (0, 1) é solução da equação x2 = −1. O complexo (0, 1) denomina-se unidade imaginária e representa-se pelo sı́mbolo i. Atendendo-se à identificação de (a, 0) com a e (0, 1) com i, é consequência das operações definidas em C a seguinte representação: ∀(a, b) ∈ C : (a, b) = (a, 0) + (0, b) = a + (0, 1) · (b, 0) = a + ib, em que a será chamado parte real do complexo e b parte imaginária do complexo. Em sı́mbolos, se z = a + bi, a = Re(z) e b = Im(z). Os números complexos da forma ib, com b 6= 0, chamam-se imaginários puros. Observe-se que i2 = −1, i3 = −i, i4 = 1, i5 = i, . . . , (a + bi) + (c + di) = (a + c) + (b + d)i, (a + bi) · (c + di) = (ac − bd) + (ad + bc)i. Definição 1.9 Seja z = a+bi um número complexo. Chama-se conjugado de z ao número complexo z = a − bi. Chama-se módulo de z ao número real |z| = √ z · z = √ a2 + b2. Propriedades 1.10 Para todo z, w ∈ C, 1. Re(z) = z + z 2 , 2. Im(z) = z − z 2i , 3. z + w = z + w, 4. z · w = z · w, 5. |z| = |z|, 6. z−1 = z |z|2 = a a2 + b2 − i b a2 + b2 , com z 6= 0, 7. z w = z w Exercı́cio: Calcule: a) (1 − i)(3 − 2i) − (2 − i)(3 + 4i); b) (2 − i)2 − 2 1 + 3i . 5
  • 7.
    Representação Trigonométrica dosNúmeros Complexos Já sabemos que dada uma recta orientada, existe uma correspondência biunı́voca entre cada ponto da recta e o conjunto dos números reais, R. Assim, como identificamos o número complexo (a, 0) com o número real a, os complexos da forma a + i0 serão representados na recta. Como representar, por exemplo, os imaginários puros? Repare-se que uma rotação de 180o em torno da origem corresponde a uma multiplicação por −1. Ora, uma rotação de 90o deverá corresponder a multiplicar por k de modo que k2 = −1. Logo, k terá que ser a unidade imaginária i. Convencionaremos que o sentido positivo das rotações é o sentido contrário ao dos ponteiros do relógio. Portanto, passaremos a representar os números reais num eixo horizontal (eixo real) e os imaginários puros num eixo vertical (eixo imaginário). Assim, um ponto P do plano de abcissa a e ordenada b será a imagem do complexo z = a+bi. - 6 r O P a b ρ θ Plano de Argand Sabemos que o comprimento OP é o número real |z| = √ a2 + b2 (Teorema de Pitágoras). Representemos este número por ρ. Repare-se que o ponto P fica bem definido se consider- armos ρ e o ângulo θ que o segmento [OP] faz com a parte positiva do eixo real. Chama-se argumento principal ao ângulo θ ∈] − π, π]. Assim, a imagem do complexo z fica bem definida se conhecermos ρ := |z| e θ := arg(z). Observe-se que se fizermos θ = arg(z) + 2kπ, k ∈ Z, obtemos sempre a mesma imagem. Portanto, a cada complexo podemos associar uma infinidade de argumentos. Além do principal, o argumento positivo mı́nimo de z = a + bi é tal que θ ∈ [0, 2π[ e tg θ = b a . Observe a figura anterior para concluir que para todo o complexo z = a + bi, a = ρ cos θ b = ρ sen θ Assim, a forma trigonométrica de z é z = ρ(cos(θ) + i sen(θ)). Abreviadamente, z = ρ cis(θ). Se z ∈ C é tal que z = a + bi = ρ cis(θ), então z = a − bi = ρ cis(−θ). 6
  • 8.
    - 6 r Z Z Z Z Z Z Z Zr O z z ρ θ −θ Exercı́cio: Escreva naforma trigonométrica: a) −3i; b) −1 − i; c) 1 − i √ 3; d) 2 + 3i. Operações com Complexos na Forma Trigonométrica Adição: Usa-se a regra do paralelogramo - 6 r O z1 + z2 = z r z1 r z2 z = ρ cis(θ) = z1+z2 = ρ1 cis(θ1)+ρ2 cis(θ2) = ρ1 cos(θ1)+ρ2 cos(θ2)+i(ρ1 sen(θ1)+ρ2 sen(θ2)) e |z|2 = ρ2 = (ρ1 cos(θ1)+ρ2 cos(θ2))2 +(ρ1 sen(θ1)+ρ2 sen(θ2))2 = ρ2 1 +ρ2 2 +2ρ1ρ2 cos(θ1 −θ2). Multiplicação: Se z1 = ρ1 cis(θ1) e z2 = ρ2 cis(θ2), então z1 · z2 = (ρ1 cis(θ1))(ρ2 cis(θ2)) = ρ1ρ2 cis(θ1 + θ2). 7
  • 9.
    ∴ |z1 ·z2| = |z1| · |z2| e arg(z1 · z2) = arg(z1) + arg(z2). Divisão: Se z2 6= 0, então 1 z2 = 1 ρ2 cis(−θ2). Logo, z1 z2 = ρ1 ρ2 cis(θ1 − θ2). ∴ z1 z2 = |z1| |z2| e arg z1 z2 = arg(z1) − arg(z2). Potenciação: Se z = ρ cis(θ) e n ∈ Z, então zn = ρn cis(nθ) (Fórmula de De Moivre). ∴ |zn | = |z|n e arg (zn ) = n arg(z). Radiciação: Seja z = ρ cis(θ) e n ∈ N. Se w = ρ1 cis(θ1) é uma raiz de ı́ndice n de z, então wn = z. Logo, (ρ1 cis(θ1))n = ρ cis(θ) ⇔ ρn 1 cis(nθ1) = ρ cis(θ) ⇔    ρn 1 = ρ cos(nθ1) = cos(θ) sen(nθ1) = sen(θ) ⇔ ρ1 = n √ ρ nθ1 = θ + 2kπ, com k ∈ Z, isto é, ρ1 = n √ ρ ∧ θ1 = θ + 2kπ n , k ∈ Z. Assim, e atendendo-se às repetições, w = n √ ρ cis θ + 2kπ n , com k = 0, 1, . . . , n − 1. As raı́zes de ı́ndice n de um complexo z têm imagens que formam os vértices de um polı́gono regular de n lados: - 6 r r r H H H H H H H - 6 r r r r @ @ @ @ @ @ No caso do expoente racional, isto é, do tipo p q , com p, q ∈ N, tem-se, por definição, para z = ρ cis(θ), zp/q = z1/q p = ρ1/q cis θ + 2kπ q p = ρp/q cis p q (θ + 2kπ) . 8
  • 10.
    Observe-se que 8 12 = 2 3 e assimz8/12 = z2/3 , tem 3 raı́zes distintas, enquanto 12 √ z8 tem 12 raı́zes distintas. Em C, (zp )1/q pode ser diferente de z1/q p . Exercı́cios: 1. Utilize a forma trigonométrica para calcular: a) i55 − √ 3 (1 − i)6 ; b) i66 ( √ 3 − i)4 (1 + i √ 3)8 . 2. Resolva, em C, a equação z3 − (1 + i)z2 + iz = 0. Lugares Geométricos - Circunferência de centro z0 e raio r ≥ 0. Por definição, uma circunferência de centro z0 e raio r é o conjunto dos pontos z tais que |z − z0| = r ou, equivalentemente, (z − z0) (z − z0) = r2 ⇔ zz − zz0 − z0z + |z0|2 = r2 . Se |z0|2 = r2 , a circunferência passa pela origem. Se |z0|2 6= r2 , a circunferência não passa pela origem. - Equação da recta. A equação geral de uma recta em R2 é da forma Ax + By + C = 0. Tomando-se z0 = A + iB e z = x + iy, obtém-se que Re(z0)Re(z) + Im(z0)Im(z) + C = 0 ⇔ ⇔ z0 + z0 2 · z + z 2 + z0 − z0 2i · z − z 2i + C = 0 ⇔ (z0 + z0) (z + z) − (z0 − z0) (z − z) + 4C = 0 ⇔ 2z0z + 2z0z + 4C = 0 ⇔ z0z + z0z + R = 0 (Equação Geral da Recta) Se R = 0, a recta passa pela origem. Se R 6= 0, a recta não passa pela origem. 9
  • 11.
    2 MATRIZES. RESOLUÇÃODE SISTEMAS. INVERSÃO DE MATRIZES. Definição 2.1 Sejam m, n ∈ N e K um corpo. Chama-se matriz do tipo m × n (ou de ordem (m, n)) sobre o corpo K, ou simplesmente, matriz do tipo m × n, a uma função A definida no conjunto {(i, j) ∈ N × N : 1 ≤ i ≤ m, 1 ≤ j ≤ n} e com valores em K. As componentes ou elementos ou entradas da matriz A designam-se por aij = A(i, j). É usual usar-se um quadro rectangular para dispor os elementos de K.      a11 a12 · · · a1n a21 a22 · · · a2n . . . · · · · · · · · · am1 am2 · · · amn      ou      a11 a12 · · · a1n a21 a22 · · · a2n . . . · · · · · · · · · am1 am2 · · · amn      Abreviadamente, uma matriz representa-se por [aij](m,n) (1 ≤ i ≤ m, 1 ≤ j ≤ n) ou, apenas, por A. Duas matrizes A = [aij] e B = [bij] dizem-se iguais se, e somente se, são do mesmo tipo e aij = bij, para todos os valores de i e j. Designa-se por MK(m, n) o conjunto de todas as matrizes sobre o corpo K e de ordem (m, n) (m linhas, n colunas). Se K = R, a matriz diz-se real. Se K = C, a matriz diz-se complexa. Matrizes Especiais Seja A = [aij] ∈ MK(m, n). 1. Se n = 1, a matriz A diz-se matriz coluna.      a11 a21 . . . am1      2. Se m = 1, a matriz A diz-se matriz linha. a11 a12 · · · a1n 10
  • 12.
    3. Se m= n, a matriz A diz-se quadrada de ordem n.      a11 a12 · · · a1n a21 a22 · · · a2n . . . · · · · · · · · · an1 an2 · · · ann      Numa matriz quadrada, os elementos a11, a22, . . . , ann dizem-se elementos principais ou diagonais e formam a primeira diagonal ou diagonal principal. Os elementos a1n, a2,n−1, . . . , an1 formam a segunda diagonal ou diagonal secundária.         Diagonal Principal Diagonal Secundária 3.1 Uma matriz quadrada A diz-se triangular superior se aij = 0, para i j. Exemplo:   −2 1 3 0 4 −1 0 0 −5   3.2 Uma matriz quadrada A diz-se triangular inferior se aij = 0, para i j. Exemplo:   2 0 0 −1 3 0 7 4 −2   3.3 Uma matriz quadrada A diz-se diagonal se aij = 0, para i 6= j. Exemplo:     −1 0 0 0 0 3 0 0 0 0 5 0 0 0 0 −1     3.4 Uma matriz quadrada A diz-se escalar se é diagonal e aii = a 6= 0, para todo o i. Exemplo:     3 0 0 0 0 3 0 0 0 0 3 0 0 0 0 3     Utilizando-se o sı́mbolo de Kronecker, δij, definido por δij = 0, se i 6= j, 1, se i = j, uma matriz escalar pode representar-se apenas por [aδij]. 11
  • 13.
    Exemplo:     3 00 0 0 3 0 0 0 0 3 0 0 0 0 3     = [3δij] A matriz identidade é a matriz escalar [δij]. Designa-se, em geral, por In. I1 = [1] I2 = 1 0 0 1 I3 =   1 0 0 0 1 0 0 0 1   I4 =     1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1     . . . 4. Uma matriz formada por r linhas (r ≤ m) e s colunas (s ≤ n) de uma matriz A diz-se uma submatriz de A do tipo r × s. Exemplo: A matriz 2 0 −1 4 é submatriz de   2 0 4 1 −1 4 −3 0 5 −6 8 1/2  . 5. A matriz A diz-se matriz nula se todos os elementos são nulos (aij = 0, para todos os valores de i e j). Designa-se a matriz nula por 0m×n, ou simplesmente por 0, se não houver ambiguidade quanto ao seu tipo. Exemplo:   0 0 0 0 0 0 0 0 0   6. A matriz oposta da matriz A = [aij](m,n) é uma matriz do mesmo tipo definida por −A = [−aij] . Exemplo: A =   −1 2 3 5 1/2 − √ 2   − A =   1 −2 −3 −5 −1/2 √ 2   7. Denomina-se matriz transposta de A a matriz AT que se obtém de A trocando orde- nadamente as linhas por colunas e as colunas por linhas. Se A é do tipo m × n, AT é do tipo n × m. Exemplo: A = 2 −5 7 −3 2 1 AT =   2 −3 −5 2 7 1   Propriedade 2.2 AT T = A. 12
  • 14.
    8. A matrizA diz-se simétrica se é igual à sua transposta, isto é, A = AT . Logo, os seus elementos verificam a relação aij = aji, para todos os valores de i e j. Desta forma, uma matriz simétrica é necessariamente quadrada e os elementos colocados simetricamente em relação à diagonal principal são iguais. Exemplo:   3 4 −1 4 −2 7 −1 7 −5   9. A matriz A diz-se anti-simétrica ou hemi-simétrica se AT = −A ou A = −AT . Os elementos verificam a relação aij = −aji. Assim, para i = j, tem-se aii = −aii ⇔ aii = 0. Desta forma, uma matriz anti-simétrica é uma matriz quadrada cujos elementos principais são nulos e os elementos colocados simetricamente em relação à diagonal principal são simétricos. Exemplo:   0 2 −7 −2 0 5 7 −5 0   10. Se a matriz A é complexa, chama-se matriz conjugada de A à matriz A que se obtém substituindo cada elemento de A pelo seu conjugado. Exemplo: A = 5 3 + 2i 2 −i 7i 9 − i A = 5 3 − 2i 2 i −7i 9 + i Propriedades 2.3 1. Se A = A, então A é uma matriz real. 2. A = A. 11. Denomina-se matriz associada de A (complexa) a matriz A∗ que é igual à transposta da conjugada de A, ou, o que é o mesmo, à conjugada da transposta de A, isto é, A∗ = A T = (AT ). Exemplo: A = 5 3 + 2i 2 −i 7i 9 + i A∗ =   5 i 3 − 2i −7i 2 9 − i   13
  • 15.
    Propriedades 2.4 1. (A∗ )T =A. 2. (A∗) = AT . 3. (A∗ )∗ = A. 12. Uma matriz A diz-se hermı́tica ou hermitiana se é igual à sua associada, isto é, se A = A∗ . Logo, os seus elementos verificam a relação aij = aji e é uma matriz quadrada. Em particular, para i = j, tem-se aii = aii = a ∈ R, isto é, aii é um número real. Exemplo:     5 5 + 2i 3i 0 5 − 2i −1 9 2 − i −3i 9 7 7 + 2i 0 2 + i 7 − 2i −4     13. Uma matriz A diz-se hemi-hermı́tica ou hemi-hermitiana se satisfaz a relação A = −A∗ . Logo, os seus elementos verificam a relação aij = −aji e é uma matriz quadrada. Em particular, para i = j, tem-se aii = −aii, isto é, Re(aii) = 0. Exemplo:     5i 5 5 − i 3 − 2i −5 −2i 2 + i 9i −5 − i −2 + i 7i 9 −3 − 2i 9i −9 −i     Operações com Matrizes 1. Adição: Sejam A = [aij], B = [bij] ∈ MK(m, n). Define-se adição de A com B como sendo a matriz S = A + B ∈ MK(m, n) cujos elementos são obtidos pela relação sij = aij + bij. Exemplo: 2 6 0 −1 4 7 + 1 0 4 −4 1 −3 = 3 6 4 −5 5 4 Propriedades 2.5 (Adição de Matrizes) a) A adição de matrizes é comutativa, isto é, ∀A, B ∈ MK(m, n), A + B = B + A. 14
  • 16.
    b) A adiçãode matrizes é associativa, isto é, ∀A, B, C ∈ MK(m, n), (A + B) + C = A + (B + C). c) A adição de matrizes tem elemento neutro, a matriz nula    0 · · · 0 . . . · · · . . . 0 · · · 0    (m,n) d) Todas as matrizes em MK(m, n) têm oposto. O elemento oposto de A ∈ MK(m, n) é a matriz −A ∈ MK(m, n). ∴ (MK(m, n), +) é um grupo abeliano. e) Sejam A1, A2, . . . , Ap ∈ MK(m, n). Então (A1 + A2 + · · · + Ap)T = AT 1 + AT 2 + · · · + AT p . f) Se A ∈ MC(n, n), então A + A∗ é hermı́tica e A − A∗ é hemi-hermı́tica. g) Se A ∈ MK(n, n), então A + AT é simétrica e A − AT é anti-simétrica. 2. Multiplicação de uma Matriz por um Escalar: Sejam A = [aij] ∈ MK(m, n) e λ ∈ K. É usual denominar qualquer elemento de um corpo por escalar. Define-se produto do escalar λ pela matriz A como sendo a matriz λA = [λaij]. Exemplo: Se A = 2 5 7 1 0 −2 e λ = 2, então λA = 4 10 14 2 0 −4 . Propriedades 2.6 Sejam A, B ∈ MK(m, n) e α, β ∈ K. i) 1 · A = A; ii) α(βA) = (αβ)A = β(αA); iii) (α + β)A = αA + βA; iv) α(A + B) = αA + αB; v) Se K = C e m = n, uma matriz A pode exprimir-se como soma de uma matriz hermı́tica e uma hemi-hermı́tica, ou de uma matriz simétrica e outra anti-simétrica. 3. Multiplicação de Matrizes: Sejam A = [aik] ∈ MK(m, p) e B = [blj] ∈ MK(p, n). As matrizes A e B dizem- -se encadeadas porque o número de colunas de A é igual ao número de linhas de B. Define-se multiplicação da matriz A pela matriz B como sendo uma matriz C do tipo m × n, cujos elementos cij satisfazem a igualdade cij = p X k=1 aikbkj, 15
  • 17.
    com i =1, . . . , m e j = 1, . . . , n. Exemplo: A = 2 −1 0 3 B = 3 −1 0 1 2 −4 AB = 5 −4 4 3 6 −12 Observe que não é possı́vel a multiplicação BA. Desta forma, a multiplicação não é comutativa. Mesmo que A seja do tipo m × n e B do tipo n × m, AB é diferente de BA, para m 6= n, dado as matrizes AB e BA não serem da mesma ordem. Observe o seguinte exemplo: 0 1 2 3 3 2 1 0     0 3 1 2 2 1 3 0     = 14 4 4 14     0 3 1 2 2 1 3 0     0 1 2 3 3 2 1 0 =     9 6 3 0 6 5 4 3 3 4 5 6 0 3 6 9     No caso particular m = n, se AB = BA, então as matrizes A e B dizem-se permutáveis. Exemplo: 2 0 0 2 3 0 0 3 = 6 0 0 6 = 3 0 0 3 2 0 0 2 As matrizes 2 0 0 2 e 3 0 0 3 são permutáveis. Propriedades 2.7 i) Se A, B e C são matrizes do tipo m × p, p × q e q × n, respectivamente, então (A · B) · C = A · (B · C) (Associatividade). ii) Se A, B e C são matrizes do tipo m × p, p × n e p × n, respectivamente, então A · (B + C) = A · B + A · C (Distributividade à Esquerda). Se D, E e F são matrizes do tipo m × p, m × p e p × n, respectivamente, então (D + E) · F = D · F + E · F (Distributividade à Direita). iii) O conjunto MK(n, n), das matrizes quadradas de ordem n com elementos no corpo K, munido com as operações adição e multiplicação de matrizes é um anel não comutativo com elemento unidade (matriz identidade de ordem n). 16
  • 18.
    Observações: 1. Um produtoAB pode ser a matriz nula sem que A ou B sejam a matriz nula. Por exemplo:   1 2 0 1 1 0 1 4 0     0 0 0 0 0 0 1 4 9   =   0 0 0 0 0 0 0 0 0   . 2. A igualdade AB = AC não implica necessariamente B = C. Por exemplo: AB =   1 2 0 1 1 0 −1 4 0     1 2 3 1 1 −1 2 2 2   =   3 4 1 2 3 2 3 2 −7   AC =   1 2 0 1 1 0 −1 4 0     1 2 3 1 1 −1 1 1 1   =   3 4 1 2 3 2 3 2 −7   iv) Se as matrizes A e B são do tipo m × p e p × n, respectivamente, então 1. (AB)T = BT AT ; 2. AB = A · B; 3. (AB)∗ = B∗ A∗ . No caso das matrizes quadradas, An , para todo n ∈ N, existe, já que A é encadeada com A, A2 , A3 , . . .. Ainda no caso das matrizes quadradas de ordem n, se AB = BA = In, B é a matriz inversa de A em MK(n, n), isto é, B = A−1 e A = B−1 . Neste caso, as matrizes A e B dizem-se regulares ou invertı́veis. Se A ∈ MK(n, n) não é regular, diz-se singular. Operações Elementares com as Filas de uma Matriz. Condensação Definição 2.8 Numa matriz, duas filas paralelas dizem-se dependentes se são iguais ou se uma é igual ao produto da outra por um escalar. Ainda, se uma fila é igual à soma de outras filas paralelas ou à soma dos produtos de outras filas paralelas por escalares, diremos que essas filas paralelas são dependentes. Caso contrário, as filas dizem-se independentes. Definição 2.9 Chama-se caracterı́stica de uma matriz A à ordem máxima da submatriz de A constituı́da pelas filas independentes. Para se encontrar a caracterı́stica de uma matriz é necessário ter em conta o seguinte: 1. Teorema 2.10 A dependência ou independência das linhas ou colunas de uma matriz não é alterada por alguma das seguintes operações ditas elementares: O1 Troca entre si de duas filas paralelas. 17
  • 19.
    O2 Multiplicação doselementos de uma fila por um escalar de K {0}. O3 Adição, aos elementos de uma fila, dos produtos dos elementos correspondentes de uma fila paralela por um mesmo escalar de K. 2. Uma matriz que tenha uma submatriz triangular (ou diagonal), com elementos principais não nulos, e as restantes filas com elementos todos nulos tem caracterı́stica igual ao número de filas dessa submatriz. Utilizando-se 1. e 2., podemos determinar a caracterı́stica de uma matriz. Efectua-se, assim, a condensação da matriz. Exercı́cio: Determine a caracterı́stica da matriz A =   0 −3 2 1 −2 2 2 0 1 2 −4 3   . Em geral, dada uma matriz A =     a11 a12 · · · a1n a21 a22 · · · a2n · · · · · · · · · · · · am1 am2 · · · amn     , podemos, por condensação, obter         b11 b12 · · · b1r · · · b1n 0 b22 · · · b2r · · · b2n · · · · · · · · · · · · · · · · · · 0 · · · 0 brr · · · brn · · · · · · · · · · · · · · · · · · 0 0 · · · · · · · · · 0         ou         c11 0 · · · 0 · · · 0 c21 c22 · · · 0 · · · 0 · · · · · · · · · · · · · · · · · · cr1 · · · · · · crr · · · 0 · · · · · · · · · · · · · · · · · · 0 0 · · · · · · · · · 0         ou         d11 0 · · · · · · · · · 0 0 d22 0 · · · · · · 0 · · · · · · · · · · · · · · · · · · 0 · · · 0 drr · · · 0 · · · · · · · · · · · · · · · · · · 0 0 · · · · · · · · · 0         . 18
  • 20.
    Qualquer destas matrizestem r filas independentes e quaisquer r + 1 filas passam a ser dependentes. Logo, Car A = r. Aplicação à Resolução de Sistemas de Equações Lineares Considere-se um sistema de m equações com n incógnitas:    a11x1 + a12x2 + · · · + a1nxn = b1 · · · · · · · · · · · · · · · · · · am1x1 + am2x2 + · · · + amnxn = bm Observe-se que fazendo A =      a11 a12 · · · a1n a21 a22 · · · a2n . . . · · · · · · · · · am1 am2 · · · amn      (Matriz dos Coeficientes), B =      b1 b2 . . . bm      (Matriz dos Termos Independentes) e X =      x1 x2 . . . xn      , o sistema de equações é equivalente à equação matricial AX = B. Sabemos que as operações elementares transformam o sistema dado num sistema equiva- lente. Assim, podemos encontrar a(s) solução(ões), caso exista(m), aplicando o método de condensação à matriz ampliada ou completa: [A|B] =    a11 · · · a1n | b1 . . . · · · . . . | . . . am1 · · · amn | bm    . Atenção: A troca de duas colunas em A correspondem a uma troca de incógnitas. Condensando [A|B], ou melhor, condensando A, até determinar a sua caracterı́stica r, temos: 1o Caso: m = n = r      α11 α12 · · · α1n | β1 0 α22 · · · α2n | β2 · · · ... ... · · · | . . . 0 · · · 0 αnn | βn      19
  • 21.
    ou, até àforma diagonal,      γ11 0 · · · 0 | δ1 0 γ22 · · · 0 | δ2 · · · · · · ... · · · | . . . 0 · · · 0 γnn | δn      e ainda       1 0 · · · 0 | δ1 γ11 0 1 · · · 0 | δ2 γ22 · · · · · · ... · · · | . . . 0 · · · 0 1 | δn γnn       isto é,            x1 = δ1 γ11 x2 = δ2 γ22 . . . xn = δn γnn , que é a solução do sistema inicial. Diz-se então que é um sistema possı́vel e determinado. 2o Caso: m = r n Neste caso temos,      α11 α12 · · · α1r | · · · α1n | β1 0 α22 · · · α2r | · · · α2n | β2 · · · ... ... · · · | · · · · · · | . . . 0 · · · 0 αrr | · · · αrn | βr      →      γ11 0 · · · 0 | · · · γ1n | δ1 0 γ22 · · · 0 | · · · γ2n | δ2 · · · ... ... · · · | · · · · · · | . . . 0 · · · 0 γrr | · · · γrn | δr      → →       1 0 · · · 0 | · · · γ1n γ11 | δ1 γ11 0 1 · · · 0 | · · · γ2n γ22 | δ2 γ22 · · · · · · ... · · · | · · · · · · | . . . 0 · · · 0 1 | · · · γrn γrr | δr γrr       , isto é,      x1 = δ1 γ11 − Pn j=r+1 γ1j γ11 xj . . . xr = δr γrr − Pn j=r+1 γrj γrr xj As r incógnitas, ditas principais, dependem das restantes n − r incógnitas não princi- pais. Assim, o sistema diz-se possı́vel indeterminado, sendo n − r o grau de indeter- minação. 20
  • 22.
    3o Caso: Se r m, temos que              α11 α12 · · · α1r | · · · α1n | β1 0 α22 · · · α2r | · · · α2n | β2 · · · ... ... · · · | · · · · · · | . . . 0 · · · 0 αrr | · · · αrn | βr −− −− −− −− | −− −− | −− 0 · · · · · · 0 | 0 · · · · · · 0 | βr+1 · · · · · · · · · · · · | · · · · · · | . . . 0 · · · · · · 0 | 0 · · · · · · 0 | βm              e duas possibilidades: 1. βr+1 = · · · = βm = 0; 2. βr+1, . . . , βm não todos nulos. 1. Se as últimas m − r linhas somente têm elementos nulos, as equações transformam-se em 0 = 0. Logo, fica      α11 α12 · · · α1r | · · · α1n | β1 0 α22 · · · α2r | · · · α2n | β2 · · · ... ... · · · | · · · · · · | . . . 0 · · · 0 αrr | · · · αrn | βr      e tal como antes, sistema possı́vel determinado, se r = n, indeterminado, se r n, com grau de indeterminação n − r. 2. Se nas últimas equações algum βj 6= 0, obtemos 0x1 + 0x2 + · · · + 0xn = βj. Logo, o sistema é impossı́vel. Neste caso, a caracterı́stica de [A|B] é maior que r, isto é, maior do que a caracterı́stica de A. Em Resumo: Sistema Possı́vel: Car A = Car[A|B] Sistema Possı́vel    Determinado, se Car A = n, Indeterminado, se Car A n, com grau de indeterminação n − Car A. Sistema Impossı́vel: Car A Car[A|B] Exercı́cios: 1. Resolva e classifique o seguinte sistema:    2x − y − z = 1 x + y − z = 2 −x + 2y + 2z = 4 21
  • 23.
    2. Considere osistema de equações lineares sobre R, nas incógnitas x, y, z e t:        x = a − b 5ax − 2by + az + t = 1 −bz = 1 −3ax + 2by − az + (b − a)t = 2a − 1 Utilizando o método de condensação, discuta o sistema em função dos parâmetros a e b. Cálculo da Matriz Inversa de uma Matriz Regular Seja A uma matriz quadrada de ordem n. Sabemos que A é regular (isto é, invertı́vel) se existe uma matriz quadrada, com a mesma ordem, B tal que AB = BA = I. Vamos determinar a matriz B tal que AB = I e em seguida mostraremos que essa matriz B também é inversa à esquerda, isto é, BA = I. Representemos B por X, e Xj e Ij, respectivamente, as j-ésimas colunas de X e I. Assim, a equação matricial AX = I é equivalente a n sistemas de equações lineares: AXj = Ij j = 1, . . . , n Pelo que vimos anteriormente, tais sistemas têm solução única se, e somente se, Car A = n. Cada um dos sistemas é resolvido passando da matriz ampliada [A|Ij] para a matriz [I|Xj]. Isto é equivalente à passagem de [A|I] para [I|X] efectuando as operações elementares nos n sistemas. Exercı́cio: Determine a inversa à direita da matriz A =   2 0 2 −1 1 −3 0 2 1   . Mostremos agora que a existência de uma inversa à direita garante a existência de inversa à esquerda e que elas são iguais. Sabemos que se A tem inversa X à direita se, e somente se, Car A = n (ordem de A). Desta forma, AT também tem inversa à direita, digamos Y, isto é, AT Y = I. Logo, AT Y T = IT ⇔ Y T A = I, isto é, a matriz A tem inversa à esquerda. 22
  • 24.
    Agora basta mostrarque Y T = X. Ora, Y T A = I implica Y T AX = IX ⇔ Y T (AX) = X ⇔ Y T I = X ⇔ Y T = X. Portanto, concluı́mos que a inversa à esquerda é igual à inversa à direita. Chamar-lhe- -emos apenas inversa de A e representa-se por A−1 . Sistemas Homogéneos Seja A ∈ MK(m, n). Se no sistema AX = B, a matriz B é a matriz nula (B = 0), estamos perante um sistema de equações lineares homogéneo (AX = 0) onde todas as equações são homogéneas de grau 1. É evidente que todo o sistema homogéneo é um sistema possı́vel: admite sempre a solução nula (X = 0), pelo menos! Assim, sendo r a caracterı́stica de A, se r = n, o sistema é possı́vel e determinado, tendo somente a solução nula, X = 0. se r n, o sistema é possı́vel indeterminado, admite soluções não nulas. Suponhamos que A é uma matriz quadrada de ordem n. Então temos o seguinte resultado: Teorema 2.11 A é regular se, e somente se, AX = 0 só tem a solução X = 0. Demonstração: Exercı́cio. Propriedades da Inversão de Matrizes 1. Se A é regular, também o é A−1 e (A−1 ) −1 = A. 2. Um produto de matrizes quadradas é invertı́vel se, e somente se, cada factor é invertı́vel e (A1 . . . Ak)−1 = A−1 k . . . A−1 1 . 3. Se A é regular, Ak −1 = (A−1 ) k . 4. Se A é regular, então AT , A e A∗ também são regulares e temos que AT −1 = A−1 T ; A −1 = A−1; (A∗ )−1 = A−1 ∗ . Definição 2.12 Uma matriz quadrada A é dita i) ortogonal se A−1 = AT , isto é, AT A = I = AAT . ii) unitária se A−1 = A∗ , isto é, A∗ A = I = AA∗ . Exemplo: A matriz √ 2 2 − √ 2 2 √ 2 2 √ 2 2 # é ortogonal (e unitária). 23
  • 25.
    3 ESPAÇOS VECTORIAIS.APLICAÇÕES LINEARES. Definição 3.1: Seja K um corpo. Diz-se que um conjunto E, não vazio, é um espaço vectorial ou um espaço linear sobre K se nele estão definidas duas leis de composição: a) Uma lei de composição interna, dita adição, a respeito da qual E é um grupo abeliano. b) Uma lei de composição externa, isto é, uma aplicação de E K × ( , α em E, denominada multiplicação escalar, que associa a todo par ordenado , com ) x K ∈ α e , E x ∈ um elemento , E x ∈ α satisfazendo as propriedades: i) ( ) y x y x , E y , x , K α + α = + α ∈ ∀ ∈ α ∀ (Distributividade da multiplicação escalar relativamente à adição em E). ii) ( ) x x x , E x , K , β + α = β + α ∈ ∀ ∈ β α ∀ (Distributividade da multiplicação escalar relativamente à adição em K). iii) ( ) ( ) x x , E x , K , β α = αβ ∈ ∀ ∈ β α ∀ (Associativadade da multiplicação escalar). iv) x (1 é o elemento unidade de K). x 1 , E x = ⋅ ∈ ∀ Os elementos de K denominam-se escalares e os elementos de E vectores. No caso de K ser o corpo IR, dos números reais, diz-se que E é um espaço vectorial real. No caso de K ser o corpo C , dos números complexos, diz-se que E é um espaço vectorial complexo. Por vezes, o elemento neutro E 0∈ é designado por origem ou zero de E. Exemplos: 1. O conjunto dos vectores livres do espaço ordinário é um espaço vectorial real com as operações usuais: - Adição: A soma , resultado da adição dos vectores v u r r + u r e , é definida pela regra do paralelogramo. v r - Multiplicação escalar: u r α é o vector com a direcção de u r , sentido de se u r α é positivo e sentido oposto se α é negativo e cujo comprimento é dado pelo produto do módulo do número real α pelo comprimento de u r . 2. IR é um espaço vectorial real. 3. C é um espaço vectorial real. 4. C é um espaço vectorial complexo. 5. IR não é um espaço vectorial complexo. 6. Seja K um corpo. Para cada IN, o conjunto K ∈ n n ( ) { ∈ = i n 2 1 x : x , , x , x K K , é um espaço vectorial sobre K relativamente às operações (ditas usuais): } n , , 2 , 1 i K = - Adição: definida pela relação ( ) ( ) ( ) n n 2 2 1 1 n 2 1 n 2 1 y x , , y x , y x y , , y , y x , , x , x + + + = + K K K ; 24
  • 26.
    - Multiplicação escalar:definida por ( ) ( ) n 2 1 n 2 1 x , , x , x x , , x , x α α α = α K K ; (em que as operações que figuram nos n-uplos dos segundos membros das igualdades anteriores são as operações adição e multiplicação em k). Nota: Dado um corpo K, sempre que seja feita referência ao espaço vectorial K n sobre o corpo K, assumiremos que as operações consideradas são as usuais, a menos que seja dito o contrário. 7. Para cada n IN , o conjunto IR ∈ n (respectivamente, C n ) é um espaço vectorial real (respectivamente, complexo). 8. Para cada IN,o conjunto C ∈ n n é um espaço vectorial real. 9. O conjunto de todos os polinómios na variável x, com coeficientes em K, de grau não superior a n ( IN) é um espaço vectorial sobre K (K = IR ou K = C ) com as operações definidas por: ∈ n ( ) ( ) ( ) ( ) ( ) ( ) n n n 2 2 2 1 1 0 0 n n 2 2 1 0 n n 2 2 1 0 x b a x b a x b a b a x b x b x b b x a x a x a a + + + + + + + + = = + + + + + + + + + L L L e ( ) ( ) ( ) ( ) ( n n 2 2 1 0 n n 2 2 1 0 x a x a x a a x a x a x a a α + + α + α + α = + + + + α L L ) . 10. O conjunto de todos os polinómios na variável x, com coeficientes em K, é um espaço vectorial sobre K, com as operações definidas de forma análoga às definidas em 9 (ditas usuais). Propriedades dos Espaços Vectoriais: 1. ( ) y x y x , E y , x , K α − α = − α ∈ ∀ ∈ α ∀ De facto, tem-se ( ) ( ) [ ] x y y x y y x α = + − α = α + − α , atendendo-se à propriedade i) da multiplicação escalar e a ( ) + , E ser um grupo. 2. 0 0 , K = α ∈ α ∀ É um caso particular de 1. para . y x = 3. ( ) ( ) y y , E y , K α − = − α ∈ ∀ ∈ α ∀ É um caso particular de 1. para . 0 x = 4. ( ) x x x , E x , K , β − α = β − α ∈ ∀ ∈ β α ∀ De facto, tem-se ( ) ( ) [ ] x x x x α = β + β − α = β + β − α 25
  • 27.
    atendendo-se à propriedadeii) da multiplicação escalar e a K ser um corpo. 5. 0 x 0 , E x = ∈ ∀ É um caso particular de 4. para . β = α 6. ( ) ( ) x x , E x , K β − = β − ∈ ∀ ∈ β ∀ É um caso particular de 4. para . 0 = α 7. 0 x 0 0 x , E x , K = ∨ = α ⇔ = α ∈ ∀ ∈ α ∀ Demonstração: Exercício. Definição 3.2: Seja K um corpo e E um espaço vectorial sobre K. Se S é um subconjunto não vazio de E e se é um espaço vectorial sobre K relativamente às mesmas operações definidas em E, então diz-se que S é um subespaço vectorial de E. Exemplos: 1. IRé um subespaço vectorial real do espaço vectorial real C . 2. O espaço vectorial dos polinómios reais de grau não superior a 3 é subespaço vectorial do espaço vectorial dos polinómios de grau não superior a 6, etc.. 3. Qualquer que seja o espaço vectorial E, o conjunto { } 0 e E são subespaços vectoriais de E. Teorema 3.3: Um subconjunto S, não vazio, do espaço vectorial E é subespaço vectorial se, e somente se, S é fechado relativamente às leis de composição definidas em E, isto é, S satisfazendo às condições: E ⊂ a) , ∅ ≠ S b) , S y x , S y , x ∈ + ∈ ∀ c) , S x , S x , K ∈ α ∈ ∀ ∈ α ∀ é um subespaço vectorial de E. Demonstração: Exercício. Exercício: Considere os seguintes conjuntos ( ) { ∈ = z , y , x A IR 3 : z } 0 = e ( ) { ∈ = z , y , x B IR 3 : } 0 z y x ≠ + + . Averigúe se são ou não subespaços vectoriais de IR 3 . Teorema 3.4: Seja E um espaço vectorial definido sobre um corpo K e seja { } um conjunto de subespaços vectoriais de E. Então I i : Si ∈ I I i i S S ∈ = 26
  • 28.
    é também umsubespaço vectorial de E. Demonstração: Exercício. Seja E um espaço vectorial sobre um corpo K e E x , , x , x n 2 1 ∈ K . Todo o vector v que se pode exprimir sob a forma n n 2 2 1 1 x x x v α + + α + α = L , com , i diz-se combinação linear dos vectores , K i ∈ α n , , 1 K = . x , , x , x n 2 1 K Analogamente, se A é um subconjunto de E, então qualquer vector de E da forma n n 2 2 1 1 x x x α + + α + α L , com e K , , , n 2 1 ∈ α α α K , A x , , x , x n 2 1 ∈ K diz-se combinação linear (finita) de elementos de A. Obs.: É óbvio que qualquer elemento de A é combinação linear de elementos de A. De facto, se podemos escrever , A x ∈ , x 0 x 0 x 1 x n 2 ⋅ + + ⋅ + ⋅ = L com . A x , , x , x n 3 2 ∈ K Exercício: Dados os vectores, em IR 4 , ( b , a , 1 , 1 u = ) ( ) 3 , 1 , 1 , 3 v = ( ) 5 , 1 , 0 , 2 w = , determine o valor das constantes a e b por forma a ser possível escrever o vector u como combinação linear dos vectores v e w. Teorema 3.5: Seja E um espaço vectorial sobre um corpo K e A uma parte não vazia de E. O conjunto F de todas as combinações lineares de elementos de A é o “menor” subespaço vectorial de E que contém A. Demonstração: Exercício. Sendo A uma parte não vazia do espaço vectorial E definido sobre um corpo K, o subespaço F de E formado por todas as combinações lineares de elementos de A diz-se subespaço gerado por A, ou, também, que A gera o subespaço F. No caso de F coincidir com o próprio E, diz-se que os vectores de A constituem um sistema de geradores de E. Notação: O subespaço gerado por A representa-se por A ou [ ] A ou ainda , x , , x , x n 2 1 K se . { } n 2 1 x , , x , x A K = Em resumo: se F for o subespaço gerado pelo conjunto { } n 2 1 x , , x , x K , 27
  • 29.
    , K : x x , , x , x F i n 1 i i i n 2 1       ∈ α α = = ∑ = K istoé, todo o vector de F é combinação linear dos vectores . n 2 1 x , , x , x K Exercícios: 1. Considere os vectores do espaço vectorial real IR 3 ( ) 3 , 2 , 1 x1 = e ( ) 1 , 1 , 2 x2 − = . Escreva uma condição que caracterize o subespaço F de IR 3 gerado por . { } 2 1 x , x A = 2. No espaço vectorial IR 4 , considere os conjuntos ( ) (       − − − −       − − = 0 , 1 , 1 , 0 , 1 , 2 , 2 , 1 , 2 1 , 1 , 1 , 2 1 B ) e ( ) ( ) { } 0 , 1 , 1 , 0 , 2 , 0 , 0 , 2 C = . Mostre que B e C geram o mesmo subespaço vectorial de IR 4 . Exemplos: 1. No espaço dos vectores OP de um plano, dois vectores quaisquer desse plano não colineares são geradores do espaço. 2. Os vectores ( ) ( ) ( ) ( ) 1 , 1 , 1 e 1 , 0 , 0 , 0 , 1 , 0 , 0 , 0 , 1 são geradores de IR 3 . 3. Também geram IR ( ) ( ) ( 1 , 0 , 0 e 0 , 1 , 0 , 0 , 0 , 1 ) 3 . 4. Em geral, o espaço vectorial IR n é gerado pelos n vectores ( ) ( ) ( ) 1 , 0 , , 0 , 0 , 0 e 0 , 0 , , 0 , 1 , 0 e 0 , 0 , , 0 , 0 , 1 e n 2 1 K K K K K K K K K K = = = 5. IR é gerado por qualquer número real não nulo. 6. O espaço real C é gerado por { } i 1 , i , 1 + e também por { } i , 1 , pois a i b 1 a bi ⋅ + ⋅ = + . 7. O espaço complexo C é gerado por qualquer número complexo não nulo. Observem-se os exemplos 2. e 3.. Repare-se que o número de vectores no exemplo 3. é o menor número de vectores que geram o espaço. O mesmo já não acontece no exemplo 2. porque ( ) ( ) ( ) ( ) 1 , 0 , 0 1 0 , 1 , 0 1 0 , 0 , 1 1 1 , 1 , 1 ⋅ + ⋅ + ⋅ = . Diremos por isso, como vamos ver, que os quatro vectores são linearmente dependentes. Definição 3.6: Os vectores x dizem-se linearmente dependentes se existem escalares não todos nulos tais que n 2 1 x , , x , K n 2 1 , , , α α α K 0 x x n n 1 1 = α + + α L . Esses vectores dizem-se linearmente independentes se a combinação linear nula só acontece quando todos os escalares são nulos, isto é, 28
  • 30.
    0 0 x x n 2 1 n n 1 1 = α = = α = α ⇒ = α + + αL L . Proposição 3.7: Os vectores são linearmente dependentes se, e somente se, algum deles é combinação linear dos restantes. n 2 1 x , , x , x K Demonstração: Exercício. Exercícios: 1. Verifique se os vectores ( ), 1 , 1 , 0 , 1 ( ) 0 , 1 , 3 , 2 , ( ) 1 , 1 , 1 , 2 − e ( ) 0 , 0 , 0 , 1 são linearmente inde- pendentes. 2. Verifique se os elementos do espaço vectorial real P3(x) (conjunto dos polinómios reais de grau menor ou igual a 3) 1, , 2 x 2 x − 3 2 x x + , 3 x 2 x + são linearmente independentes. Propriedades: 1. Se os vectores são linearmente dependentes, então qualquer conjunto finito de vectores que os contenha é um conjunto de vectores linearmente dependentes. n 2 1 x , , x , x K 2. Dados n vectores, se um deles é o vector nulo, então os n vectores são linearmente dependentes. Pois, 1 0 x 0 x 0 0 1 n 1 = ⋅ + + ⋅ + ⋅ − L . 3. Qualquer subconjunto de um conjunto de n vectores linearmente independentes, é formado por vectores linearmente independentes. n 2 1 x , , x , x K 4. A dependência ou independência linear de n vectores não se altera por qualquer troca na ordem pela qual estes vectores são indicados. n 2 1 x , , x , x K 5. A dependência ou independência linear de n vectores não se altera quando a um deles se adiciona uma combinação linear de qualquer número dos restantes. Depois destas considerações, podemos afirmar que os geradores ( ) ( ) ( ) 1 , 0 , 0 , 0 , 1 , 0 , 0 , 0 , 1 de IR 3 são linearmente independentes, mas os geradores ( ) ( ) ( ) ( ) 1,1,1 , 1 , 0 , 0 , 0 , 1 , 0 , 0 , 0 , 1 são linearmente dependentes. Definição 3.8: Chama-se base do espaço vectorial E a um conjunto de geradores de E linearmente independentes. Obviamente, excluindo o caso em que { } 0 E = , os vectores de uma base são não nulos. Definição 3.9: Um espaço vectorial E sobre um corpo K diz-se finitamente gerado se admite um conjunto de geradores finito. Nota: Somente trabalharemos no contexto dos espaços vectoriais finitamente gerados. 29
  • 31.
    Teorema 3.10: Todoo espaço vectorial { } 0 E ≠ finitamente gerado admite uma base. Teorema 3.11: Todas as bases de um espaço vectorial E finitamente gerado têm o mesmo número de elementos. Definição 3.12: Seja E um espaço vectorial finitamente gerado sobre um corpo K. O número de elementos de qualquer base de E diz-se dimensão de E e designa-se por , ou apenas . Por convenção, ( ) E dimK ( ) E dim { } ( ) 0 0 dim = . Definição 3.13: Dado um espaço vectorial E sobre um corpo K e { } n 2 1 x , , x , x K E x uma base de E, chamam-se componentes ou coordenadas de um vector ∈ relativamente à base considerada aos escalares n 2 1 , , , α α α K que surgem na combinação linear ∑ = α = n 1 i i ix x . Teorema 3.14: Um conjunto de vectores { } n 2 1 x , , x , x K é uma base de um espaço vectorial E se, e somente se, cada vector x se exprime de forma única como combinação linear dos vectores x , isto é, E ∈ n 2 1 x , , x , K ∑ = α = n 1 i i ix x , com únicos. n 2 1 , , , α α α K Demonstração: Exercício. Exemplos: 1. Em IR 2 são bases ( ) ( ) { } 1 , 0 , 0 , 1 , ( ) ( ) 1 , 1 , 0 , 1 { }, etc. 2. No espaço K n sobre o corpo K, chama-se base canónica à base ( ) ( ) ( ) { } 1 , 0 , , 0 , 0 , , 0 , 0 , , 1 , 0 , 0 , 0 , , 0 , 1 K K K K . 3. No espaço real C , { é uma base: tem dimensão 2. O espaço complexo C tem dimensão 1. } } } } } i , 1 Teorema 3.15: Sejam E um espaço vectorial sobre um corpo K de dimensão igual a n e um conjunto de n vectores de E. Então, as seguintes afirmações são equivalentes: { n 2 1 e , , e , e K a) é uma base de E; { n 2 1 e , , e , e K b) é um conjunto de geradores de E; { n 2 1 e , , e , e K c) é um conjunto de vectores linearmente independentes de E. { n 2 1 e , , e , e K Demonstração: Exercício. 30
  • 32.
    Exercícios: 1. Indique acondição a que deve satisfazer λ de modo a que os vectores ( ), ( ) e constituam uma base de IR 1 , 0 , 1 0 , , 0 λ ( λ , 0 , 1 ) 3 . 2. Considere o seguinte subespaço vectorial do espaço vectorial IR 4 : ( ) { ∈ = t , z , y , x A IR 4 : } 0 t z y x = + − − . Determine uma base e a dimensão do subespaço A. Pelo que vimos anteriormente, fixada uma base { } n 2 1 e , , e , e K no espaço E, cada vector de E fica bem definido pelas suas coordenadas, isto é, pelos escalares que aparecem em: ( ) n 2 1 , , , α α α K ou [ ] n 2 1 α α α L ou em .             α α α n 2 1 M Exemplo: No espaço dos polinómios de grau não superior a 3, { } 3 2 x , x , x , 1 é uma base. Nesta base, as coordenadas do polinómio são 3 2 x 5 x 4 x 2 − + + − [ ] 5 4 1 2 − − . Aplicações Lineares Definição 3.16: Sejam E e F dois espaços vectoriais definidos sobre o mesmo corpo K e ϕ uma aplicação de E em F. Se é tal que ϕ ( ) ( ) ( ) y x y x , E y , x ϕ + ϕ = + ϕ ∈ ∀ ( ) ( ) x x , E x , K αϕ = α ϕ ∈ ∀ ∈ α ∀ então diz-se que é uma aplicação linear, um homomorfismo ou uma transformação linear de E em F. ϕ Uma aplicação linear de E em E diz-se um endomorfismo. Um aplicação linear bijectiva diz-se também um isomorfismo de E em F. Caso exista esse isomorfismo diz-se que E e F são espaços isomorfos. Um isomorfismo de E em E denomina-se automorfismo. Observação: Pode mostrar-se que as duas proposições da definição de aplicação linear são equivalentes à proposição: ( ) ( ) (y x y x , E y , x , K , ) βϕ + αϕ = β + α ϕ ∈ ∀ ∈ β α ∀ . Exemplos: 31
  • 33.
    1. A aplicaçãof de IR 3 em IR 2 definida por ( ) ( ) z y x , x z , y , x f + + = . 2. Homotetia (em IR 3 ): . ( ) ( z 2 , y 2 , x 2 z , y , x a ) 3. Rotação (em IR 2 ): ( ) ( x , y y , x − a ) (rotação de 2 π ) ou ( ) ( ) ( )         + − 2 y x 2 , 2 y x 2 y , x a (rotação de 4 π ) Exercício: Verifique se a seguinte aplicação é linear: : f IR 3 → IR 2 ( ) ( ) z y , y x z , y , x − − a . Representaremos por L o conjunto de todas as aplicações lineares de E em F, com E e F espaços vectoriais sobre um mesmo corpo K. ( F , E ) Observação: Prova-se que o conjunto L ( ) F , E é um espaço vectorial sobre K, para as operações: Adição: ∈ ψ ϕ, ∀ L , ( ) F , E ( )( ) ( ) ( ) x x x ψ + ϕ = ψ + ϕ . Multiplicação Escalar: ∈ ϕ ∀ ∈ α ∀ , K L ( ) F , E , ( )( ) ( ) [ ] x x ϕ α = αϕ . Propriedades das Aplicações Lineares: Sejam ∈ ϕ L ( ) F , E e ψ L ∈ ( ) G , F , com E, F e G espaços vectoriais sobre o mesmo corpo K. 1. ( ) . 0 0 = ϕ 2. é uma aplicação linear de E em G. ϕ ψ o 3. é um subespaço vectorial de F. ( ) E ϕ 4. , denominado núcleo da aplicação linear ϕ , é um subespaço vectorial de E. { } ( ) ( ) { 0 x : E x 0 N 1 = ϕ ∈ = ϕ = − ϕ } 5. ( ) ( ) ( ) ( ) E dim N dim E dim ϕ + = ϕ . 6. A aplicação é injectiva se, e somente se, ϕ { } 0 N = ϕ . Exercício: Considere a aplicação linear : f IR 3 → IR 2 ( ) ( ) z y , y x z , y , x − − a . a) Determine . A aplicação f é injectiva? f N b) Determine dim (f (IR 3 )). Teorema 3.17: Sejam E e F dois espaços vectoriais sobre o mesmo corpo K, { } uma base de E e uma aplicação linear de E em F. Sejam f respectivamente, as imagens por dos vectores da base de E, isto é, n 2 1 e , , e , e K ϕ , f , , f , n 2 1 K ϕ n 2 1 e , , e , e K 32
  • 34.
    ( ) i if e = ϕ ( ) n , , 2 , 1 i K = Então podemos afirmar que: a) é injectiva se, e somente se, f são linearmente independentes. ϕ n 2 1 f , , f , K b) é sobrejectiva se, e somente se, f geram F. ϕ n 2 1 f , , f , K c) é bijectiva se, e somente se, f constituem uma base de F. ϕ n 2 1 f , , f , K Demonstração: Exercício. Definição 3.18: Sejam E e F dois espaços vectoriais (de dimensão finita) sobre um mesmo corpo K. Chama-se característica de uma aplicação linear ϕ de E em F, à dimensão do subespaço ϕ . ( ) E Matriz de uma Aplicação Linear Sejam E e F dois espaços vectoriais (de dimensão finita) sobre um mesmo corpo K, uma base de E, { uma base de F e { n 2 1 e , , e , e K } } m 2 1 f , , f , f K ∈ ϕ L ( ) F , E . Os vectores ( ) j e ϕ , com pertencem ao espaço F e como é uma base de F, então os vectores , n , , 2 , 1 j K = { } m 2 1 f , , f , f K ( ) j e ϕ podem representar-se de maneira única como combinação linear desses vectores, ( ) ∑ = = ϕ m 1 i i ij j f a e ( ), n , , 2 , 1 j K = onde cada designa a coordenada do vector K aij ∈ ( ) j e ϕ , relativamente ao vector da base de F. Isto é, tem-se i f ( ) ( ) ( ) m mn 2 n 2 1 n 1 n m 2 m 2 22 1 12 2 m 1 m 2 21 1 11 1 f a f a f a e f a f a f a e f a f a f a e + + + = ϕ + + + = ϕ + + + = ϕ L K K K K K K K K K K K K K L L Desta forma, podemos escrever as coordenadas de cada vector ( ) j e ϕ na forma matricial             = mn 2 m 1 m n 2 22 21 n 1 12 11 a a a a a a a a a A K K K K K K K sendo A a matriz, em que cada coluna j ( ) n , , 2 , 1 j K = é constituída pelas coordenadas do vector ( ) j e ϕ 1 e relativamente à base { , a matriz da aplicação linear em relação às bases { } e{ . Designa-se, em geral, A por } m f , } 2 1 , f , f K m f , ϕ n 2 e , , e , K 2 1 , f , f K ( ) } f { }, , M i ϕ e { j ou, apenas, por . ( ) ϕ M Observe-se agora o seguinte: seja E x ∈ e suponhamos que pretendemos determinar a imagem de x pela aplicação linear ϕ . Como { } n 2 1 e , , e , e K é uma base de E, podemos escrever 33
  • 35.
    n n 2 2 1 1 e e e x α + + α + α =L . Logo, atendendo a que ϕ é uma aplicação linear, podemos obter sucessivamente o seguinte: ( ) ( ) ( ) ( ) ( ) , f a f a f a f a f a e e e e e e x m 1 i i n 1 j j ij n 1 j m 1 i i ij j m 1 i i in n m 1 i i 2 i 2 m 1 i i 1 i 1 n n 2 2 1 1 n n 2 2 1 1 ∑ ∑ ∑ ∑ ∑ ∑ ∑ = = = = = = =         α = α = α + + α + α = ϕ α + + ϕ α + ϕ α = = α + + α + α ϕ = ϕ L L L Mas e, portanto, representa-se de maneira única como combinação linear dos vectores f da base de F, ( ) F x ∈ ϕ 2 1 , f , m f , K ( ) ∑ = β = β + + β + β = ϕ m 1 i i i m m 2 2 1 1 f f f f x L . Consequentemente, tem-se ∑ = α = β n 1 j j ij i a ( ) m , , 2 , 1 i K = e podemos escrever             α α α             =             β β β n 2 1 mn 2 m 1 m n 2 22 21 n 1 12 11 m 2 1 a a a a a a a a a M K K K K K K K M Observação: Pelo que vimos anteriormente, fixadas as bases em E e F, a aplicação linear ϕ fica bem definida pela matriz . ( ) ϕ M Teorema 3.19: Sejam E e F espaços vectoriais, de dimensões n e m, respectivamente, sobre um corpo K. A aplicação que associa a toda a aplicação Ψ ∈ ϕ L a matriz correspondente é uma aplicação bijectiva do espaço vectorial L no espaço vectorial , isto é, L ( F , E ( ) F , E ) ( ) ϕ M ( ) n , m MK : Ψ ( ) F , E → ( ) n , m MK , tal que ( ) ( ) ϕ = ϕ Ψ M , é bijectiva. Deste teorema podemos concluir que a cada aplicação linear está associada uma matriz e a cada matriz está associada uma aplicação linear. Assim, a característica de uma aplicação linear é igual à característica da matriz que lhe está associada. Mais, a característica de uma matriz é igual à dimensão do subespaço vectorial ( ) E ϕ , sendo ϕ a aplicação linear que lhe está associada. Exercício: Seja f IR : 3 → IR 2 tal que ( ) ( ) z y , y x z , y , x f − − = , uma aplicação linear. a) Determine a matriz de f relativamente às bases canónicas de IR 3 e IR 2 . 34
  • 36.
    b) A aplicaçãof tem inversa? Justifique. c) Calcule , usando: ( 3 , 2 , 1 f ) i) a definição de f; ii) a matriz de f. Matrizes de Mudança de Base Seja E um espaço vectorial sobre um corpo K. Suponhamos que E é de dimensão n e sejam { } n 2 1 e , , e , e K e { } n 2 1 e , , e , e ′ ′ ′ K duas bases de E. Como todo o vector de E se pode representar como combinação linear única dos vectores da base, podemos escrever ( ), n , 1,2, j e t e t e t e t e n 1 i i ij n nj 2 j 2 1 j 1 j K L = = + + + = ′ ∑ = e obter a matriz             = nn 2 n 1 n n 2 22 21 n 1 12 11 t t t t t t t t t T L L L L L L L , cuja coluna j é formada pelas coordenadas de ej ′ em relação à base { } n 2 1 e , , e , e K . Esta matriz denomina-se de matriz de transformação, matriz de mudança de base ou matriz de passagem da base para a base { n 2 1 e , , e , e K } { } n 2 e , , e , 1 e ′ ′ ′ K . Pode considerar-se T como a matriz da aplicação identidade em E relativamente às bases e { } n 2 1 e , , e , e ′ ′ ′ K { } n 2 1 e , , e , e K , isto é, ( ) } e { }, e { , id M T i j E ′ = . Seja x um vector de E. Então podemos escrever ∑ = α = α + + α + α = n 1 i i i n n 2 2 1 1 e e e e x L e ∑ = ′ β = ′ β + + ′ β + ′ β = n 1 j j j n n 2 2 1 1 e e e e x L . Logo, ∑ ∑ ∑ ∑ ∑ = = = = =         β = β = ′ β = n 1 i i n 1 j j ij n 1 j n 1 i i ij j n 1 j j j e t e t e x . Consequentemente, devido à unicidade das coordenadas do vector x relativamente à base , tem-se { } n 2 1 e , , e , e K 35
  • 37.
    ∑ = β = α n 1 j j ij i t ou β = α T, onde designa a matriz coluna e α [ T n 1 α α L ] β a matriz coluna [ ]T n 1 β β L . Analogamente, se T designar a matriz quadrada de ordem n cuja coluna j é formada pelas coordenadas de e relativamente à base ′ j { } n 2 1 e , , e , e ′ ′ ′ K , isto é, se T é a matriz de passagem da base { ′ } n 1 e , e ′ 2 , e , ′ ′ K para a base { } n 2 e , , e K 1, e , tem-se α ′ = β T . Combinando estas duas relações, tem-se             α α α ′ ⋅ =             β β β =             α α α n 2 1 n 2 1 n 2 1 T T T M M M e também             β β β ⋅ ′ =             α α α ′ =             β β β n 2 1 n 2 1 n 2 1 T T T M M M . Então , isto é, é a matriz inversa de T, ou seja T n I T T T T = ⋅ ′ = ′ ⋅ T′ 1 T− = ′ . Considere-se agora uma aplicação linear ∈ ϕ L ( ) F , E e vejamos que alterações ocorrem na matriz de ϕ quando se mudam as bases de E e F. Teorema 3.20: Sejam e { } n 2 1 e , , e , e K { } n 2 1 e , , e , e ′ ′ ′ K duas bases de E e T a matriz de passagem da base { } n 2 1 e , , e , K e para a base { } n 2 e , , e 1, e ′ ′ ′ K . Sejam { } e duas bases de F e S a matriz de passagem da base m 2 1 f , , f , f K { m 2 1 f , , f , f ′ ′ ′ K } { } m f , 2 1 , f , f K para a base . Seja A= { } m 2 1 f , , f , f ′ ′ ′ K ( ) } f { }, e { , i j ϕ M e A′ = ( ) } f { i }, e { , j M ′ ′ ϕ . Então podemos afirmar que T A S A 1 ⋅ ⋅ = ′ − . As matrizes A e , do tipo A′ n m× , por satisfazerem à relação ou à relação equivalente , com S e T matrizes regulares, de ordem m e n respectivamente, dizem-se matrizes equivalentes. T A S A 1 ⋅ ⋅ = ′ − 1 T A A − ⋅ ′ S⋅ = É óbvio que A e têm a mesma característica. No caso particular em que A′ , F E = isto é, no caso em que ∈ ϕ L , tem-se ( E , E ) T A T A 1 ⋅ ⋅ = ′ − , 36
  • 38.
    em que Té a matriz de passagem da base { } n 2 1 e , , e , e K para a base { } n 2 1 e , , e , e ′ ′ ′ K . As matrizes A e satisfazendo à relação A A′ T A T 1 ⋅ ⋅ = ′ − ou à equivalente em que T é regular, dizem-se matrizes semelhantes. , T A T A 1 − ⋅ ′ ⋅ = Exercício: Sejam E e F dois espaços vectoriais reais e { } 3 2 1 1 e , e , e B = e bases de E e F, respectivamente. Seja a aplicação linear tal que { 2 1 1 f , f B = ′ } ) F E : f → ( )       = ′ 0 1 1 1 0 1 B , B , f M 1 1 . Determine ( 2 2 B , B , f M ′ , onde { } 3 2 1 2 1 2 1 2 e e e , e e , e e B + + + − = e { } 2 2 1 2 f , f 2 f B − + = ′ são bases em E e F, respectivamente. Valores Próprios e Vectores Próprios Definição 3.21: Seja E um espaço vectorial sobre um corpo K e ϕ um endomorfismo de E. Um escalar λ é dito valor próprio de ϕ se existe algum vector em E tal que . Chama-se vector próprio de 0 x ≠ ( ) x x λ = ϕ ϕ associado ao valor próprio λ a todo o vector não nulo tal que . E x ∈ ( ) x x λ = ϕ Definição 3.22: Seja A uma matriz quadrada de ordem n. Um escalar λ é dito valor próprio de A se existe alguma matriz coluna X 0 ≠ , ( ) 1 , n M X K ∈ , tal que . Chama-se vector próprio de A associado ao valor próprio X AX λ = λ a toda a matriz não nula tal que . ( 1 , n MK ) X ∈ X AX λ = Evidentemente, a definição anterior é um caso particular da definição 3.21. Pois, a cada aplicação linear está associada uma matriz e basta designar ( ) 1 , n MK por E para que seja linear. AX X a Exemplos: 1. Se       = 2 1 0 2 A , 2 = λ e , temos       = 1 0 X X AX λ = . 2. Sejam ,           − − = 5 2 1 12 4 3 4 0 2 A 0 1 = λ , 1 2 = λ , 2 3 = λ ,          − = 1 2 3 2 X1 , e , com . Então           α α − = 0 4 X2      β β 0 IR , ∈ β α      = 2 X3 i i X i AX λ = , para i 3 , 2 , 1 = . Teorema 3.23: O conjunto dos vectores próprios de ∈ ϕ L ( ) E , E I λ − ϕ associado a um mesmo valor próprio acrescido do vector nulo é o subespaço de E (chamado subespaço K ∈ λ N 37
  • 39.
    próprio de associadoa e à sua dimensão chama-se multiplicidade geométrica do valor próprio λ ). ϕ λ 1, λ Demonstração: Exercício. Teorema 3.24: Se os vectores próprios de um endomorfismo estão associados a distintos valores próprios , então os vectores são linearmente independentes. n 1 x , , x K n ,λ K Demonstração: Exercício. Corolário 3.25: Um endomorfismo de um espaço vectorial de dimensão n tem, no máximo, n valores próprios distintos. 38
  • 40.
    4 DETERMINANTES Antes deiniciarmos o estudo da teoria dos determinantes, estudaremos alguns conceitos relacionados com permutações, essenciais à compreensão da dita teoria. Definição 4.1: Sejam n um número natural e { } n , , 2 , 1 A K = . Chama-se permutação de A a qualquer aplicação bijectiva de A em A. Observações: 1. O número de permutações de n elementos é igual a . ! n 2. Designaremos por o conjunto de todas as permutações de n elementos. (Veja a observação da página 2). n S Exemplos: 1. As permutações que pertencem a S são: 4         4 3 2 1 4 3 2 1         1 3 2 4 4 3 2 1 , , , , , , etc.         3 4 2 1 4 3 2 1         4 2 3 1 4 3 2 1         4 3 1 2 4 3 2 1         2 3 4 1 4 3 2 1 2. As permutações         4 2 1 5 3 6 6 5 4 3 2 1 e         4 6 3 1 2 5 6 5 4 3 2 1 pertencem a S . 6 É vulgar escrever-se ( em vez de , tornando a escrita mais simplificada. Repare-se que a escrita simplificada de uma permutação não é de forma alguma ambígua. ) ) ) 1 , 3 , 2         1 3 2 3 2 1 Teorema 4.2: ( é um grupo, onde o é a operação binária composição de aplicações. o , Sn Obs.: O grupo não é necessariamente comutativo. ( o , Sn Exemplo: Em S , 3         =                 2 1 3 3 2 1 3 1 2 3 2 1 2 3 1 3 2 1 o e 39
  • 41.
            =                 1 3 2 3 2 1 2 3 1 3 2 1 3 1 2 3 2 1 o Definição 4.3: Umatransposição é uma permutação σ de S tal que n ( ) j i = σ e , para , e σ , ( ) i j = σ j i ≠ ( ) k k = j , i k ≠ ∀ . Exemplo: 1. A permutação    pode simplesmente escrever-se na forma , isto é,      2 4 3 5 1 5 4 3 2 1 ( 5 , 2 ) ) ( ) 5 , 2 2 4 3 5 1 5 4 3 2 1 =         . 2. Analogamente, podemos escrever ( )( )( ) ( )( 5 , 2 4 , 3 , 1 2 1 4 5 3 5 4 3 2 1 3 , 4 1 , 3 5 , 2 =         = Nota: Uma transposição é inversa de si própria. Teorema 4.4: Qualquer permutação de S ( ) é composição de transposições, isto é, se é um permutação, então n 2 n ≥ k σ 2 1 τ τ τ = σ o o o L , com , k , , 1 i , i K = τ transposições. Exemplos: 1. Em S , 2 ( 2 , 1 1 2 2 1 =         ) e ( )( ) 1 , 2 2 , 1 2 1 2 1 =         2. Em S , 5 ( ) ( )( )( ) 3 , 4 2 , 3 1 , 2 4 , 3 , 2 , 1 5 1 4 3 2 5 4 3 2 1 = =         . Definição 4.5: Diz-se que uma permutação é par se é decomponível num número par de transposições e ímpar se é decomponível num número ímpar de transposições. Observação: Embora a decomposição de uma permutação em composição de transposições não seja única, a paridade do número de transposições em cada decomposição é sempre a mesma. Isto é, se uma permutação σ é tal que k 2 1 τ τ τ = σ o L o o e m 2 1 π π π = σ o L o o , então ou k e m são números pares ou k e m são números ímpares. 40
  • 42.
    Exemplo: A permutação   é par já que, por exemplo,    .      1 4 2 3 4 3 2 1 ( )( 3 , 1 4 , 1 1 4 2 3 4 3 2 1 =      ) Teorema 4.6: Uma permutação não pode ser simultaneamente par e ímpar. Além da definição, existe um outro método, mais prático, para a determinação da paridade de uma permutação. Esse método é descrito no teorema que se segue. Antes, defina- -se para uma permutação , tal que n S ∈ σ r 2 1 τ τ τ = σ o L o o 1 , o seu sinal como ε . Se é par, ; se é ímpar, ( ) ( )r 1 − = σ σ ( ) 1 = σ ε σ ( ) − = σ ε . Teorema 4.7: Para qualquer permutação n S ∈ σ , tem-se ( ) ( ) ( ) , em que ν é o número de pares ( tais que 1 σ ν − = σ ε 1 ( ) σ ) j , i n j i ≤ ≤ e ( ) ( ) j i σ σ . Dizemos que o número ν (definido no teorema anterior) é o número de inversões de σ . ( ) σ Observação: É óbvio que uma permutação é par ou ímpar se o seu número de inversões é, respectivamente, par ou ímpar. Exercício: Determine a paridade das seguintes permutações a partir do teorema anterior: a) b)            3 1 2 4 4 3 2 1      5 6 2 1 4 3 6 5 4 3 2 1 Teorema 4.8: Para , tem-se: 2 n ≥ 1. Se é uma transposição, então n S ∈ τ ( ) 1 − = τ ε ; 2. ( ) ( ) (θ ε σ ε ) = θ σ ε ∈ θ σ ∀ o , S , n . Corolário 4.9: Se σ , então n S ∈ ( ) ( ) σ ε = σ ε −1 . Exercício: Determine a inversa da permutação         = σ 6 5 3 2 1 4 6 5 4 3 2 1 e verifique que ( ) ( ) σ ε = σ ε −1 . 41
  • 43.
    Funções Multilineares Definição 4.10:Seja K um corpo e n n n K K K × × × L o espaço vectorial constituído pelo produto cartesiano de n factores n K . Chama-se função n-linear ( ou multilinear) sobre n K a uma aplicação K K K K : f n n n → × × × L tal que ( ) ( ) ( ) n i 1 n i 1 n i i 1 x , , y , , x f x , , x , , x f x , , y x , , x f K K K K K K β + α = β + α , para , , isto é, f é linear em relação a cada um dos n argumentos. n i 1 ≤ ≤ n n 1 K x , , x , K , ∈ ∀ ∈ β α ∀ K Observação: A condição ( ) ( ) ( ) n i 1 n i 1 n i i 1 x , , y , , x f x , , x , , x f x , , y x , , x f K K K K K K β + α = β + α é equivalente a: ( ) ( ) ( ) n i 1 n i 1 n i i 1 x , , y , , x f x , , x , , x f x , , y x , , x f K K K K K K + = + e ( ) ( ) n i 1 n i 1 x , , x , , x f x , , x , , x f K K K K α = α . Exemplos: 1. IR : f 2 × IR 2 → IR, tal que, ( ) ( ) ( ) bd ac d , c , b , a f + = é bilinear. 2. IR : f 2 IR × 2 → IR , tal que, ( ) ( ) ( ) bc ad d , c , b , a f − = é bilinear. Pode provar-se que ( ) ( ) ( ) , c , b f d , a é a área do paralelogramo definido pelos vectores ( ) b , a e . ( ) d , c Pode facilmente verificar-se que aplicação bilinear do exemplo 2. satisfaz as propriedades: ( ) ( ) ( ) 0 b , a , b , a f = e ( ) ( ) ( ) ( ) ( ) ( ) b , a , d , c f d , c , b , a f − = , ao contrário da aplicação bilinear do exemplo 1.. Estas propriedades sugerem a seguinte definição: Definição 4.11: Uma função n-linear f diz-se alternada se para , x x j i = com , j i ≠ ( ) 0 x , , x , , x , , x f n j i 1 = K K K , isto é, anula-se sempre que dois dos vectores sejam iguais. Uma função n-linear f diz-se anti-simétrica se ( ) ( ) n i j 1 n j i 1 x , , x , , x , , x f x , , x , , x , , x f K K K K K K − = , isto é, uma troca de sinal corresponde a uma troca de posição de dois vectores. Teorema 4.12: Sejam K um corpo de característica diferente de 2 (isto é, um corpo que satisfaça a propriedade: 0 x 0 x x = ⇒ = + ) e uma função n-linear. Então as seguintes afirmações são equivalentes: K K K K : f n n n → × × × L a) f é anti-simétrica. b) f é alternada. c) Se e são linearmente dependentes, então i x j x ( ) 0 x , , x , , x , , x f n j i 1 = K K K . 42
  • 44.
    Observação: Se umafunção n-linear é anti-simétrica e σ é uma permutação de S , então n ( ) ( ) ( ) ( ) ( ) ( ) n 2 1 n 2 1 x , , x , x f x , , x , x f K K σ ε = σ σ σ . A partir de agora consideraremos sempre um corpo K de característica diferente 2. O corpo dos reais ou dos complexos são considerados corpos de característica zero (ou infinita). Seja A uma matriz quadrada de ordem n sobre K, isto é,             = nn 2 n 1 n n 2 22 21 n 1 12 11 a a a a a a a a a A L L L L L L L . É evidente que uma matriz pode identificar-se com um elemento de n n n K K K × × × L n , bastando identificar cada uma das suas linhas, L como elementos de , L , , L , n 2 1 K K . Assim, no contexto de podemos definir a seguinte função n-linear: ( n , n MK ) Definição 4.13: Chama-se determinante de ( ) n , n M A K ∈ à função n-linear alternada das linhas de A definida por: [ ] ( ) ( ) ( ) ( ) ∑ ∈ σ σ σ σ ⋅ σ ε = = = n S n n 2 2 1 1 ij a a a A A det a A L a . Observação: O determinante de uma matriz quadrada não é mais do que a soma de todos os produtos de n elementos da matriz, correspondentes a cada uma das permutações de S , afectados pelo sinal da permutação correspondente. Assim, o número de parcelas é igual a n . n ! ] A partir da definição, podemos facilmente constatar que: - Se A , então . [ 11 a = 11 a A det = - Se A , então det       = 22 21 12 11 a a a a 21 12 22 11 a a a a A − = , já que S , sendo a permutação par e a permutação ímpar.                       = 1 2 2 1 , 2 1 2 1 2         2 1 2 1         1 2 2 1 Assim, o determinante de uma matriz quadrada de ordem 2 é igual à diferença entre o produto dos elementos principais e o produto dos elementos da diagonal secundária. - Se A , então           = 33 32 31 23 22 21 13 12 11 a a a a a a a a a 43
  • 45.
    32 23 11 33 21 12 31 22 13 32 21 13 31 23 12 33 22 11 33 32 31 23 22 21 13 12 11 a a a a a a a a a a a a a a a a a a a a a a a a a a a − − − + + = , já queas permutações de S são: 3         3 2 1 3 2 1 , , , , , .         1 3 2 3 2 1         2 1 3 3 2 1         1 2 3 3 2 1         3 1 2 3 2 1         2 3 1 3 2 1 Em termos práticos, o cálculo do determinante de uma matriz quadrada de ordem 3 pode ser efectuado usando a Regra de Sarrus: as parcelas de sinal positivo do determinante são referentes ao produto dos elementos principais e aos produtos dos elementos que se dispõem nos vértices dos dois triângulos cuja base é paralela à diagonal principal, e as parcelas de sinal negativo do determinante são referentes ao produto dos elementos da diagonal secundária e aos produtos dos elementos que se dispõem nos vértices dos dois triângulos cuja base é paralela à diagonal secundária. Observe o esquema: 33 32 31 23 22 21 13 12 11 a a a a a a a a a Exercício: Calcule o determinante das seguintes matrizes: a) b) c)      − 1 3 5 2           − − − 3 3 1 1 2 1 4 0 2           − − − 1 2 3 2 4 2 1 2 1 No cálculo do determinante de uma matriz de ordem superior ou igual a 4 não é usual aplicar-se a definição de determinante, pois torna-se um cálculo fastidioso. No entanto, iremos estudar propriedades que facilitam esses cálculos. Antes dessas propriedades, estudemos agora as propriedades básicas dos determinantes. Propriedades dos Determinantes: Seja A uma matriz quadrada de ordem n. 1. (n-linear) Se uma fila de A se decompuser numa soma de filas, o determinante de A é igual à soma dos determinantes de duas matrizes em que nessa fila se usa uma parcela de cada vez, mantendo-se as restantes. Isto é, [ ] [ ] [ ] n i 1 n i 1 n i i 1 F , , F , , F det F , , F , , F det F , , F F , , F det K K K K K K ′ + = ′ + . 2. (n-linear) Se multiplicarmos uma fila de A por um escalar α , então o determinante vem multiplicado por , isto é, α [ ] [ ] n i 1 n i 1 F , , F , , F det F , , F , , F det K K K K α = α . 44
  • 46.
    Assim, também temosque A A n α = α . 3. (Anti-simetria) Ao trocarmos entre si duas filas paralelas de A, o determinante troca de sinal, isto é, [ ] [ ] n i j 1 n j i 1 F , , F , , F , , F det F , , F , , F , , F det K K K K K K − = . 4. (Função alternada) Se as filas de A são linearmente dependentes, então o determinante de A é igual a zero. 5. Não se altera o determinante de A quando a uma fila se adiciona uma combinação linear de outras filas paralelas. Basta observar que: [ ] [ ] [ ] n j j 1 n i 1 n j i 1 F , , F , , F , , F det F , , F , , F det F , , F F , , F det K K K K K K K α + = α + . 6. . Pois, representando a por a , cada parcela de det é da forma A det A det T = ji T ij T A ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) n n 1 1 1 n n 1 1 n n 1 1 T n n T 1 1 1 1 1 1 a a a a a a a a − − − − σ σ − σ σ σ σ σ σ σ ε = σ ε = σ ε = σ ε L L L L , isto é, corresponde a outro termo de , com o mesmo sinal. A det 7. ∗ = = A det A det A det . 8. Se A é uma matriz triangular, então nn 22 11 a a a A det L = . Em particular, . 1 I det = 9. A característica da matriz A é inferior à ordem se, e somente se, , isto é, A é uma matriz singular se, e somente se, det 0 A det = 0 A = . Evidentemente, A é regular se, e somente se, . 0 A det ≠ 10. B A B A ⋅ = ⋅ . 11. Se A é regular, então A 1 A 1 = − . 12. A característica da matriz A é igual à mais alta ordem das submatrizes quadradas de A com determinante não nulo. Exercício: Sejam A e B duas matrizes quadradas de ordem 2 tais que . Calcule B det 2 A det − = = ( ) ( ) [ ] T 1 AB 2 det − . Complementos Algébricos Definição 4.14: Seja A uma matriz quadrada de ordem n. Chama-se menor de ordem m de A ao determinante de qualquer submatriz de A de ordem m ( n m ). Dois menores dizem-se complementares se num deles estão representadas exactamente as linhas e colunas de A que não figuram no outro. Um menor diz-se principal se a sua diagonal tem somente elementos principais da matriz inicial. Um menor de A diz-se par ou ímpar conforme é par ou ímpar a soma dos índices das linhas e das colunas de A nele representadas. 45
  • 47.
    Dado um menorde A, o seu complemento algébrico é o produto do seu menor complementar pelo respectivo sinal ( )ω −1 , onde ω é a soma dos índices que determinam a paridade do menor. Notação: Sendo um elemento de A, representaremos por o complemento algébrico do menor ij a ij A ij a . Exemplo: Seja . Um seu menor é                 − − − = 1 2 5 3 4 2 0 1 0 1 1 3 4 1 0 0 2 1 0 0 4 5 0 3 1 A 2 3 4 0 0 1 2 0 0 − e é par, porque 18 4 2 1 5 4 2 = + + + + + = ω . O seu menor complementar é 1 4 4 0 − e o complemento algébrico é ( ) 1 4 4 0 1 4 4 0 − = − ω 1 − . Exercício: Determine o complemento algébrico do menor 12 a , sendo a elemento da matriz A do exemplo anterior. 12 Propriedades: a) Um menor principal é sempre par. b) Um menor e o seu complementar têm a mesma paridade. Depois destes conceitos, estamos em condições de estudar um teorema muito importante que permite calcular mais facilmente o determinante de uma matriz de ordem superior ou igual a quatro. Teorema 4.15: (Teorema de Laplace) Um determinante de uma matriz é igual à soma dos produtos dos elementos de uma fila pelos respectivos complementos algébricos. Exercício: Seja A . Utilize o teorema de Laplace para calcular             − − − − − = 1 2 4 3 1 3 2 1 0 4 2 0 2 1 1 2 A . Nota: Na aplicação do teorema de Laplace convém escolher uma das filas com mais zeros (se existirem). No entanto, podemos sempre fazer surgir zeros através da utilização de operações elementares que não alterem o valor do determinante. 46
  • 48.
    Teorema 4.16: Asoma dos produtos dos elementos de uma fila pelos complementos algébricos dos elementos homólogos de outra fila paralela é nula, isto é, hn in 2 h 2 i 1 h 1 i A a A a A a 0 + + + = L (i h ≠ ) ou nk nj k 2 j 2 k 1 j 1 A a A a A a 0 + + + = L ( k j ≠ ). Demonstração: Essa soma é igual ao determinante da matriz obtida substituindo a linha i pela linha h (ou coluna j pela coluna k). Desta forma, a matriz fica com duas filas iguais e portanto o determinante é nulo. Este teorema e o teorema de Laplace permitem escrever: ∑ ∑ = = = = n 1 i ij ij n 1 j ij ij A a A a A e 0 , ) h i e k j ( A a A a n 1 i ik ij n 1 j hj ij ≠ ≠ = = ∑ ∑ = = isto é, usando o símbolo de Kronecker, A A a ih n 1 j hj ij δ = ∑ = ou A A a jk n 1 i ik ij δ = = ∑ . Teorema 4.17: (Teorema de Laplace Generalizado) Um determinante de uma matriz é igual à soma dos produtos dos menores de ordem m contidos em m filas paralelas pelos respectivos complementos algébricos. Exercício: Seja . Utilize o teorema de Laplace generalizado para calcular                 − − − = 1 2 5 3 4 2 0 1 0 1 1 3 4 1 0 0 2 1 0 0 4 5 0 3 1 A A . Definição 4.18: Seja A uma matriz quadrada. Chama-se adjunta de A à matriz que desta se obtém substituindo cada elemento pelo seu complemento algébrico e transpondo a matriz resultante. Notação: A adjunta de uma matriz A é representada por adj A ou . Â De acordo com a definição anterior, se [ ] ij a A = , então a matriz adjunta de A é tal que adjA . [ ] [ ji T ij A A = = ] Exercício: Determine a matriz adjunta da matriz .           − − = 0 1 1 0 0 1 2 1 0 A 47
  • 49.
    Teorema 4.19: SejaA uma matriz quadrada de ordem n regular. Então I A adjA A ⋅ = ⋅ e 1 n A adjA − = . Demonstração: Basta observar que multiplicando A e , obtemos: adjA [ ] , b adjA A ij = ⋅ com ∑ δ = = k ij jk ik ij A A a b e [ ] , c A ij = ⋅ adjA com ∑ δ = = k ij kj ki ij A a A c . Assim, podemos concluir que I A A ⋅ = ⋅ adjA adjA A = ⋅ . E desta fórmula, usando as propriedades dos determinantes e o facto de A ser regular, temos que 1 n n A adjA A adjA A I A adjA A − = ⇔ = ⋅ ⇔ ⋅ = ⋅ Corolário 4.20: Se A é uma matriz quadrada regular, então adjA A 1 A 1 ⋅ = − . Demonstração: Usando-se o teorema 4.19, resulta de imediato que I A adjA A 1 adjA A 1 A = ⋅         ⋅ =         ⋅ ⋅ . Este corolário dá-nos assim um novo processo para calcular a inversa de uma matriz regular. Exercício: Utilizando a última propriedade, determine, caso exista, a matriz inversa da matriz           − − = 0 1 1 0 0 1 2 1 0 A . Resolução de Sistemas de Equações Lineares Usando a Teoria dos Determinantes Seja      = + + + = + + + m n mn 2 2 m 1 1 m 1 n n 1 2 12 1 11 b x a x a x a b x a x a x a L M L , um sistema de m equações lineares com n incógnitas, sobre um corpo K. Já sabemos que este sistema é equivalente à equação matricial AX B = , com 48
  • 50.
              = mn 1 m n 1 11 a a a a A L L L L L , e .           = n 1 x x XM           = m 1 b b B M 1º Caso: Se , então o sistema é possível e determinado e a matriz A é quadrada. Assim, a matriz A é invertível o que implica que o seu determinante é não nulo. Logo, pelo Corolário 4.20, (A car n m = = ) ( ) B adjA A 1 X B A X B A AX A B AX 1 1 1 ⋅ = ⇔ = ⇔ = ⇔ = − − − , isto é,           ⋅           ⋅ =           n 1 nn n 1 1 n 11 n 1 b b A A A A A 1 x x M L L L L L M , e portanto, ( ) A a b a a b a b A b A b A A 1 x nn n 1 n n 1 1 11 n ni 2 i 2 1 i 1 i L L M L M L M L L L = + + + = , onde os termos independentes aparecem na coluna i, com n , , 2 , 1 i K = . Regra de Cramer: Um sistema de n equações com n incógnitas com o determinante da matriz dos coeficientes não nulo é possível e determinado e o valor de cada incógnita é o inverso do determinante da matriz dos coeficientes multiplicado pelo determinante da matriz que se obtém a partir da matriz dos coeficientes substituindo os coeficientes dessa incógnita pelos correspondentes termos independentes. Os sistemas deste primeiro caso são usualmente denominados por sistemas de Cramer. Exercício: Resolva, se possível, o seguinte sistema usando a regra de Cramer:      = + = − = + + 0 y x 2 z x 1 z y x . 2º Caso: Se , então o sistema ( ) n m A car =      = + + + = + + + m n mn 2 2 m 1 1 m 1 n n 1 2 12 1 11 b x a x a x a b x a x a x a L M L é possível indeterminado e é equivalente a 49
  • 51.
         − − − = + + + − − − = + + + + + + n mn 1 m 1 m , m m m mm 2 2 m 1 1 m n n 1 1 m 1 m 1 1 m m 1 1 11 x a x a b x a x a x a x a x a b x a x a L L M L L Este último sistemapode resolver-se pela regra de Cramer, pois, relativamente às incógnitas principais, podemos considerar que estamos na presença de um sistema de Cramer. Sendo o número de incógnitas principais igual a ( ) m A Car = (as não principais são ), chama-se determinante principal do sistema ao determinante dos coeficien- tes das incógnitas (escolhidas para) principais. É óbvio que ( ) A car n − ∆ ∆ é não nulo, de ordem ( ) A Car . 3º Caso: . Por condensação, a matriz ampliada do sistema transforma-se em ( ) m r A Car =              β β − − − − − − β α β α β α              − − − − − − − − α α α α α α + m 1 r r rn 2 n 2 1 n 1 rr r 2 22 r 1 12 11 | 0 0 | | | | 0 0 | | | | | | | | | | | 0 0 0 0 0 0 0 L L M L L L L L M L L L L L L L L L L L L L L O O L L L Assim, para este caso temos que considerar r incógnitas e equações principais, que definem um determinante principal, não nulo, e r n − incógnitas não principais e r m − equações não principais. Nestas circunstâncias, sabemos que o sistema é possível se, e somente se, . 0 m 2 r 1 r = β = = β = β + + L Seja o determinante da matriz obtida a partir da matriz de determinante s ∆ ∆ acrescentando-lhe uma última linha, constituída pelos coeficientes das incógnitas principais da equação de ordem s não principal, e uma última coluna constituída pelos termos independentes dessas 1 r + equações, isto é, s r 1 sr 1 s rr 1 r r 1 11 s b | | b | | b | a a a a a a − − − − − − − − = ∆ M L L L L L L . Chama-se a determinante característico. s ∆ Como as operações elementares não alteram o determinante de uma matriz caso este seja nulo, então 0 | | | | | 0 0 0 0 b | | b | | b | a a a a a a s r 1 rr r 1 11 s r 1 sr 1 s rr 1 r r 1 11 s = β − − β β − − − − − − α α α = − − − − − − − − = ∆ M L L O L L M L L L L L L se, e somente se, , isto é, se, e somente se, cada determinante característico é nulo. Em conclusão: 0 s = β 50
  • 52.
    Teorema 4.21: (Teoremade Rouché) Um sistema de equações lineares é possível se, e somente se, ou não existem determinantes característicos ou, existindo, são todos nulos. Exemplos: 1. Considere o seguinte sistema:      = + + = + + − = − + 3 z y 3 x 2 1 z 2 y x 2 z y 2 x 3 . Verifique que 0 1 3 2 2 1 1 1 2 3 = − − . Um determinante principal é, por exemplo, 0 5 1 1 2 3 ≠ = − = ∆ . Um outro é, por exemplo, 0 5 2 1 1 2 ≠ = − . Neste caso, existe um determinante característico: 3 3 2 1 1 1 2 2 3 3 − = ∆ e . Logo, o sistema é possível e indeterminado. 0 3 = ∆ 2. Considere o seguinte sistema:        = + − − = + − = + − = + 2 z y x 3 1 z y 2 x 0 z 2 y 3 x 4 1 y x 2 . A matriz dos coeficientes é:             − − − 1 1 3 1 2 1 2 3 4 0 1 2 . Observe, por exemplo, que: 1. 0 2 ≠ ; 2. 0 10 3 4 1 2 ≠ − = − ; 51
  • 53.
    3. 0 1 2 1 2 3 4 0 1 2 = − − . 4.0 1 1 3 2 3 4 0 1 2 = − − Logo, a característica da matriz dos coeficientes é 2 e um determinante principal é 3 4 1 2 − = ∆ . Como, , 0 5 1 2 1 0 3 4 1 1 2 3 ≠ = − − − = ∆ então o sistema é impossível. Neste último exemplo foi usado o seguinte resultado: Teorema 4.22: A característica de uma matriz é r se, e somente se, contém um menor de ordem r não nulo e todos os de ordem 1 r + que dele se obtêm juntando uma linha e uma coluna da matriz são nulos. Sistemas Homogéneos Dado que um sistema homogéneo AX 0 = é sempre possível, tendo sempre a solução , então, quando a matriz dos coeficientes é quadrada, o sistema é determinado se, e somente se, 0 X = 0 A ≠ . Será indeterminado se, e somente se, 0 A = . Cálculo de Valores Próprios Recordemos que o escalar é valor próprio de um endomorfismo de um espaço vectorial se existe um vector tal que λ 0 ϕ x ≠ ( ) x x λ = ϕ . Equivalentemente, se A é a matriz da aplicação linear , em relação a certa base previamente fixada no espaço vectorial, temos a equação matricial AX ϕ X λ = ou ( ) 0 X I A = λ − , isto é, um sistema homogéneo que deve ter outras soluções além da nula, ou seja, deve ser indeterminado. Logo, a matriz I A λ − é singular (não regular), o que é equivalente a 0 I A = λ − . À equação 0 I A λ − = , cujas raízes são os valores próprios de A, chama-se equação característica. Chama-se polinómio característico ao polinómio I A λ − em λ de grau igual à ordem de A. Para este polinómio é válido o seguinte teorema: 52
  • 54.
    Teorema 4.23: Umpolinómio característico não depende da matriz que representa o endomorfismo de um espaço vectorial. ϕ Demonstração: Sejam e { } ( ) i e , M A ϕ = { } ( ) i e , M B ′ ϕ = , com { } i e e { } i e′ bases do espaço vectorial. Sabemos que , em que P é a matriz de passagem de { para { P A P B 1 ⋅ ⋅ = − } i e } i e′ . Vamos mostrar que I A I B λ − = λ − . Ora, I A P I A P P I P P A P I B 1 1 1 λ − = λ − = ⋅ ⋅ λ − ⋅ ⋅ = λ − − − − . Exercício: Determine os valores próprios da matriz           − 1 1 1 0 4 3 0 1 0 Teorema 4.24: Um endomorfismo ϕ de E, espaço vectorial de dimensão n, pode ser representado por uma matriz diagonal, isto é, é diagonalizável, se, e somente se, E admite uma base formada por vectores próprios de ϕ . Neste caso, os elementos principais dessa matriz diagonal são os valores próprios de ϕ e cada matriz de ϕ é semelhante a essa matriz. Demonstração: Basta observar que { } n 1 e , , e K é base de vectores próprios com ( ) i i i e e λ = ϕ , , se, e somente se, n , , 1 i K =             λ λ λ n 2 1 0 0 0 0 0 0 L L L L L L L é a matriz de em relação a essa base. ϕ Corolário 4.25: Se tem n valores próprios distintos, então ϕ ϕ pode ser representada por uma matriz diagonal. Demonstração: A n valores próprios distintos correspondem n vectores próprios linearmente independentes. Logo, porque n vectores linearmente independentes formam uma base, E admite uma base formada por vectores próprios de ϕ . Exercício: Seja o endomorfismo de IR ϕ 3 representado, em relação à base { de IR } 3 2 1 e , e , e 3 , pela matriz           = 1 2 0 0 0 1 0 2 1 A . a) Determine os valores próprios de ϕ . b) Determine o subespaço próprio associado a um dos valores próprios de . ϕ c) Diga, justificando, se a matriz A é, ou não, semelhante a uma matriz diagonal, isto é, se A é diagonalizável. 53
  • 55.
    5 Espaços Euclidianose Espaços Unitários Neste capítulo consideraremos sempre um espaço vectorial E sobre K, com K = IRou K = C / . Definição 5.1: Uma aplicação do produto cartesiano E E× em K tal que ( ) ( v u v , u a ) diz-se um produto interno (ou escalar) em E se satisfaz as seguintes propriedades: P1: ( ) . E 0 u u ≥ ( ) 0 u u = se, e somente se, 0 u = ; P2: ( ) ( ) ( ) w v w u w v u β + α = β + α ; P3: Se K = IR, ( ) ( v u u v = ); Se K = C / , ( ) ( ) v u u v = . Chama-se espaço euclidiano (ou unitário) a um espaço vectorial real (ou complexo) de dimensão finita com produto interno. Observações: 1. Independentemente do corpo ser o real ou o complexo, ( )∈ u u IR. 2. Se K = IR , ( ) ( ) ( ) v w u w v u w β + α = β + α , logo o produto interno é bilinear. 3. Se K = C / , ( ) ( ) ( ) v w u w v u w β + α = β + α . Exemplos: 1. Em IR n (que é um espaço vectorial real), se ∈ y , x IR n , usando as coordenadas dos vectores na base canónica, e ( ) n 1 x , , x x K = ( ) n y , K 1, y y = , podemos definir um produto interno do seguinte modo: ( ) ∑ = = n 1 i i i y x y x . Para , 3 n = ( ) 3 3 2 2 1 1 y x y x y x y x + + = . 2. Em C / n podemos definir um produto interno do seguinte modo: ( ) ∑ = = n 1 i i i y x y x . Propriedades do Produto Interno: 1. ( ) ( ) . 0 x 0 0 x = = Pois, basta observar que ( ) ( ) ( ) ( ) 0 x x x x x x x 0 x = − = − = . 2. Se ( ) , E y , 0 y x ∈ ∀ = então . E, se 0 x = ( ) , E y , 0 x y ∈ ∀ = então 0 x = . 3. (Desigualdade de Cauchy-Schwarz) Se E é espaço euclidiano e , E y , x ∈ então ( ) ( )( ) y y x x y x 2 ≤ . 54
  • 56.
    Definição 5.2: Numespaço E com produto interno chama-se norma do vector ao escalar real E x ∈ x definido por: ( ) x x x = . Exemplo: Em IR n , ( ) ∑ = = + + + = n 1 i 2 i 2 n 2 2 2 1 n 2 1 x x x x x , , x , x L K é uma norma denominada euclidiana. Em C / n , ( ) ∑ = = + + + = = n 1 i 2 i 2 n 2 2 2 1 n 2 1 x x x x x , , x , x x L K . Propriedades da Norma: 1. 0 x = se, e somente se, e 0 x = 0 x ≥ , para todo E x ∈ . 2. x x ⋅ α = α , para quaisquer α e K ∈ E x ∈ . 3. (Desigualdade Triangular) y x y x + ≤ + , para quaisquer E y , x ∈ . Observação: A desigualdade triangular é consequência da desigualdade de Cauchy-Schwarz: ( ) y x y x ⋅ ≤ . Definição 5.3: Dois vectores x e y, de um espaço vectorial E, com produto interno, dizem-se ortogonais se ( ) 0 y x = . Neste caso escreve-se y x⊥ . Chama-se complemento ortogonal de um conjunto S ao conjunto E ⊂ { } S x , x y : E y S ∈ ⊥ ∈ = ⊥ . Uma base é dita ortonormada (o.n.) se os vectores são ortogonais dois a dois e têm norma 1, isto é, a base { é ortonormada se } n 2 1 e , , e , e K ( ) 0 e e j i = , para , e j i ≠ 1 ei = , para . n , , 2 , 1 i K = Exemplos: 1. e . { } E 0 = ⊥ { } 0 E = ⊥ 2. Em IR 3 , com o produto interno já referido, são ortonormadas as bases: ( ) ( ) ( ) { } 1 , 0 , 0 , 0 , 1 , 0 , 0 , 0 , 1 e ( )                   −         01 , 0 , 0 , 2 2 , 2 2 , 0 , 2 2 , 2 2 . 55
  • 57.
    Teorema 5.4: Umespaço euclidiano (ou unitário) admite sempre uma base ortonormada. Demonstração: Este teorema é consequência do facto de qualquer espaço vectorial, de dimensão finita, ter uma base e uma base poder transformar-se numa base o.n. usando-se o processo de ortonormalização de Gram-Schmidt. Vejamos em que consiste este processo num espaço vectorial de dimensão 3. Seja E um espaço euclidiano (ou unitário) de dimensão 3 e { } 3 2 1 e , e , e uma sua base. Definam-se os vectores e por: 2 1 u , u 3 u 1 1 1 e e u = ; , u u u 2 2 2 ′ ′ = com ( ) 1 1 2 2 2 u u e e u − = ′ ; , u u u 3 3 3 ′ ′ = com ( ) ( ) 1 1 3 2 2 3 3 3 u u e u u e e u − − = ′ . É imediato verificar que estes vectores têm norma 1. Vejamos que u e são ortogonais: 1 2 u ( ) ( ) ( ) ( ) ( ) ( )( ) ( ) ( ) ( ) ( ) . 0 u e u e u 1 u u u e u e u 1 u u u e e u 1 u u 1 2 1 2 2 1 1 1 2 1 2 2 1 1 1 2 2 2 1 2 = − ′ = − ′ = − ′ = De modo semelhante pode mostrar-se que os restantes pares de vectores possíveis são também ortogonais. Mostrando que { constituem uma base de E (exercício!), conclui-se que é uma base o.n. de E. } } 3 2 1 u , u , u { 3 2 1 u , u , u Em geral, se E é um espaço vectorial de dimensão n e { } n 2 1 e , , e , e K é uma base de E, então constituem uma base ortonormada de E se: { n 2 1 u , , u , u K } 1 1 1 e e u = , , u u u k k k ′ ′ = com ( ) ∑ − = − = ′ 1 k 1 i i i k k k u u e e u , para k n , , 2 K = . (Ortonormalização de Gram-Schmidt) 56
  • 58.
    Definição 5.5: SejamE um espaço euclidiano e { } 0 E y , x ∈ . Define-se ângulo formado pelos vectores x e y por meio da igualdade θ ( ) y x y x cos ⋅ = θ , π ≤ θ ≤ 0 . Observações: 1. Da definição anterior conclui-se que ( ) θ ⋅ ⋅ = cos y x y x . 2. O ângulo θ já que, pela desigualdade de Cauchy-Schwarz, [ π ∈ , 0 ] ( ) ( ) ( ) 1 y x y x 1 1 y x y x y x y x ≤ ⋅ ≤ − ⇔ ≤ ⋅ ⇔ ⋅ ≤ e a função cos(x) é uma bijecção de [ ] π , 0 em [ ] 1 , 1 − . Cálculo do Produto Interno de Dois Vectores Sejam { uma base do espaço unitário E e } n 2 1 e , , e , e K E y , x ∈ . Então, existem , K , i i ∈ β α tais que , n , , 1 i K = n n 2 2 1 1 e e e x α + + α + α = L e n n 2 2 1 1 e e e y β + + β + β = L . Assim, podemos escrever: ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ∑∑ = = β α = β α + + β α + β α + + β α + + β α + β α = β + + β α + + α = n 1 i n 1 j j i j i n n n n 2 n 2 n 1 n 1 n n 1 n 1 2 1 2 1 1 1 1 1 n n 1 1 n n 1 1 e e e e e e e e e e e e e e e e e e y x L L L L L (1) Se representarmos ( ) j i e e por a , podemos obter a matriz ij [ ] ij a = A e deste modo, a expressão (1) para o produto interno de x por y pode escrever-se na forma matricial: ( ) Y A X y x T ⋅ ⋅ = , (2) em que           α α = n 1 X M , e           β β = n 1 Y M [ ] ij a A = . 57
  • 59.
    Observe-se que amatriz A é hermítica, pois ( ) ( ) i j j i e e e e = , no caso complexo, ou simétrica no caso real, já que ( ) ( ) i j j i e e e e = . Em particular, se a base { } n 2 1 e , , e , e K é o.n., então ( ) ij j i e e δ = , para quaisquer ou seja, . Consequentemente, as fórmulas (1) e (2) resumem-se a: , n , , 1 j , i K = n I A = ( ) Y X y x T n 1 i i i ⋅ = β α = ∑ = (no caso complexo) ou ( ) Y X y x T n 1 i i i ⋅ = β α = ∑ = (no caso real). No caso dos espaços vectoriais IR n e C / n , temos as seguintes expressões para a norma de um vector: - No caso geral: X A X x T ⋅ ⋅ = ; - Com bases o.n.: ∑ = α = ⋅ = n 1 i 2 i T X X x . Matriz de Passagem de uma Base O.N. para outra Base O.N. Sejam { } e { n 2 1 e , , e , e K } n 2 1 e , , e , e ′ ′ ′ K duas bases o.n. de E, espaço vectorial real ou complexo, e seja P a matriz de passagem da segunda base para a primeira base. Então, para , E y , x ∈ PX X = ′ e Y PY = ′ , em que X e Y são matrizes coluna das coordenadas de x e y na primeira base e e X′ Y′ são as matrizes coluna das coordenadas de x e y na segunda base. Suponhamos que E é um espaço euclidiano. Então, neste caso, ( ) , Y P P X Y X Y X y x T T T T ⋅ ⋅ ⋅ = ′ ⋅ ′ = ⋅ = isto é, , que equivale a afirmar que P é ortogonal. I P PT = ⋅ Suponhamos agora que E é um espaço unitário. Então, neste caso, ( ) , Y P P X Y X Y X y x T T T T ⋅ ⋅ ⋅ = ′ ⋅ ′ = ⋅ = isto é, I P PT = ⋅ , que equivale a afirmar que P é unitária. Em conclusão, uma matriz de passagem de uma base o.n. para outra base o.n. é ortogonal (se o espaço é real) ou unitária (se o espaço é complexo). Nota: 1. P ortogonal 1 P 1 P I P P 2 T ± = ⇒ = ⇒ = ⋅ ⇔ . 2. P unitária θ = ⇔ = ⇒ = ⋅ ⇒ = ⋅ ⇔ cis P det 1 P det 1 P P I P PT , [ [ π ∈ θ 2 , 0 . 58
  • 60.
    Se E éum espaço real e det 1 P = , então dizemos que as duas bases o.n. têm a mesma orientação e obtém-se uma a partir da outra por uma rotação. Exemplos: As bases { } e ( ) ( ) ( ) 1 , 0 , 0 , 0 , 1 , 0 , 0 , 0 , 1 ( ) ( ) ( ) { } 0 , 1 , 0 , 1 , 0 , 0 , 0 , 0 , 1 não têm a mesma orientação, pois 1 0 1 0 1 0 0 0 0 1 P det − = = . Uma rotação em IR 2 é uma aplicação linear que pode ser representada pela matriz ortogonal:       θ θ θ − θ = cos sen sen cos P . Produto Vectorial e Misto em IR 3 Definição 5.14: Sejam x e y dois vectores de IR 3 (com o produto escalar usual). Define-se produto vectorial (ou externo) de x por y, que denotamos por y x ∧ , do seguinte modo: - Se x e y são linearmente dependentes, 0 y x = ∧ . - Se x e y são linearmente independentes, y x ∧ é tal que 1. é ortogonal a x e a y. y x ∧ 2. é uma base directa (ou positiva) (isto é, a matriz de passagem da base para esta base tem determinante positivo). ( y x , y , x ∧ ( ) ( , 1 , 0 , 0 , 0 , 1 ) )) ( ) ( 1 , 0 , 0 , 0 3. θ ⋅ ⋅ = ∧ sen y x y x , com [ ] π ∈ θ , 0 , o ângulo formado pelos vectores x e y. Observação: A partir de agora consideraremos sempre a base canónica de IR 3 , inclusivé na Geometria Analítica, representada por três segmentos de recta de origem O e tal que um observador com a cabeça no sentido de , vê e à sua direita e e à sua esquerda (isto é, rodando no sentido directo um ângulo de 3 e 1 2 1 e 2 π obtém-se ). Fixando esta base como positiva, diremos que a base com orientação contrária (isto é, obtida por uma mudança de base cuja matriz tem determinante negativo) é inversa (ou negativa). Por isto, utiliza-se a notação em lugar de { } 2 e ( 3 2 1 e , e , e ) ) 3 2 1 e , e , e . Cálculo do produto vectorial: Se ( é uma base de IR 3 2 1 e , e , e 3 o.n. directa e 3 3 2 2 1 1 e x e x e x x + + = , 3 3 2 2 1 1 e y e y e y y + + = , então ( ) ( ) ( ) 3 1 2 2 1 2 1 3 3 1 1 2 3 3 2 e y x y x e y x y x e y x y x y x − + − − − = ∧ . 59
  • 61.
    No cálculo doproduto vectorial pode utilizar-se o determinante simbólico (não tem valor como determinante): 3 2 1 2 1 2 3 1 3 1 1 3 2 3 2 3 2 1 3 2 1 3 2 1 e y y x x e y y x x e y y x x y y y x x x e e e y x + − = = ∧ . Propriedades do Produto Vectorial 1. ; x y y x ∧ − = ∧ 2. ( ) ( ) ( y x y x y x α ∧ ) = ∧ α = ∧ α , ∈ α IR; 3. ( ) ( ) ( z y z x z y x ∧ ) + ∧ = ∧ + ; 4. ; ( ) ( ) ( z x y x z y x ∧ + ∧ = + ∧ ) 5. ( ) ( ) ( )x z y y z x z y x − = ∧ ∧ ; 6. y x ∧ é a área do paralelogramo definido pelos vectores x e y. Exercício: Mostre que ( ) ( ) ( ) 0 y x z x z y z y x = ∧ ∧ + ∧ ∧ + ∧ ∧ . Definição 5.15: Sejam IR ∈ z , y , x 3 . Chama-se produto misto dos três vectores x, y e z ao escalar ( ) z y x ∧ . Atenção: É óbvio que no produto misto efectua-se primeiro o produto vectorial e depois o produto escalar. Propriedades do Produto Misto: 1. Se é uma base de IR ( 3 2 1 e , e , e ) 3 o.n. directa e 3 3 2 2 1 1 e x e x e x x + + = , 3 3 2 2 1 1 e y e y e y y + + = , 3 3 2 2 1 1 e z e z e z z + + = então ( ) 3 2 1 3 2 1 3 2 1 z z z y y y x x x z y x = ∧ . 2. O produto misto troca de sinal sempre que se troquem entre si as posições de dois dos três vectores, isto é, 60
  • 62.
    ( ) () ( ) ( ) y z x x y z z x y z y x ∧ − = ∧ − = ∧ − = ∧ . 3. O produto misto não se altera por permutação circular dos três vectores ou pela troca dos sinais e ∧ , isto é, ( ) ( ) ( ) ( ) z y x y x z x z y z y x ∧ = ∧ = ∧ = ∧ . 4. ( ) z y x ∧ ( ) é o volume do paralelepípedo definido pelos três vectores. Observe-se ainda que cos z y x z y x θ ⋅ ⋅ ∧ = ∧ , com [ ] π ∈ θ , 0 , o ângulo formado pelos vectores e z. y x ∧ x θ z y y x ∧ 61
  • 63.
    6 Geometria Analítica Definição6.1: Seja E um espaço vectorial real. Chama-se espaço afim associado ao espaço E a qualquer conjunto E, não vazio, cujos elementos são ditos pontos, tal que, a cada par ordenado E×E corresponde um vector de E (dito vector livre) designado por ( )∈ B , A AB ou , de modo que A B − a) 0 CA BC AB = + + , para quaisquer pontos ∈ C , B , A E; b) fixado em E um ponto qualquer O, a aplicação : Ψ E E definida por → ( ) OP P = Ψ é uma aplicação biunívoca de E sobre E. Observações: 1. A condição em a) pode escrever-se na forma ( ) ( ) ( ) 0 C A B C A B = − + − + − . 2. Em b), podemos escrever , para u O P = − ( ) u P = Ψ . 3. Se E é um espaço euclidiano, E diz-se euclidiano. 4. Se E tem dimensão n, diz-se que E tem dimensão n. Propriedades: Sejam E, com E um espaço afim. ∈ D , C , B , A 1. 0 AA = ; 2. BA AB − = ; 3. AC BC AB = + ; 4. C B AC AB = ⇒ = ; 5. B A 0 AB = ⇒ = ; 6. BD AC CD AB = ⇒ = . Definição 6.2: Se E é um espaço afim euclidiano, chama-se distância entre A a B, com E, a ∈ B , A ( ) ( ) AB AB AB B , A = = d . Definição 6.3: Sejam E e . Chama-se soma de A com u, , ao ponto B tal que . ∈ A E u ∈ u A + u A B = − Proposição 6.4: Para E e , ∈ A E u ∈ 1. u u AA = + ; 2. . 0 u A u A = ⇒ = + 62
  • 64.
    Definição 6.5: SejamE um espaço vectorial, ( ) n 2 1 e , , e , e K uma base de E e E, com E espaço afim associado a E. Chama-se referencial ou sistema de referência do espaço afim E a . Ao ponto O chama-se origem do referencial. Se a base é o.n., o referencial é dito ortonormado. Chamam-se coordenadas do ponto P no referencial às coordenadas do vector ∈ O 1 e , e ( n 2 1 e , , e , e ; O K ( n 2 1 e , , e , e ; O K ) ) ( ) n 2 e , ,K OP em relação à base considerada. De acordo com esta definição, podemos “identificar” um ponto P de E com o vector OP de E. Por exemplo, no espaço afim tridimensional R 3 associado a IR 3 , podemos “identificar” ( c , b , a P ) com 3 2 1 ce be ae OP + + = . Ainda em R 3 , se é um referencial e Q um ponto, a translação do referencial segundo ( 3 2 1 e , e , e ; O ) OQ é o novo referencial . Assim, se ( 3 2 1 e , e , e ; Q ) ∈ P R 3 , é tal que ( ) z , y , x = OP e ( 0 0 0 z , y , x OQ = ), tem-se a mudança de coordenadas por translação      ′ + = ′ + = ′ + = z z z y y y x x x 0 0 0 com ( z , y , x QP ′ ′ ′ = ), já que QP OQ OP + = . Definição 6.6: O conjunto dos pontos de R 3 que estão a uma distância r de um ponto fixo C dado denomina-se esfera de centro C e raio r, isto é, ( ) { } { } ( )       = = = = = r CP CP : P r CP : P r C , P d : P . Num referencial o.n. e ( ) 3 2 1 e , e , e ; O s ( ) z , y , x P e ( ) 3 2 1 c , c , c C , então ( ) { } ( ) ( ) ( ) ( ) { } 2 2 3 2 2 2 1 r c z c y c x : z , y , x P r C , P d : P = − + − + − = = . Definição 6.7: Chama-se subespaço afim (ou variedade linear) de um espaço afim E, associado a um espaço vectorial real E, a um subconjunto F não vazio de E tal que F , em que é um ponto fixado em F e F é um subespaço vectorial de E. { F P P : P 0 + ∈ = } 0 P Observações: 1. { } F v : v P F P 0 0 ∈ + = + . 2. A dimensão do subespaço afim F é a dimensão de F. Um subespaço afim de dimensão 1 denomina-se recta e um subespaço afim de dimensão 2 denomina-se plano. Assim, , com e u P P 0 λ + = { } 0 E u ∈ ∈ λ IR , é uma equação que define uma recta e , com v µ + u P P 0 λ + = { } 0 E v , u ∈ (linearmente independentes) e λ IR , é uma equação que define um plano. ∈ µ , 3. Se , F e se F = E, F = E. { } 0 F = { } 0 P = 4. De acordo com a definição e no caso de IR 3 , F é a translação de um subespaço vectorial F de IR 3 . 63
  • 65.
    Em R 3 , se( é um referencial o.n., ) 3 2 1 e , e , e ; O ∈ 0 P R 3 e ∈ u IR 3 , o conjunto IR é uma recta que passa por P e tem a direcção de u (paralela a u). Se são as coordenadas de u na base { } 0 { ∈ λ λ + = , u P P : P 0 ( ) 3 2 1 u , u , u } 0 ( ) 3 e e ( 2 , e 1, 3 2 2 1 e e u u 3 u + 1 e u + = ) e γ β α , , são os ângulos formados por u com , respectivamente, então 3 2 1 e , e , e ( ) 2 3 2 2 2 1 1 1 1 1 u u u u u u e u e u cos + + = = ⋅ = α , ( ) 2 3 2 2 2 1 2 2 2 2 u u u u u u e u e u cos + + = = ⋅ = β , ( ) 2 3 2 2 2 1 3 3 3 3 u u u u u u e u e u cos + + = = ⋅ = γ , denominados cosenos directores da recta. Observações: 1. . 1 cos cos cos 2 2 2 = γ + β + α 2. Dado um ponto O P ≠ em R 3 , tem-se que ( ) 3 2 1 e cos e cos e cos OP OP ⋅ γ + ⋅ β + ⋅ α = , em que γ β, , α são os ângulos formados por OP com e , respectivamente. 3 2 1 e , e , No estudo das rectas e dos planos usaremos sempre o referencial canónico, isto é, o referencial onde é a base canónica de IR ( ) 3 2 1 e , e , e ; O ( 3 2 1 e , e , e ) 3 . Ficará assim subentendido que as representações cartesianas das rectas e dos planos são sempre relativas a este referencial. Estudo das Rectas e dos Planos em R 3 O Plano: Pelo que vimos anteriormente, um plano é um subespaço afim de dimensão 2 de R 3 . Assim, é definido por dois vectores linearmente independentes e por um ponto, isto é, um plano é o conjunto dos pontos P de R 3 que satisfazem a equação (dita equação vectorial do plano) , com IR, onde é um ponto dado de R v u P P 0 µ + λ + = ∈ µ λ, 0 P 3 e u, v são vectores linearmente independentes de IR 3 . Temos assim uma forma de definir um plano a partir de um ponto e duas direcções não colineares. Casos particulares: Se o plano passa por ( ) 0 0 0 0 z , y , x P e é paralelo a - YOZ, então ; 0 x x = - XOZ, então ; 0 y y = - XOY, então . 0 z z = Sejam ( ) P e dois pontos e 0 0 0 0 z , y , x ( z , y , x P ) 3 3 2 2 1 1 e u e u e u u + + = , 3 3 2 2 1 1 e v e v e v v + + = . 64
  • 66.
    Se representarmos porP, P0, U, V as matrizes coluna das coordenadas de P, P , u, v, respectivamente, então, da equação vectorial de um plano, podemos escrever a equação matricial 0 P = P0 + λ U + µV, ∈ µ λ, IR, ou, equivalentemente,      µ + λ + = µ + λ + = µ + λ + = 3 3 0 2 2 0 1 1 0 v u z z v u y y v u x x ∈ µ λ, IR, ditas equações paramétricas. A equação vectorial do plano é, evidentemente, equivalente à equação v u P P0 µ + λ = , isto é, o vector P P0 é ortogonal ao produto vectorial de u e v. Logo, é nulo o produto misto ( ) 0 v u P P0 = ∧ , isto é, 0 v v v u u u z z y y x x 3 2 1 3 2 1 0 0 0 = − − − , que é uma nova equação sem os parâmetros λ e µ. A partir desta equação ou das equações paramétricas, eliminando os parâmetros λ e µ, podemos obter uma equação da forma 0 D Cz By Ax = + + + , dita equação cartesiana do plano, na forma geral, ou equação geral do plano. Observação: O vector de coordenadas ( ) C , B , A é perpendicular ao plano. Agora, podemos facilmente compreender como podemos definir um plano a partir de dois pontos , e uma direcção , tal que 0 P 1 P u 1 0P P e u sejam linearmente independentes, ou três pontos , , , não colineares. Basta, respectivamente, substituir nas equações já apresentadas v por 0 P 1 P 2 P 1 0P P ou u e v por 1 0P P e 2 0P P . Pois, por exemplo, se e são não colineares, então ( ) 0 0 0 0 z , y , x P , ( ) 1 1 1 1 z , y , x P ( 2 y , x ) 2 2 z , 2 P 1 0P P e 2 0P P são linearmente independentes e a equação vectorial do plano vem dada por ( ) ( ) 0 2 0 1 0 P P P P P P − µ + − λ + = , ∈ µ λ, IR, e as equações paramétricas por 65
  • 67.
    ( ) () ( ) ( ( ) (      − µ + − λ + = − µ + − λ + = − µ + − λ + = 0 2 0 1 0 0 2 0 1 0 0 2 0 1 0 z z z z z z y y y y y y x x x x x x ) ) , ∈ µ λ, IR. Como anteriormente, podemos também obter a equação geral do plano eliminando os parâmetros ou utilizando a equação ( ) ( ) ( ) ( ) 0 P P P P P P 0 2 0 1 0 = − ∧ − − , que é equivalente a 0 z z y y x x z z y y x x z z y y x x 0 2 0 2 0 2 0 1 0 1 0 1 0 0 0 = − − − − − − − − − ou 0 1 z y x 1 z y x 1 z y x 1 z y x 2 2 2 1 1 1 0 0 0 = . Nota: Da última equação podemos deduzir que quatro pontos ( ) 0,1,2,3 i , z , y , x P i i i i = , estão no mesmo plano se, e somente se, 0 1 z y x 1 z y x 1 z y x 1 z y x 3 3 3 2 2 2 1 1 1 0 0 0 = . Também podemos definir um plano a partir de um ponto ( ) 0 0 0 0 z , y , x P e um vector perpendicular ao plano: ( 3 2 1 u , u , u u = ) ( ) ( ) 0 u P P 0 = − , que é equivalente a ( ) ( ) ( ) 0 z z u y y u x x u 0 3 0 2 0 1 = − + − + − ou ( ) 0 z u y u x u z u y u x u 0 3 0 2 0 1 3 2 1 = + + − + + , que é a equação geral do plano. Generalização: Seja By Ax + a equação geral de um plano. 0 D Cz = + + • Se , então o plano é paralelo a OX; 0 A = • Se , então o plano é paralelo a OY; 0 B = • Se , então o plano é paralelo a OZ; 0 C = • Se , então o plano passa pela origem. 0 D = 66
  • 68.
    Suponhamos agora que0 D Cz By Ax : = + + + π , com A, B, C e D não nulos (isto é, o plano não é paralelo a qualquer dos eixos e não passa pela origem). Então a equação geral é equivalente a π 1 C D z B D y A D x = − + − + − , ou seja 1 c z b y a x = + + , dita equação axial do plano. Observe-se que: - se x = e , então . O plano passa pelo ponto 0 0 y = c z = ( ) c , 0 , 0 ; - se x = e , então . O plano passa pelo ponto 0 0 z = b y = ( ) 0 , b , 0 ; - se y = e , então . O plano passa pelo ponto 0 0 z = a x = ( ) 0 , 0 , a . Suponhamos que o ponto do plano 0 P π é o ponto de intersecção com o plano da normal a passando pela origem O do referencial. π π ( 0 OP é perpendicular ao plano) x y z ( ) 0 , 0 , a ( ) 0 , b , 0 ( ) c , 0 , 0 0 OP Sejam γ β α , , os ângulos que o vector ( ) 0 0 0 0 z , y , x = OP forma com os eixos OX, OY, OZ, respectivamente. Então, a OP cos 0 = α , b OP cos 0 = β , c OP cos 0 = γ e p OP0 = é a distância do plano à origem. Logo, da equação axial obtemos p cos z cos y cos x = γ ⋅ + β ⋅ + α ⋅ , dita equação normal ou hessiana. Seja By Ax 0 D Cz = + + + outra equação cartesiana do plano , nas mesmas condições (não é paralelo a qualquer dos eixos e não passa pela origem). Evidentemente, esta equação é equivalente à equação normal. Logo, temos que π p D cos C cos B cos A − = γ = β = α 67
  • 69.
    donde 1 C B A cos C cos B cos A p D 2 2 2 2 2 2 2 2 2 2 2 + + = γ = β = α = implicando que 2 2 2 C B A D p + + =, que é a distância da origem ao plano. Agora, podemos determinar os cosenos directores. Para isso temos que ter , isto é, − com o mesmo sinal de p (caso seja necessário, multiplica-se por os dois membros da equação geral do plano). Então, 0 D − D 1 − 2 2 2 C B A A cos + + = α , 2 2 2 C B A B cos + + = β , 2 2 2 C B A C cos + + = γ são os cosenos directores da normal ao plano, que serão exactamente A, B, C se e . Em geral, A, B, C são parâmetros directores dessa normal, isto é, definem um vector com a mesma direcção. Dito por outras palavras, o vector de coordenadas é perpendicular ao plano. 1 C B A 2 2 2 = + + ( , A 0 D − ) C , B Estrela de Planos Dado um ponto , a equação geral dos planos que passam pelo ponto é dada por ( 0 0 0 0 z , y , x P ) ( ) ( ) ( ) 0 z z C y y B x x A 0 0 0 = − + − + − , com , em que os coeficientes A, B, C são parâmetros arbitrários. A equação anterior define uma estrela de planos cujo centro é . 0 C B A 2 2 2 ≠ + + 0 P Posição Relativa de Planos Posição relativa de dois planos: Sejam 0 D z C y B x A : 1 1 1 1 1 = + + + π e 0 D z C y B x A : 2 2 2 2 2 = + + + π . Estas duas equações definem um sistema    = + + + = + + + 0 D z C y B x A 0 D z C y B x A 2 2 2 2 1 1 1 1 . Sabemos que este sistema somente pode ser possível indeterminado ou impossível. Analisemos cada um dos casos. Considerem-se a matriz dos coeficientes e a matriz ampliada do sistema:       = 2 2 2 1 1 1 C B A C B A M ,       = ′ 2 2 2 2 1 1 1 1 D C B A D C B A M 68
  • 70.
    1º Caso: Suponhamosque o sistema é possível indeterminado. Isto é, Car ou . 2 M Car M = ′ = 1 M Car M Car = ′ = - Se Car 2 M Car M = ′ = 1 π 2 π , o sistema é possível simplesmente indeterminado, então os planos e são concorrentes, isto é, a intersecção deles é uma recta: 1 π 2 π - Se Car 1 M Car M = ′ = 2 , o sistema é possível duplamente indeterminado, então os planos e π são coincidentes (paralelos em sentido lato). Assim, temos que 1 π 2 1 2 1 2 1 D D C C B B = = = 2 1 A A : 2 1 π ≡ π 2º Caso: Suponhamos que o sistema é impossível. Então 2 M Car e 1 M Car = ′ = . Neste caso, os planos e são paralelos (em sentido estrito) e tem-se que 1 π 2 π 2 1 2 1 2 1 2 1 D D C C B B A A ≠ = = : 2 π 1 π Posição relativa de três planos: Sejam 0 D z C y B x A : 1 1 1 1 1 = + + + π , 0 D z C y B x A : 2 2 2 2 2 = + + + π , e 0 D z C y B x A : 3 3 3 3 3 = + + + π . 69
  • 71.
    Estas equações definemum sistema de 3 equações a 3 incógnitas      = + + + = + + + = + + + 0 D z C y B x A 0 D z C y B x A 0 D z C y B x A 3 3 3 3 2 2 2 2 1 1 1 1 . Considerem-se a matriz dos coeficientes e a matriz ampliada do sistema:           = 3 3 3 2 2 2 1 1 1 C B A C B A C B A M , M           = ′ 3 3 3 3 2 2 2 2 1 1 1 1 D C B A D C B A D C B A 1º Caso: Suponhamos que o sistema é possível determinado, isto é, . Então o sistema tem uma única solução, um ponto. Logo, os três planos têm um só ponto em comum (fazem parte da estrela de planos centrada nesse ponto): 3 M Car = 2 π 1 π 3 π 2º Caso: Suponhamos que o sistema é possível indeterminado. Assim: - se Car 2 M Car M = ′ = , o sistema é possível simplesmente indeterminado, então a intersecção dos três planos é uma recta: 3 π 1 π 2 π - se Car 1 M Car M = ′ = , o sistema é possível duplamente indeterminado, então os três planos coincidem: 3 2 1 π ≡ π ≡ π 3º Caso: Suponhamos que o sistema é impossível. Assim: 70
  • 72.
    71 - se Car(só duas equações compatíveis), então um plano forma com os outros dois um prisma triangular ou é paralelo a algum deles, não havendo pontos comuns aos três planos: 3 M Car e 2 M = ′ = 1 π - se Car , então os três planos são paralelos ou dois são coincidentes e o outro é paralelo a estes: 2 M Car e 1 M = ′ = 1 π 2 π 3 π π 1 π 3 π 2 π 2 1 π ≡ 3 π 3 π 2 π A Recta: Pelo que vimos anteriormente, uma recta é um subespaço afim de dimensão 1 de R 3 . Assim, é definida por um vector e um ponto, isto é, uma recta é o conjunto dos pontos P de R 3 que satisfazem a equação (dita equação vectorial/equação matricial da recta) , com IR, onde é um ponto dado de R u P P 0 λ + = ∈ λ 0 P 3 e u é um vector, não nulo, de IR 3 . Em resumo: podemos definir uma recta que passa por um ponto e tem a direcção de um vector. Sejam ( P um ponto e ) 0 0 0 0 z , y , x ( ) 3 2 1 u , u , u u = um vector. Da equação vectorial da recta podemos obter as equações      λ + = λ + = λ + = 3 0 2 0 1 0 u z z u y y u x x , ∈ λ IR, ditas equações paramétricas da recta (sendo ( ) z , y , x P um ponto qualquer da recta).
  • 73.
    Suponhamos que ascoordenadas do vector u são todas não nulas. Então, eliminando o parâmetro nas equações paramétricas obtemos as correspondentes equações cartesianas λ 3 0 2 0 1 0 u z z u y y u x x − = − = − , denominadas equações normais da recta e denominam-se parâmetros directores da recta. Observe-se que a recta tem a direcção da normal ao plano de equação . 3 2 1 u , u , u 0 z u y u x u 3 2 1 = + + Suponhamos agora que somente uma das coordenadas do vector u é nula, por exemplo . Então, as equações paramétricas são dadas por 3 u      = λ + = λ + = 0 2 0 1 0 z z u y y u x x , ∈ λ IR, e as equações normais por 0 2 0 1 0 z z u y y u x x = ∧ − = − . Para os outros casos é semelhante. Se 0 u ≠ , podemos sucessivamente escrever 3 ( ) ( )    + = + = ⇔        − + = − + = ⇔          λ = − λ + = λ + = ⇔      λ + = λ + = λ + = q nz y p mz x z z u u y y z z u u x x u z z u y y u x x u z z u y y u x x 0 3 2 0 0 3 1 0 3 0 2 0 1 0 3 0 2 0 1 0 e obter as denominadas equações reduzidas da recta, em que 0 3 2 0 0 3 1 0 3 2 3 1 z u u y q e z u u x p , u u n , u u m − = − = = = . Como e , então 3 1 mu u = 3 2 nu u = ( ) ( ) 1 , n , m u u , u , u 3 3 2 1 = (m, n e 1 são parâmetros directores da recta). Observe-se que a equação p mz x + = é a equação de um plano paralelo a OY (que é o plano projectante da recta em XOZ) e a equação q nz y + = é a equação de um plano paralelo a OX (que é o plano projectante da recta em YOZ). É evidente que ambos contêm a recta. Para os outros casos é semelhante. Pelo que vimos antes e no estudo do plano, sabemos que uma recta pode ser definida por dois planos não paralelos. Durante o estudo do plano concluímos que o sistema    = ′ + ′ + ′ + ′ = + + + 0 D z C y B x A 0 D Cz By Ax representa uma recta se, e somente se, é possível, simplesmente indeterminado. Deste modo, pelo menos um dos menores de 2ª ordem 72
  • 74.
    B A B A ′ ′ , C B C B ′ ′ , A C A C ′ ′ é não nulo.Como os vectores 3 2 1 Ce Be Ae u + + = e u 3 2 1 e C e B e A ′ + ′ + ′ = ′ dão as direcções das normais àqueles planos, a recta (que é a intersecção dos planos) tem a direcção de u u ′ ∧ , isto é, tem direcção de 3 2 1 e B A B A e A C A C e C B C B ′ ′ + ′ ′ + ′ ′ . Assim, se é um ponto da recta, podemos obter uma equação vectorial da recta 0 P ( ) u u P P 0 ′ ∧ λ + = ou as equações normais da recta B A B A z z A C A C y y C B C B x x 0 0 0 ′ ′ − = ′ ′ − = ′ ′ − . Estudemos agora como definir uma recta a partir de dois pontos: . Observe-se que a recta tem a direcção do vector ( ) 0 0 0 0 z , y , x P e ( 1 1 1 1 z , y , x P ) 0 P − 1 1 0 P P P = . Assim, a equação vectorial/equação matricial vem dada por ( ) 0 1 0 P P P P − λ + = , ∈ λ IR, as equações paramétricas por ( ) ( ( )      − λ + = − λ + = − λ + = 0 1 0 0 1 0 0 1 0 z z z z y y y y x x x x ), ∈ λ IR, e as equações normais por 0 1 0 0 1 0 0 1 0 z z z z y y y y x x x x − − = − − = − − . Observação: Três pontos, ( ) 0 0 0 0 z , y , x P , ( ) 1 1 1 1 z , y , x P e ( ) 2 2 2 2 z , y , x P , são colineares se, e somente se, 0 1 0 2 0 1 0 2 0 1 0 2 z z z z y y y y x x x x − − = − − = − − ou, equivalentemente, se, e somente se, a matriz           1 z y x 1 z y x 1 z y x 2 2 2 1 1 1 0 0 0 tiver característica igual a 2. 73
  • 75.
    Equação Geral dosPlanos que Passam por uma Recta Considere-se a recta r definida por    = ′ + ′ + ′ + ′ = + + + 0 D z C y B x A 0 D Cz By Ax : r É óbvio que a equação ( ) ( ) 0 D z C y B x A D Cz By Ax = ′ + ′ + ′ + ′ β + + + + α , representa uma família de planos que contêm a recta r, desde que pelo menos um dos parâmetros reais α e β seja não nulo. Temos assim uma equação que define um feixe de planos em que a recta é a charneira do feixe. Equação Geral das Rectas que Passam por um Ponto Seja um ponto. A equação geral das rectas que passam por é dada por ( 0 0 0 0 z , y , x P ) 0 P c z z b y y a x x 0 0 0 − = − = − , onde os parâmetros directores são tais que a . Temos assim equações que definem uma estrela de rectas: 0 c b 2 2 2 ≠ + + Nota: Se algum dos denominadores é nulo, também o numerador deve ser nulo. Posições Relativas de Rectas e/ou Planos Posição relativa de uma recta e um plano: Considere-se uma recta e um plano definidos por    = + + + = + + + 0 D z C y B x A 0 D z C y B x A : r 2 2 2 2 1 1 1 1 0 D z C y B x A : 3 3 3 3 = + + + π . 74
  • 76.
    Sabemos que arecta r é definida por dois planos não paralelos. Logo, o estudo deste caso tem partes em comum com o estudo da posição relativa de três planos. À semelhança do estudo feito nesse caso, tomemos a matriz dos coeficientes e a matriz ampliada do sistema definido pelas três equações:           = 3 3 3 2 2 2 1 1 1 C B A C B A C B A M , .           = ′ 3 3 3 3 2 2 2 2 1 1 1 1 D C B A D C B A D C B A M 1. Se (sistema possível e determinado), a recta e o plano têm um ponto em comum: 3 M Car = r π 2. Se e Car (sistema impossível), a recta e o plano são paralelos 2 M Car = 3 M = ′ π r 3. Se (o sistema é possível indeterminado, isto é, o sistema tem uma infinidade de soluções), a recta está contida no plano M Car 2 M Car ′ = = r π Posição relativa de duas rectas: Considerem-se duas rectas definidas por: 1 1 1 1 1 1 1 c z z b y y a x x : r − = − = − 2 2 2 2 2 2 2 c z z b y y a x x : r − = − = − . Observe-se que é um caso particular de posição relativa de quatro planos e que os vectores e ( ) 1 1 1 1 c , b , a u = ( ) 2 2 2 2 c , b , a u = têm a direcção das rectas e , respectivamente. 1 r 2 r 1. Se isto é, , 0 u u 2 1 = ∧ 2 1 2 1 2 1 c c b b a a = = , as rectas têm a mesma direcção e: i) se ( ) 2 1 1 1 1 r z , y , x P ∈ , as rectas são coincidentes. 75
  • 77.
    ii) se () 2 1 1 1 1 r z , y , x P ∉ , as rectas são paralelas. 2. Se as rectas não têm a mesma direcção. , 0 u u 2 1 ≠ ∧ i) Se ( ) ( as rectas são concorrentes. ) , 0 u u P P 2 1 2 1 = ∧ − 1 r 1 P 2 P 2 1 u u ∧ 2 1 P P − ii) Se ( ) ( as rectas são enviesadas. , 0 u u P P 2 1 2 1 ≠ ∧ − 2 1 P − P 2 1 u u ∧ 2 r ) 2 P 1 P 1 r 2 r Ângulos Ângulo de duas rectas: Sejam e duas rectas. Sabemos que o ângulo formado pelas rectas e r é o menor ângulo formado por duas rectas complanares, uma delas com a direcção de r e a outra com a direcção de . Se 1 r 2 r 1 r 2 1 2 r θ é esse ângulo, então       π ∈ θ 2 , 0 e . Assim, dados os vectores e , directores das rectas r e , respectivamente, o ângulo das rectas é o menor dos ângulos formados por u e ou u e (suplementar do ângulo formado por e ). Portanto o ângulo 0 cos ≥ θ 1 u 2 u 1 1 2 r − 1 2 u 2 u 1 u 2 u θ fica definido por meio da igualdade ( ) 2 1 2 1 u u u u cos ⋅ = θ . Ângulo de dois planos: Sejam π e 1 2 π dois planos e e vectores perpendiculares a e , respectivamente. O ângulo dos planos 1 w 2 w 1 π 2 π 1 π e 2 π é o menor dos ângulos formados pelos vectores e ou e 1 w 2 w 1 w 2 w − (suplementar do ângulo formado por e ). Assim, se é esse ângulo ( 1 w 2 w θ    cos    , π θ 2 ∈ 0 e 0 ≥ θ ), então ( ) 2 1 2 1 w w w w cos ⋅ = θ . 76
  • 78.
    Ângulo de umarecta com um plano: Sejam π um plano, w um vector perpendicular ao plano , r uma recta e u um vector director da recta r. O ângulo da recta com o plano é o complementar do ângulo formado por r com uma recta perpendicular ao plano. Assim, se π θ é esse ângulo (       π ∈ θ 2 , 0 e ), então 0 cos ≥ θ ( ) w u w u sen ⋅ = θ . Observação: As fórmulas anteriores são válidas em qualquer referencial. No caso particular em que o referencial é o.n., as fórmulas podem tomar outro aspecto. Por exemplo, para o ângulo de dois planos, se 0 D z C y B x A : e 0 D z C y B x A : 2 2 2 2 2 1 1 1 1 1 = + + + π = + + + π , então       π ∈ θ + + + + + + = θ 2 0, , C B A C B A C C B B A A cos 2 2 2 2 2 2 2 1 2 1 2 1 2 1 2 1 2 1 . Casos Particulares: Paralelismo e perpendicularidade. Paralelismo Perpendicularidade Dois Planos 0 D z C y B x A : 1 1 1 1 1 = + + + π 0 D z C y B x A : 2 2 2 2 2 = + + + π 2 1 2 1 2 1 C C B B A A = = 2 1 || π π 0 C C B B A A 2 1 2 1 2 1 = + + 2 1 π ⊥ π Duas Rectas 1 1 1 1 1 1 1 c z z b y y a x x : r − = − = − 2 2 2 2 2 2 2 c z z b y y a x x r − = − = − 2 1 2 1 2 1 c c b b a a = = 2 1 r || r 0 c c b b a a 2 1 2 1 2 1 = + + 2 1 r r ⊥ Recta e Plano c z z b y y a x x : r 0 0 0 − = − = − 0 D Cz By Ax : = + + + π 0 Cc Bb Aa = + + π || r c C b B a A = = π ⊥ r Distâncias Seja ( um referencial o.n.. ) 3 2 1 e , e , e ; O Distância entre dois pontos: Sejam ( ) 1 1 1 1 z , y , x P e ( ) 2 2 2 2 z , y , x P . Então ( ) ( ) ( ) ( )2 2 1 2 2 1 2 2 1 2 1 2 1 z z y y x x P P P , P d − + − + − = = . 77
  • 79.
    Distância de umponto a um plano: Sejam ( ) 0 0 0 0 z , y , x P e 0 D Cz By Ax : = + + + π . 1. Suponhamos que o plano está definido por um ponto π ( ) 1 1 1 1 z , y , x P e duas direcções u e v (ou pela direcção da normal, w). Observe-se a seguinte figura: 0 P M 1 P P e recorde-se que ( ) x proj y y proj x cos y x y x y x ⋅ = ⋅ = θ ⋅ = , com ângulo formado pelos vectores x e y. Então, θ ( ) ( ) P P P P P P P P proj M P , P d 0 1 0 0 1 0 P P 0 0 0 = = = π . Podemos escolher para vector P P0 , perpendicular ao plano, o vector ou w. Logo, v u ∧ ( ) ( ) v u P P v u , P d 1 0 0 ∧ ∧ = π ou ( ) ( ) w P P w , P d 1 0 0 = π . 2. Se é definido por três pontos podemos fazer π , P , P , P 3 2 1 2 1P P = u e 3 1P P v = e temos que ( ) ( ) 3 1 2 1 1 0 3 1 2 1 0 P P P P P P P P P P , P d ∧ ∧ = π . 3. Se , já sabemos que se é a origem O, 0 D Cz By Ax : = + + + π 0 P ( ) 2 2 2 0 C B A D , P d + + = π . Agora, para um ponto qualquer , basta efectuar uma translação do referencial escolhendo para origem do referencial: 0 P 0 P P O 0 P 78
  • 80.
         ′ + = ′ + = ′ + = + = z z z y y y x x x P P OP OP 0 0 0 0 0 Logo, a novaequação de no novo referencial é π ( ) ( ) ( ) 0 D z z C y y B x x A 0 0 0 = + ′ + + ′ + + ′ + , isto é, ( ) 0 D Cz By Ax z C y B x A 0 0 0 = + + + + ′ + ′ + ′ . Consequentemente, ( ) 2 2 2 0 0 0 0 C B A D Cz By Ax , P d + + + + + = π . Plano Bissector de um Diedro: Sejam 0 D z C y B x A : 1 1 1 1 1 = + + + π e 0 D z C y B x A : 2 2 2 2 2 = + + + π dois planos concorrentes. Os planos bissectores dos diedros formados por π e π é o lugar geométrico dos pontos P equidistantes de 1 2 ( z , y , x ) 1 π e 2 π , isto é, os pontos tais que . Ou seja, ( z , y ) ) , x P ( ) ( 2 1 , P d , P d π = π 2 2 2 2 2 2 2 2 2 2 2 1 2 1 2 1 1 1 1 1 C B A D z C y B x A C B A D z C y B x A + + + + + ± = + + + + + . Temos assim dois planos, definidos pelos sinais + e − : 2 π 1 π Distância de uma recta a um plano (paralelos): Basta calcular a distância de um ponto da recta ao plano. Assim, se c z z b y y a x x : r 0 0 0 − = − = − e 0 D Cz By Ax : = + + + π , então 79
  • 81.
    ( ) () 2 2 2 0 0 0 0 C B A D Cz By Ax , P d , r d + + + + + = π ≡ π , com . r P0 ∈ Distância entre dois planos (paralelos): Basta calcular a distância de um ponto de um dos planos ao outro plano. Assim, se 0 D z C y B x A : 1 1 1 1 1 = + + + π , 0 D z C y B x A : 2 2 2 2 2 = + + + π e , então ( ) 2 0 0 0 0 z , y , x P π ∈ ( ) ( ) 2 1 2 1 2 1 1 0 1 0 1 0 1 0 1 2 1 C B A D z C y B x A P , d , d + + + + + = π ≡ π π . Esta fórmula pode ainda tomar outro aspecto. Como os planos são paralelos, então 2 1 2 1 2 1 C C B B A A = = . Multiplicando a equação que define 2 π por 2 1 A A e fazendo 0 2 1 2 D A A D = , obtemos uma nova equação para : 2 π 0 z C y B x A 1 1 1 D0 = + + + . Como ( ) 2 0 0 z , 0 0 y , x P π ∈ , então 0 0 1 0 1 0 1 D z C y B x A − = + + , e substituindo na fórmula da distância antes obtida, resulta ( ) 2 1 2 1 2 1 0 1 2 1 C B A D D , d + + − = π π , com 2 2 1 0 D A A D = . Distância de um ponto a uma recta : Sejam ( ) 0 0 0 0 z , y , x P e c z z b y y a x x : r 1 1 1 − = − = − . Observando-se a figura seguinte, 0 P r M 1 P θ concluímos que ( ) θ = = sen P P MP r , P d 0 1 0 0 . No entanto, não é necessário conhecer o ângulo , pois sabemos que θ ( ) r , P d u sen P P u P P u 0 0 1 0 1 ⋅ = θ ⋅ = ∧ , com e consequentemente, ( c , b , a u = ) 80
  • 82.
    ( ) u P P u r , P d 0 1 0 ∧ = . Exercício:Verifique que também é verdadeira a fórmula seguinte: ( ) ( ) u u P P u P P r , P d 2 0 1 2 2 0 1 0 − = Distância entre duas rectas (paralelas ou enviesadas): Sejam 1 1 1 1 1 1 1 c z z b y y a x x : r − = − = − e 2 2 2 2 2 2 2 c z z b y y a x x : r − = − = − , sendo e os vectores directores e ( ) 1 1 1 1 c , b , a u = ( 2 2 2 2 c , b , a u = ) ( ) 1 1 1 1 z , y , x P e pontos de e , respectivamente. ( ) 2 2 2 2 z , y , x P 1 r 2 r 1. Se , então as rectas são paralelas e temos de imediato que 0 u u 2 1 = ∧ ( ) ( ) ( ) 1 2 1 1 2 1 2 1 2 1 u P P u P , r d r , P d r , r d ∧ = = = . 2. Se , as rectas não são paralelas e 0 u u 2 1 ≠ ∧ 2 1 u u ∧ dá a direcção perpendicular a ambas as rectas. Se as rectas são enviesadas, a distância entre as rectas e é a norma da projecção de 1 r 2 r 2 P 1 P sobre u , isto é, 2 1 u ∧ ( ) ( ) 2 1 2 1 2 1 2 1 u u 2 1 u u P P u u P P proj r , r d 2 1 ∧ ∧ = = ∧ . Observação: Se as rectas são concorrentes, então definem um plano perpendicular a 2 1 u u ∧ e 0 P P proj 2 1 u u 2 1 = ∧ . Consequentemente, ( ) 0 r , r d 2 1 = . 81
  • 83.
    Estudo das Quádricascom as Equações na Forma Canónica Definição 6.8: Uma quádrica é um conjunto de pontos de R 3 cujas coordenadas cartesianas satisfazem uma equação algébrica inteira do 2º grau. A equação de uma quádrica é então da forma: 0 a z a 2 z a y a 2 yz a 2 y a x a 2 xz a 2 xy a 2 x a 44 34 2 33 24 23 2 22 14 13 12 2 11 = + + + + + + + + + Se designarmos por A a matriz simétrica tal que [ ] ij a = A e por X a matriz coluna tal que , então a equação de uma quádrica pode escrever-se na forma matricial: [ T 1 z y x X = ] 0 AX XT = . Por meio de uma apropriada mudança de referencial (translação da origem e mudança de base), é possível, para o referencial o.n. escolhido, obter uma equação simplificada da quádrica, chamada equação canónica (ou equação reduzida). Equações das quádricas na forma reduzida: 1. Considere-se a equação 1 c z b y a x 2 2 2 2 2 2 = + + . A quádrica representada por esta equação denomina-se elipsóide. Estudemos as particularidades desta quádrica observando as projecções (ou traço) sobre os planos coordenados: - Traço em XOY ( 0 z = ): 1 b y a x 2 2 2 2 = + (elipse); - Traço em YOZ ( 0 x = ): 1 c z b y 2 2 2 2 = + (elipse); - Traço em XOZ ( 0 y = ): 1 c z a x 2 2 2 2 = + (elipse). Assim, obtemos a figura seguinte para um elipsóide: Os parâmetros a, b e c são os semi-eixos. 82
  • 84.
    Se a ,o elipsóide é de revolução em torno do eixo OZ; b = Se , o elipsóide é de revolução em torno do eixo OY; c a = Se , o elipsóide é de revolução em torno do eixo OX. c b = Se b a = = , obtemos a equação , que é a equação de uma esfera de raio r e centro na origem. r c = 2 2 2 2 r z y x = + + Nota: Em geral, a equação de uma esfera de centro ( ) 0 0 0 z , y , x e raio r é dada por ( ) ( ) ( ) 2 2 0 2 0 2 0 r z z y y x x = − + − + − 2. Considere-se a equação 1 c z b y a x 2 2 2 2 2 2 = − + . A quádrica representada por esta equação denomina-se hiperbolóide de uma folha. - Traço em XOY : 1 b y a x 2 2 2 2 = + (elipse); - Traço em YOZ : 1 c z b y 2 2 2 2 = − (hipérbole); - Traço em XOZ: 1 c z a x 2 2 2 2 = − (hipérbole); - Num plano horizontal, isto é, fazendo-se k z = , obtemos 2 2 2 2 2 2 c k 1 b y a x + = + (elipse). Assim, obtemos a figura seguinte para um hiperbolóide de uma folha: a e b são ditos semi-eixos reais e c semi-eixo imaginário. Se b a = o hiperbolóide é de revolução em torno do eixo OZ (eixo do hiperbolóide). 83
  • 85.
    Outros hiperbolóides deuma folha: 1 c z b y a x 2 2 2 2 2 2 = + − e 1 c z b y a x 2 2 2 2 2 2 = + + − . A equação de um hiperbolóide pode escrever-se de outra forma. Por exemplo, considere-se a equação 1 c z b y a x 2 2 2 2 2 2 = − + e observe a seguinte sequência de equivalências: , b y 1 c z a x b y 1 c z a x b y 1 b y 1 c z a x c z a x b y 1 c z a x 1 c z b y a x 2 2 2 2 2 2 2 2 2 2 2 2        − =       − λ       + λ = + ⇔       −       + =       −       + ⇔ − = − ⇔ = − + λ com arbitrário. O sistema obtido representa, para cada valor de λ , uma recta que pertence à quádrica, isto é, a superfície é formada por este conjunto de rectas! Analogamente, também é equivalente ao sistema: , b y 1 c z a x b y 1 c z a x        + =       − µ       − µ = + com µ arbitrário. Assim, esta superfície diz-se duplamente regrada: por cada um dos seus pontos passam duas rectas (geratrizes) que estão sobre a superfície. Nota: Duas diferentes geratrizes do mesmo sistema são enviesadas. 3. Considere-se a equação 1 c z b y a x 2 2 2 2 2 2 = − − . A quádrica que é definida por esta equação denomina-se hiperbolóide de duas folhas. - Traço em XOY : 1 b y a x 2 2 2 2 = − (hipérbole); 84
  • 86.
    - Traço emYOZ : 1 c z b y 2 2 2 2 = − − (conjunto vazio); - Traço em XOZ : 1 c z a x 2 2 2 2 = − (hipérbole); - Traço num plano k x = , onde a k , obtemos 1 a k c z b y 2 2 2 2 2 2 − = + (elipse). Assim, obtemos a figura seguinte para um hiperbolóide de duas folhas: a é o semi-eixo real e b, c os semi-eixos imaginários. Se , o hiperbolóide de duas folhas é de revolução em torno do eixo OX. c b = Outros hiperbolóides de duas folhas: 1 c z b y a x 2 2 2 2 2 2 = + − − e 1 c z b y a x 2 2 2 2 2 2 = − + − . 4. Considere-se a equação 1 c z b y a x 2 2 2 2 2 2 = − − − . É evidente que esta equação representa o conjunto vazio. 5. Dada a equação 0 c z b y a x 2 2 2 2 2 2 = + + , o único ponto pertencente ao conjunto definido por ela é a origem de R 3 ({ ). } O 6. Considere-se agora a equação 0 c z b y a x 2 2 2 2 2 2 = − + . A quádrica representada por esta equação denomina-se cone (ou superfície cónica). - Traço em XOY : ( ) 0 , 0 , 0 { (origem); } - Traço em YOZ : c z b y ± = (duas rectas concorrentes); 85
  • 87.
    - Traço emXOZ : c z a x ± = (duas rectas concorrentes); - Traço num plano k z = : 2 2 2 2 2 2 c k b y a x = + (elipse). Assim, obtemos a figura seguinte para uma superfície cónica: Se , o cone é de revolução em torno do eixo OZ. b a = É uma superfície simplesmente regrada, pois        + = µ       − µ = ⇔ − = ⇔ = − + b y c z a x b y c z a x b y c z a x 0 c z b y a x 2 2 2 2 2 2 2 2 2 2 2 2 , com µ arbitrário. Outras superfícies cónicas: 0 c z b y a x 2 2 2 2 2 2 = + − e 0 c z b y a x 2 2 2 2 2 2 = − − . 7. Se agora a equação for pz 2 b y a x 2 2 2 2 = + , com 0 p ≠ , ela representa uma quádrica denominada parabolóide elíptico. - Traço em XOY : ( ) 0 , 0 , 0 { (origem); } - Traço em YOZ : pz 2 b y 2 2 = (parábola); - Traço em XOZ : pz 2 a x 2 2 = (parábola); - Traço num plano 0 k z = :      = + ∅ 0. p se (elipse), pk 2 b y a x 0; p se ), ( vazio conjunto 2 2 2 2 86
  • 88.
    Traço num planoz : 0 k =      = + ∅ 0. p se (elipse), pk 2 b y a x 0; p se ), ( vazio conjunto 2 2 2 2 Assim, obtemos as figuras seguintes para parabolóides elípticos: Outros parabolóides elípticos: py 2 c z a x 2 2 2 2 = + , com (eixo OY) e 0 p ≠ px 2 c z b y 2 2 2 2 = + , com (eixo OX). 0 p ≠ 8. Seja a equação pz 2 b y a x 2 2 2 2 = − , com 0 p ≠ . A superfície com esta equação denomina-se parabolóide hiperbólico (ou sela). - Traço em XOY : 2 2 2 2 b y a x = (duas rectas); - Traço em YOZ : pz 2 b y 2 2 = − (parábola); - Traço em XOZ : pz 2 a x 2 2 = (parábola); - Traço num plano k z = : pk 2 b y a x 2 2 2 2 = − (hipérbole). Assim, obtemos a figura seguinte para um parabolóide hiperbólico: z y x Esta superfície é duplamente regrada, pois 87
  • 89.
    pz 2 b y a x b y a x pz 2 b y a x 2 2 2 2 =       −       + ⇔ = − é equivalente a        =       − λ λ = + pz 2 b y a x b y a x ea        =       + µ µ = − pz 2 b y a x b y a x , cujas geratrizes são paralelas aos planos 0 b y a x : 1 = + π e 0 b y a x : 2 = − π , respectivamente. Estes planos são ditos planos directores. Outros parabolóides hiperbólicos: py 2 c z a x 2 2 2 2 = − e px 2 c z b y 2 2 2 2 = − , com p 0 ≠ . 9. Se a equação for dada por 1 b y a x 2 2 2 2 = + , temos uma quádrica denominada cilindro elíptico. - Traço em XOY : 1 b y a x 2 2 2 2 = + (elipse); - Traço em YOZ : b y ± = (duas rectas paralelas); - Traço em XOZ : a x ± = (duas rectas paralelas); Assim, obtemos a figura seguinte para um cilindro elíptico: É uma superfície simplesmente regrada, pois 88
  • 90.
           + = λ       − λ = ⇔ − = ⇔ = + b y 1 a x b y 1 a x b y 1 a x 1 b y a x 2 2 2 2 2 2 2 2 , com λarbitrário, sendo as geratrizes perpendiculares ao plano XOY. Outros cilindros elípticos: 1 c z a x 2 2 2 2 = + e 1 c z b y 2 2 2 2 = + . 10. A equação 1 b y a x 2 2 2 2 = − representa a quádrica denominada cilindro hiperbólico. - Traço em XOY : 1 b y a x 2 2 2 2 = − (hipérbole); - Traço em YOZ : conjunto vazio (∅); - Traço em XOZ : a x ± = (duas rectas paralelas); Assim, obtemos a figura seguinte para um cilindro hiperbólico: É uma superfície simplesmente regrada, pois        =       + λ λ = − ⇔ = − 1 b y a x b y a x 1 b y a x 2 2 2 2 . Outros cilindros hiperbólicos: 1 a x b y 2 2 2 2 = − , 1 c z a x 2 2 2 2 = − , 1 a x c z 2 2 2 2 = − , 1 c z b y 2 2 2 2 = − e 1 b y c z 2 2 2 2 = − . 11. Se a equação é dada por 0 b y a x 2 2 2 2 = + , 89
  • 91.
    obtemos uma recta,pois , que é o eixo OZ. Analogamente, também são rectas 0 y x = = 0 c z b y e 0 c z a x 2 2 2 2 2 2 2 2 = + = + . 12. Se a equação é dada por 0 b y a x 2 2 2 2 = − , obtemos um par de planos ( b y a x ± = ) concorrentes em OZ. Analogamente, também obtemos pares de planos se 0 c z a x 2 2 2 2 = − e 0 c z b y 2 2 2 2 = − . 13. As equações 1 b y a x 2 2 2 2 = − − , 1 c z a x 2 2 2 2 = − − e 1 c z b y 2 2 2 2 = − − , representam o conjunto vazio. 14. Considere-se a equação py 2 x2 = , com 0 p ≠ . A quádrica representada por esta equação denomina-se cilindro parabólico. - Traço em XOY : (parábola); py 2 x2 = - Traço em YOZ : eixo OZ; - Traço em XOZ : eixo OZ. Assim, obtemos a figura seguinte para um cilindro parabólico: É uma superfície regrada, pois    = λ λ = ⇔ = py 2 x x py 2 x2 . 90
  • 92.
    Outros cilindros parabólicos: pz 2 x2 =, , , e z , com . px 2 y2 = pz 2 y2 = px 2 z2 = py 2 2 = 0 p ≠ 15. A quádrica com a equação 1 a x 2 2 = , reduz-se a dois planos paralelos, pois a x 1 a x 2 2 ± = ⇔ = . Analogamente, obtemos planos paralelos se a equação é dada por 1 b y 2 2 = ou dada por 1 c z 2 2 = . 16. No caso da equação 1 a x 2 2 = − , temos o conjunto vazio. Analogamente para 1 b y 2 2 = − e 1 c z 2 2 = − . 17. No caso da equação , temos pares de planos coincidentes. Analogamente para 0 x2 = 0 y2 = e . 0 z2 = No caso geral de uma equação de uma quádrica, pode mostrar-se que se fizermos uma translação que leve a origem para um centro da quádrica (caso exista), a nova equação tem os mesmos termos do 2º grau, não tem termos do 1º grau e o termo independente obtém-se substituindo as coordenadas do centro no primeiro membro da equação inicial. Para se reduzir às direcções principais é necessário uma mudança de base apropriada. Esta mudança de base existe já que a matriz A (ver início do estudo da quádricas) é diagonalizável, isto é, a mudança é feita para uma base o.n. constituída pelos vectores próprios associados aos valores próprios de A. Por exemplo, 9 é a equação de um elipsóide de centro na origem, cujos eixos não são os eixos coordenados. No entanto, os valores próprios da matriz 0 32 z 32 xy 14 y 9 x 2 2 2 = − + + +             − = 32 0 0 0 0 32 0 0 0 0 9 7 0 0 7 9 A são 2, 16, 32 e –32, e deste modo, da mudança da base canónica para uma base o.n. de vectores próprios associados a estes valores próprios, obtém-se uma nova equação para o elipsóide que é dada por , isto é, 0 32 z 32 y 16 x 2 2 2 2 = − + + 1 z 2 y 16 x 2 2 2 = + + . 91
  • 93.
    7 BIBLIOGRAFIA Dias Agudo,F.R. (1989). Introdução à Álgebra Linear e Geometria Analítica. Livraria Escolar Editora. Fernandes de Carvalho, J. A. (1977). Álgebra e Geometria I. Instituto Politécnico da Covilhã Giraldes, E. e outros (1995). Álgebra Linear e Geometria Analítica. Editora McGraw-Hill. Gregório, L. e Ribeiro, C.S. (1985). Álgebra Linear. Editora McGraw-Hill. Lispchutz, S.. Álgebra Linear. Colecção Schaum. Editora McGraw-Hill. Magalhães, L.T. (1993). Álgebra Linear como Introdução à Matemática Aplicada. Texto Editora. Sampaio Martins, J.. Transparências de Álgebra Linear e Geometria Analítica. Universidade da Beira Interior. 92