SlideShare uma empresa Scribd logo
1 de 93
Baixar para ler offline
UNIVERSIDADE DA BEIRA INTERIOR
Apontamentos Teóricos
de
Álgebra Linear e Geometria Analı́tica
Cristina Gama
Jorge Gama
Ano Lectivo 2001/2002
1 ESTRUTURAS ALGÉBRICAS
Os conceitos que se seguem servirão de suporte aos objectivos da disciplina. Esses conceitos
são as estruturas de grupo, anel e corpo. No final do capı́tulo faremos um estudo mais
aprofundado do corpo dos números complexos.
Definição 1.1 Seja A um conjunto não vazio. Chama-se operação binária ou lei de
composição interna no conjunto A a qualquer aplicação definida do conjunto A×A (produto
cartesiano de A por A) em A, isto é, se representarmos por θ essa aplicação, então
θ : A × A → A
(a, b) 7→ θ(a, b)
No caso das operações binárias é usual escrever-se aθb no lugar de θ(a, b). Passaremos
a usar essa notação.
Exemplos:
1. No conjunto N, a adição e a multiplicação usuais são operações binárias.
2. No conjunto Z a adição e a multiplicação usuais são operações binárias.
3. Em Q ou R a adição e a multiplicação usuais são operações binárias.
4. A subtracção é uma operação binária em N? E em Z?
5. A divisão é uma operação binária em N, Z, Q, ou R? E em Q  {0} ou R  {0}?
6. Se em N0 definirmos ∗ : N0 ×N0 → N0 tal que a∗b = a+b+1, ∗ é uma operação binária.
Definição 1.2 Seja A um conjunto, não vazio, e θ uma operação binária definida em A.
Diz-se que (A, θ) é um grupo quando se verificam os seguintes axiomas:
G1. ∀a, b, c ∈ A, (aθb)θc = aθ(bθc) (Associatividade)
G2. ∃u ∈ A : ∀a ∈ A, aθu = uθa = a (Existência de elemento neutro)
G3. ∀a ∈ A, ∃a0
∈ A : aθa0
= a0
θa = u (Existência de elemento oposto)
No caso em que a operação é também comutativa, isto é,
G4. ∀a, b ∈ A, aθb = bθa
o grupo (A, θ) diz-se comutativo ou abeliano.
Observações:
1
1. É usual designarem-se as operações binárias por adição ou multiplicação, representadas
respectivamente por + e · (não é necessário que tenham alguma coisa a ver com a adição
e multiplicação usuais).
2. No contexto da observação anterior, o elemento neutro designa-se por zero (0), se a
operação é uma adição, e designa-se por identidade (1), se a operação é uma multi-
plicação. Analogamente, se a operação é uma adição, o oposto de um elemento a chama-se
simétrico (representa-se por −a), se a operação é uma multiplicação, o oposto chama-se
inverso (representa-se por a−1
).
Exercı́cio: Seja A um conjunto e θ uma operação binária definida em A. Em (A, θ), com θ
associativa, mostre que
a) quando existe elemento neutro, ele é único.
b) quando um elemento tem oposto, este é único.
Exemplos de Grupos:
(Z, +), (Q, +), (R, +), (R  {0}, ·), (F, ◦), com F o conjunto de todas as funções bijectivas
de um conjunto nele próprio (em particular, o conjunto S3 das permutações de {1, 2, 3} com
a composição), etc.
Observação: No caso (S3, ◦), os elementos de S3 são
I =

1 2 3
1 2 3

T1 =

1 2 3
1 3 2

T2 =

1 2 3
2 1 3

T3 =

1 2 3
2 3 1

T4 =

1 2 3
3 1 2

T5 =

1 2 3
3 2 1

e, por exemplo,
T1 ◦ T2 =

1 2 3
1 3 2

◦

1 2 3
2 1 3

= T4.
Outro exemplo: (Z2, +), onde Z2 = {0, 1} e + está definida por
+ 0 1
0 0 1
1 1 0
Definição 1.3 Seja (A, θ) um grupo e B um subconjunto não vazio de A. Diz-se que (B, θ)
é um subgrupo de (A, θ) se (B, θ) é um grupo em relação à operação binária definida em
A.
Exercı́cio: Nos exemplos anteriores, verifique quais os grupos que são subgrupos de algum
dos outros grupos.
2
Homomorfismos de Grupos
Definição 1.4 Sejam (A, θ) e (A0
, σ) dois grupos. Uma aplicação f : A → A0
diz-se um
homomorfismo se
∀a, b ∈ A, f(aθb) = f(a)σf(b).
Observações: Se f : A → A0
é um homomorfismo, então
i) f(u) = u0
(u elemento neutro de (A, θ) e u0
elemento neutro de (A0
, σ))
ii) (f(a))−1
= f(a−1
).
Exemplos:
1. Seja
f : R+
→ R
x 7→ ln(x).
f é um homomorfismo do grupo (R+
, ·), no grupo (R, +), já que ln(x · y) = ln(x) + ln(y).
2. A aplicação
g : R → R+
x 7→ ex
é um homomorfismo de (R, +) no grupo (R+
, ·), já que ex+y
= ex
· ey
.
Definição 1.5 Um terno (A, +, ·), com A um conjunto, não vazio, e + e · operações binárias
definidas em A, é um anel se:
A1. (A, +) é um grupo abeliano;
A2. A operação · é associativa;
A3. A operação · é distributiva relativamente à operação +, isto é,
∀a, b, c ∈ A, a · (b + c) = (a · b) + (a · c) ∧ (a + b) · c = (a · c) + (b · c).
O elemento neutro da primeira operação chama-se zero do anel.
Se a segunda operação for comutativa, então o anel diz-se comutativo.
Caso o anel A tenha elemento unidade, isto é, se (A, ·) tiver elemento neutro, A diz-se anel
com elemento unidade ou anel unitário.
Exemplos de Anéis:
1. (Z, +, ·) é um anel comutativo unitário.
2. O conjunto R2
= {(a, b) : a, b ∈ R} com as operações definidas por
(a, b) + (c, d) = (a + c, b + d)
(a, b) · (c, d) = (ac, bd)
é um anel.
3
Definição 1.6 Um terno (K, +, ·) diz-se um corpo se (K, +, ·) é uma anel comutativo com
identidade e todos os elementos de K {0} têm inverso, isto é, (K, +, ·) é um corpo se (K, +)
e (K  {0}, ·) são grupos comutativos e · é distributiva relativamente a +.
Exemplos de Corpos: (Q, +, ·), (R, +, ·), com + e · as operações usuais, e (Z2, +, ·), com
+ 0 1
0 0 1
1 1 0
· 0 1
0 0 0
1 0 1
Propriedades 1.7 Num corpo são válidas as seguintes proposições:
1. a · 0 = 0 · a = 0 (0 é elemento absorvente da multiplicação)
2. a · b = 0 ⇔ a = 0 ∨ b = 0 (lei do anulamento do produto)
Definição 1.8 Sejam (K, +, ·) e (K0
, θ, ∗) dois corpos. A aplicação f : K → K0
diz-se um
homomorfismo de corpos se, para todos x, y ∈ K,
f(x + y) = f(x)θf(y) e f(x · y) = f(x) ∗ f(y).
Se f é bijectiva, f diz-se um isomorfismo. Se K = K0
, f diz-se um endomorfismo. E um
endomorfismo bijectivo diz-se um automorfismo.
Depois de definirmos todas estas estruturas, podemos estudar mais profundamente um
corpo muito importante: Corpo dos Complexos, isto é,
C = {(a, b) : a, b ∈ R}
munido com as operações:
(a, b) + (c, d) = (a + c, b + d)
(a, b) · (c, d) = (ac − bd, ad + bc)
Exercı́cio: Mostre que (C, +, ·) é um corpo.
Observações:
1. Não é difı́cil verificar que (0, 0) é o zero de C e (1, 0) é a unidade de C.
2. Seja S = {(a, 0) : a ∈ R}, subconjunto de C. (S, +, ·) é um corpo para as operações
definidas em C. Dado que a aplicação
f : (R, +, ·) → (S, +, ·)
a 7→ (a, 0)
é um isomorfismo de corpos, podemos simplificar a escrita identificando os complexos
(a, 0) com o correspondente número real a.
4
Da definição dada para a multiplicação em C, resulta
(0, 1)2
= (0, 1) · (0, 1) = (0 − 1, 0 + 0) = (−1, 0).
Deste modo, o número complexo (0, 1) é solução da equação x2
= −1.
O complexo (0, 1) denomina-se unidade imaginária e representa-se pelo sı́mbolo i.
Atendendo-se à identificação de (a, 0) com a e (0, 1) com i, é consequência das operações
definidas em C a seguinte representação:
∀(a, b) ∈ C : (a, b) = (a, 0) + (0, b) = a + (0, 1) · (b, 0) = a + ib,
em que a será chamado parte real do complexo e b parte imaginária do complexo. Em
sı́mbolos, se z = a + bi, a = Re(z) e b = Im(z). Os números complexos da forma ib, com
b 6= 0, chamam-se imaginários puros.
Observe-se que
i2
= −1, i3
= −i, i4
= 1, i5
= i, . . . ,
(a + bi) + (c + di) = (a + c) + (b + d)i,
(a + bi) · (c + di) = (ac − bd) + (ad + bc)i.
Definição 1.9 Seja z = a+bi um número complexo. Chama-se conjugado de z ao número
complexo z = a − bi. Chama-se módulo de z ao número real
|z| =
√
z · z =
√
a2 + b2.
Propriedades 1.10 Para todo z, w ∈ C,
1. Re(z) =
z + z
2
, 2. Im(z) =
z − z
2i
,
3. z + w = z + w, 4. z · w = z · w,
5. |z| = |z|, 6. z−1
=
z
|z|2 =
a
a2 + b2
− i
b
a2 + b2
, com z 6= 0,
7.
 z
w

=
z
w
Exercı́cio: Calcule:
a) (1 − i)(3 − 2i) − (2 − i)(3 + 4i);
b)
(2 − i)2
− 2
1 + 3i
.
5
Representação Trigonométrica dos Números Complexos
Já sabemos que dada uma recta orientada, existe uma correspondência biunı́voca entre
cada ponto da recta e o conjunto dos números reais, R. Assim, como identificamos o número
complexo (a, 0) com o número real a, os complexos da forma a + i0 serão representados na
recta.
Como representar, por exemplo, os imaginários puros? Repare-se que uma rotação de
180o
em torno da origem corresponde a uma multiplicação por −1. Ora, uma rotação de
90o
deverá corresponder a multiplicar por k de modo que k2
= −1. Logo, k terá que ser
a unidade imaginária i. Convencionaremos que o sentido positivo das rotações é o sentido
contrário ao dos ponteiros do relógio. Portanto, passaremos a representar os números reais
num eixo horizontal (eixo real) e os imaginários puros num eixo vertical (eixo imaginário).
Assim, um ponto P do plano de abcissa a e ordenada b será a imagem do complexo z = a+bi.
-
6









r
O
P
a
b
ρ
θ
Plano de Argand
Sabemos que o comprimento OP é o número real |z| =
√
a2 + b2 (Teorema de Pitágoras).
Representemos este número por ρ. Repare-se que o ponto P fica bem definido se consider-
armos ρ e o ângulo θ que o segmento [OP] faz com a parte positiva do eixo real.
Chama-se argumento principal ao ângulo θ ∈] − π, π]. Assim, a imagem do complexo
z fica bem definida se conhecermos ρ := |z| e θ := arg(z). Observe-se que se fizermos
θ = arg(z) + 2kπ, k ∈ Z, obtemos sempre a mesma imagem. Portanto, a cada complexo
podemos associar uma infinidade de argumentos. Além do principal, o argumento positivo
mı́nimo de z = a + bi é tal que θ ∈ [0, 2π[ e tg θ =
b
a
.
Observe a figura anterior para concluir que para todo o complexo z = a + bi,

a = ρ cos θ
b = ρ sen θ
Assim, a forma trigonométrica de z é
z = ρ(cos(θ) + i sen(θ)).
Abreviadamente, z = ρ cis(θ).
Se z ∈ C é tal que z = a + bi = ρ cis(θ), então z = a − bi = ρ cis(−θ).
6
-
6








r
Z
Z
Z
Z
Z
Z
Z
Zr
O
z
z
ρ
θ
−θ
Exercı́cio: Escreva na forma trigonométrica:
a) −3i;
b) −1 − i;
c) 1 − i
√
3;
d) 2 + 3i.
Operações com Complexos na Forma Trigonométrica
Adição: Usa-se a regra do paralelogramo
-
6
r
O
z1 + z2 = z




r z1







r
z2
















z = ρ cis(θ) = z1+z2 = ρ1 cis(θ1)+ρ2 cis(θ2) = ρ1 cos(θ1)+ρ2 cos(θ2)+i(ρ1 sen(θ1)+ρ2 sen(θ2))
e
|z|2
= ρ2
= (ρ1 cos(θ1)+ρ2 cos(θ2))2
+(ρ1 sen(θ1)+ρ2 sen(θ2))2
= ρ2
1 +ρ2
2 +2ρ1ρ2 cos(θ1 −θ2).
Multiplicação: Se z1 = ρ1 cis(θ1) e z2 = ρ2 cis(θ2), então
z1 · z2 = (ρ1 cis(θ1))(ρ2 cis(θ2)) = ρ1ρ2 cis(θ1 + θ2).
7
∴ |z1 · z2| = |z1| · |z2| e arg(z1 · z2) = arg(z1) + arg(z2).
Divisão: Se z2 6= 0, então
1
z2
=
1
ρ2
cis(−θ2). Logo,
z1
z2
=
ρ1
ρ2
cis(θ1 − θ2).
∴
z1
z2
=
|z1|
|z2|
e arg

z1
z2

= arg(z1) − arg(z2).
Potenciação: Se z = ρ cis(θ) e n ∈ Z, então
zn
= ρn
cis(nθ) (Fórmula de De Moivre).
∴ |zn
| = |z|n
e arg (zn
) = n arg(z).
Radiciação: Seja z = ρ cis(θ) e n ∈ N. Se w = ρ1 cis(θ1) é uma raiz de ı́ndice n de z, então
wn
= z. Logo,
(ρ1 cis(θ1))n
= ρ cis(θ) ⇔ ρn
1 cis(nθ1) = ρ cis(θ) ⇔



ρn
1 = ρ
cos(nθ1) = cos(θ)
sen(nθ1) = sen(θ)
⇔

ρ1 = n
√
ρ
nθ1 = θ + 2kπ,
com k ∈ Z, isto é,
ρ1 = n
√
ρ ∧ θ1 =
θ + 2kπ
n
, k ∈ Z.
Assim, e atendendo-se às repetições, w = n
√
ρ cis

θ + 2kπ
n

, com k = 0, 1, . . . , n − 1.
As raı́zes de ı́ndice n de um complexo z têm imagens que formam os vértices de um
polı́gono regular de n lados:
-
6
r
r
r
H
H
H
H
H
H
H







-
6
r r
r
r
@
@
@
@
@
@
No caso do expoente racional, isto é, do tipo
p
q
, com p, q ∈ N, tem-se, por definição, para
z = ρ cis(θ),
zp/q
= z1/q
p
=

ρ1/q
cis

θ + 2kπ
q
p
= ρp/q
cis

p
q
(θ + 2kπ)

.
8
Observe-se que
8
12
=
2
3
e assim z8/12
= z2/3
, tem 3 raı́zes distintas, enquanto
12
√
z8 tem
12 raı́zes distintas. Em C, (zp
)1/q
pode ser diferente de z1/q
p
.
Exercı́cios:
1. Utilize a forma trigonométrica para calcular:
a)
i55
−
√
3
(1 − i)6
;
b)
i66
(
√
3 − i)4
(1 + i
√
3)8
.
2. Resolva, em C, a equação
z3
− (1 + i)z2
+ iz = 0.
Lugares Geométricos
- Circunferência de centro z0 e raio r ≥ 0.
Por definição, uma circunferência de centro z0 e raio r é o conjunto dos pontos z tais que
|z − z0| = r
ou, equivalentemente,
(z − z0) (z − z0) = r2
⇔ zz − zz0 − z0z + |z0|2
= r2
.
Se |z0|2
= r2
, a circunferência passa pela origem.
Se |z0|2
6= r2
, a circunferência não passa pela origem.
- Equação da recta.
A equação geral de uma recta em R2
é da forma
Ax + By + C = 0.
Tomando-se z0 = A + iB e z = x + iy, obtém-se que
Re(z0)Re(z) + Im(z0)Im(z) + C = 0 ⇔
⇔
z0 + z0
2
·
z + z
2
+
z0 − z0
2i
·
z − z
2i
+ C = 0
⇔ (z0 + z0) (z + z) − (z0 − z0) (z − z) + 4C = 0
⇔ 2z0z + 2z0z + 4C = 0
⇔ z0z + z0z + R = 0 (Equação Geral da Recta)
Se R = 0, a recta passa pela origem.
Se R 6= 0, a recta não passa pela origem.
9
2 MATRIZES. RESOLUÇÃO DE SISTEMAS. INVERSÃO DE
MATRIZES.
Definição 2.1 Sejam m, n ∈ N e K um corpo. Chama-se matriz do tipo m × n (ou
de ordem (m, n)) sobre o corpo K, ou simplesmente, matriz do tipo m × n, a uma
função A definida no conjunto {(i, j) ∈ N × N : 1 ≤ i ≤ m, 1 ≤ j ≤ n} e com valores em K.
As componentes ou elementos ou entradas da matriz A designam-se por aij = A(i, j).
É usual usar-se um quadro rectangular para dispor os elementos de K.





a11 a12 · · · a1n
a21 a22 · · · a2n
.
.
. · · · · · · · · ·
am1 am2 · · · amn





ou





a11 a12 · · · a1n
a21 a22 · · · a2n
.
.
. · · · · · · · · ·
am1 am2 · · · amn





Abreviadamente, uma matriz representa-se por
[aij](m,n) (1 ≤ i ≤ m, 1 ≤ j ≤ n)
ou, apenas, por A.
Duas matrizes A = [aij] e B = [bij] dizem-se iguais se, e somente se, são do mesmo tipo
e aij = bij, para todos os valores de i e j.
Designa-se por MK(m, n) o conjunto de todas as matrizes sobre o corpo K e de ordem
(m, n) (m linhas, n colunas).
Se K = R, a matriz diz-se real. Se K = C, a matriz diz-se complexa.
Matrizes Especiais
Seja A = [aij] ∈ MK(m, n).
1. Se n = 1, a matriz A diz-se matriz coluna.





a11
a21
.
.
.
am1





2. Se m = 1, a matriz A diz-se matriz linha.

a11 a12 · · · a1n

10
3. Se m = n, a matriz A diz-se quadrada de ordem n.





a11 a12 · · · a1n
a21 a22 · · · a2n
.
.
. · · · · · · · · ·
an1 an2 · · · ann





Numa matriz quadrada, os elementos a11, a22, . . . , ann dizem-se elementos principais
ou diagonais e formam a primeira diagonal ou diagonal principal. Os elementos
a1n, a2,n−1, . . . , an1 formam a segunda diagonal ou diagonal secundária.














Diagonal Principal Diagonal Secundária
3.1 Uma matriz quadrada A diz-se triangular superior se aij = 0, para i  j.
Exemplo: 

−2 1 3
0 4 −1
0 0 −5


3.2 Uma matriz quadrada A diz-se triangular inferior se aij = 0, para i  j.
Exemplo: 

2 0 0
−1 3 0
7 4 −2


3.3 Uma matriz quadrada A diz-se diagonal se aij = 0, para i 6= j.
Exemplo: 



−1 0 0 0
0 3 0 0
0 0 5 0
0 0 0 −1




3.4 Uma matriz quadrada A diz-se escalar se é diagonal e aii = a 6= 0, para todo o i.
Exemplo: 



3 0 0 0
0 3 0 0
0 0 3 0
0 0 0 3




Utilizando-se o sı́mbolo de Kronecker, δij, definido por
δij =

0, se i 6= j,
1, se i = j,
uma matriz escalar pode representar-se apenas por [aδij].
11
Exemplo: 



3 0 0 0
0 3 0 0
0 0 3 0
0 0 0 3



 = [3δij]
A matriz identidade é a matriz escalar [δij]. Designa-se, em geral, por In.
I1 = [1] I2 =

1 0
0 1

I3 =


1 0 0
0 1 0
0 0 1

 I4 =




1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1



 . . .
4. Uma matriz formada por r linhas (r ≤ m) e s colunas (s ≤ n) de uma matriz A diz-se
uma submatriz de A do tipo r × s.
Exemplo:
A matriz

2 0
−1 4

é submatriz de


2 0 4 1
−1 4 −3 0
5 −6 8 1/2

.
5. A matriz A diz-se matriz nula se todos os elementos são nulos (aij = 0, para todos
os valores de i e j). Designa-se a matriz nula por 0m×n, ou simplesmente por 0, se não
houver ambiguidade quanto ao seu tipo.
Exemplo: 

0 0 0
0 0 0
0 0 0


6. A matriz oposta da matriz A = [aij](m,n) é uma matriz do mesmo tipo definida por
−A = [−aij] .
Exemplo:
A =


−1 2
3 5
1/2 −
√
2

 − A =


1 −2
−3 −5
−1/2
√
2


7. Denomina-se matriz transposta de A a matriz AT
que se obtém de A trocando orde-
nadamente as linhas por colunas e as colunas por linhas. Se A é do tipo m × n, AT
é do
tipo n × m.
Exemplo:
A =

2 −5 7
−3 2 1

AT
=


2 −3
−5 2
7 1


Propriedade 2.2 AT
T
= A.
12
8. A matriz A diz-se simétrica se é igual à sua transposta, isto é, A = AT
. Logo, os seus
elementos verificam a relação
aij = aji,
para todos os valores de i e j.
Desta forma, uma matriz simétrica é necessariamente quadrada e os elementos colocados
simetricamente em relação à diagonal principal são iguais.
Exemplo: 

3 4 −1
4 −2 7
−1 7 −5


9. A matriz A diz-se anti-simétrica ou hemi-simétrica se
AT
= −A ou A = −AT
.
Os elementos verificam a relação aij = −aji. Assim, para i = j, tem-se
aii = −aii ⇔ aii = 0.
Desta forma, uma matriz anti-simétrica é uma matriz quadrada cujos elementos principais
são nulos e os elementos colocados simetricamente em relação à diagonal principal são
simétricos.
Exemplo: 

0 2 −7
−2 0 5
7 −5 0


10. Se a matriz A é complexa, chama-se matriz conjugada de A à matriz A que se obtém
substituindo cada elemento de A pelo seu conjugado.
Exemplo:
A =

5 3 + 2i 2
−i 7i 9 − i

A =

5 3 − 2i 2
i −7i 9 + i

Propriedades 2.3
1. Se A = A, então A é uma matriz real.
2. A = A.
11. Denomina-se matriz associada de A (complexa) a matriz A∗
que é igual à transposta
da conjugada de A, ou, o que é o mesmo, à conjugada da transposta de A, isto é,
A∗
= A
T
= (AT ).
Exemplo:
A =

5 3 + 2i 2
−i 7i 9 + i

A∗
=


5 i
3 − 2i −7i
2 9 − i


13
Propriedades 2.4
1. (A∗
)T
= A.
2. (A∗) = AT
.
3. (A∗
)∗
= A.
12. Uma matriz A diz-se hermı́tica ou hermitiana se é igual à sua associada, isto é, se
A = A∗
.
Logo, os seus elementos verificam a relação aij = aji e é uma matriz quadrada.
Em particular, para i = j, tem-se aii = aii = a ∈ R, isto é, aii é um número real.
Exemplo: 



5 5 + 2i 3i 0
5 − 2i −1 9 2 − i
−3i 9 7 7 + 2i
0 2 + i 7 − 2i −4




13. Uma matriz A diz-se hemi-hermı́tica ou hemi-hermitiana se satisfaz a relação
A = −A∗
.
Logo, os seus elementos verificam a relação aij = −aji e é uma matriz quadrada.
Em particular, para i = j, tem-se aii = −aii, isto é, Re(aii) = 0.
Exemplo: 



5i 5 5 − i 3 − 2i
−5 −2i 2 + i 9i
−5 − i −2 + i 7i 9
−3 − 2i 9i −9 −i




Operações com Matrizes
1. Adição: Sejam A = [aij], B = [bij] ∈ MK(m, n). Define-se adição de A com B como
sendo a matriz S = A + B ∈ MK(m, n) cujos elementos são obtidos pela relação
sij = aij + bij.
Exemplo: 
2 6 0
−1 4 7

+

1 0 4
−4 1 −3

=

3 6 4
−5 5 4

Propriedades 2.5 (Adição de Matrizes)
a) A adição de matrizes é comutativa, isto é,
∀A, B ∈ MK(m, n), A + B = B + A.
14
b) A adição de matrizes é associativa, isto é,
∀A, B, C ∈ MK(m, n), (A + B) + C = A + (B + C).
c) A adição de matrizes tem elemento neutro, a matriz nula



0 · · · 0
.
.
. · · ·
.
.
.
0 · · · 0



(m,n)
d) Todas as matrizes em MK(m, n) têm oposto. O elemento oposto de A ∈ MK(m, n) é
a matriz −A ∈ MK(m, n).
∴ (MK(m, n), +) é um grupo abeliano.
e) Sejam A1, A2, . . . , Ap ∈ MK(m, n). Então
(A1 + A2 + · · · + Ap)T
= AT
1 + AT
2 + · · · + AT
p .
f) Se A ∈ MC(n, n), então A + A∗
é hermı́tica e A − A∗
é hemi-hermı́tica.
g) Se A ∈ MK(n, n), então A + AT
é simétrica e A − AT
é anti-simétrica.
2. Multiplicação de uma Matriz por um Escalar:
Sejam A = [aij] ∈ MK(m, n) e λ ∈ K. É usual denominar qualquer elemento de um
corpo por escalar. Define-se produto do escalar λ pela matriz A como sendo a matriz
λA = [λaij].
Exemplo:
Se A =

2 5 7
1 0 −2

e λ = 2, então λA =

4 10 14
2 0 −4

.
Propriedades 2.6 Sejam A, B ∈ MK(m, n) e α, β ∈ K.
i) 1 · A = A;
ii) α(βA) = (αβ)A = β(αA);
iii) (α + β)A = αA + βA;
iv) α(A + B) = αA + αB;
v) Se K = C e m = n, uma matriz A pode exprimir-se como soma de uma matriz
hermı́tica e uma hemi-hermı́tica, ou de uma matriz simétrica e outra anti-simétrica.
3. Multiplicação de Matrizes:
Sejam A = [aik] ∈ MK(m, p) e B = [blj] ∈ MK(p, n). As matrizes A e B dizem-
-se encadeadas porque o número de colunas de A é igual ao número de linhas de B.
Define-se multiplicação da matriz A pela matriz B como sendo uma matriz C do tipo
m × n, cujos elementos cij satisfazem a igualdade
cij =
p
X
k=1
aikbkj,
15
com i = 1, . . . , m e j = 1, . . . , n.
Exemplo:
A =

2 −1
0 3

B =

3 −1 0
1 2 −4

AB =

5 −4 4
3 6 −12

Observe que não é possı́vel a multiplicação BA. Desta forma, a multiplicação não é
comutativa. Mesmo que A seja do tipo m × n e B do tipo n × m, AB é diferente de BA,
para m 6= n, dado as matrizes AB e BA não serem da mesma ordem. Observe o seguinte
exemplo:

0 1 2 3
3 2 1 0





0 3
1 2
2 1
3 0



 =

14 4
4 14





0 3
1 2
2 1
3 0





0 1 2 3
3 2 1 0

=




9 6 3 0
6 5 4 3
3 4 5 6
0 3 6 9




No caso particular m = n, se AB = BA, então as matrizes A e B dizem-se permutáveis.
Exemplo: 
2 0
0 2
 
3 0
0 3

=

6 0
0 6

=

3 0
0 3
 
2 0
0 2

As matrizes

2 0
0 2

e

3 0
0 3

são permutáveis.
Propriedades 2.7
i) Se A, B e C são matrizes do tipo m × p, p × q e q × n, respectivamente, então
(A · B) · C = A · (B · C) (Associatividade).
ii) Se A, B e C são matrizes do tipo m × p, p × n e p × n, respectivamente, então
A · (B + C) = A · B + A · C (Distributividade à Esquerda).
Se D, E e F são matrizes do tipo m × p, m × p e p × n, respectivamente, então
(D + E) · F = D · F + E · F (Distributividade à Direita).
iii) O conjunto MK(n, n), das matrizes quadradas de ordem n com elementos no corpo
K, munido com as operações adição e multiplicação de matrizes é um anel não
comutativo com elemento unidade (matriz identidade de ordem n).
16
Observações:
1. Um produto AB pode ser a matriz nula sem que A ou B sejam a matriz nula.
Por exemplo: 

1 2 0
1 1 0
1 4 0




0 0 0
0 0 0
1 4 9

 =


0 0 0
0 0 0
0 0 0

 .
2. A igualdade AB = AC não implica necessariamente B = C. Por exemplo:
AB =


1 2 0
1 1 0
−1 4 0




1 2 3
1 1 −1
2 2 2

 =


3 4 1
2 3 2
3 2 −7


AC =


1 2 0
1 1 0
−1 4 0




1 2 3
1 1 −1
1 1 1

 =


3 4 1
2 3 2
3 2 −7


iv) Se as matrizes A e B são do tipo m × p e p × n, respectivamente, então
1. (AB)T
= BT
AT
;
2. AB = A · B;
3. (AB)∗
= B∗
A∗
.
No caso das matrizes quadradas, An
, para todo n ∈ N, existe, já que A é encadeada com
A, A2
, A3
, . . ..
Ainda no caso das matrizes quadradas de ordem n, se AB = BA = In, B é a matriz
inversa de A em MK(n, n), isto é, B = A−1
e A = B−1
. Neste caso, as matrizes A e B
dizem-se regulares ou invertı́veis. Se A ∈ MK(n, n) não é regular, diz-se singular.
Operações Elementares com as Filas de uma Matriz. Condensação
Definição 2.8 Numa matriz, duas filas paralelas dizem-se dependentes se são iguais ou se
uma é igual ao produto da outra por um escalar. Ainda, se uma fila é igual à soma de outras
filas paralelas ou à soma dos produtos de outras filas paralelas por escalares, diremos que
essas filas paralelas são dependentes. Caso contrário, as filas dizem-se independentes.
Definição 2.9 Chama-se caracterı́stica de uma matriz A à ordem máxima da submatriz
de A constituı́da pelas filas independentes.
Para se encontrar a caracterı́stica de uma matriz é necessário ter em conta o seguinte:
1.
Teorema 2.10 A dependência ou independência das linhas ou colunas de uma matriz
não é alterada por alguma das seguintes operações ditas elementares:
O1 Troca entre si de duas filas paralelas.
17
O2 Multiplicação dos elementos de uma fila por um escalar de K  {0}.
O3 Adição, aos elementos de uma fila, dos produtos dos elementos correspondentes de
uma fila paralela por um mesmo escalar de K.
2. Uma matriz que tenha uma submatriz triangular (ou diagonal), com elementos principais
não nulos, e as restantes filas com elementos todos nulos tem caracterı́stica igual ao
número de filas dessa submatriz.
Utilizando-se 1. e 2., podemos determinar a caracterı́stica de uma matriz. Efectua-se,
assim, a condensação da matriz.
Exercı́cio: Determine a caracterı́stica da matriz
A =


0 −3 2 1
−2 2 2 0
1 2 −4 3

 .
Em geral, dada uma matriz
A =




a11 a12 · · · a1n
a21 a22 · · · a2n
· · · · · · · · · · · ·
am1 am2 · · · amn



 ,
podemos, por condensação, obter








b11 b12 · · · b1r · · · b1n
0 b22 · · · b2r · · · b2n
· · · · · · · · · · · · · · · · · ·
0 · · · 0 brr · · · brn
· · · · · · · · · · · · · · · · · ·
0 0 · · · · · · · · · 0








ou








c11 0 · · · 0 · · · 0
c21 c22 · · · 0 · · · 0
· · · · · · · · · · · · · · · · · ·
cr1 · · · · · · crr · · · 0
· · · · · · · · · · · · · · · · · ·
0 0 · · · · · · · · · 0








ou








d11 0 · · · · · · · · · 0
0 d22 0 · · · · · · 0
· · · · · · · · · · · · · · · · · ·
0 · · · 0 drr · · · 0
· · · · · · · · · · · · · · · · · ·
0 0 · · · · · · · · · 0








.
18
Qualquer destas matrizes tem r filas independentes e quaisquer r + 1 filas passam a ser
dependentes. Logo, Car A = r.
Aplicação à Resolução de Sistemas de Equações Lineares
Considere-se um sistema de m equações com n incógnitas:



a11x1 + a12x2 + · · · + a1nxn = b1
· · · · · · · · · · · · · · · · · ·
am1x1 + am2x2 + · · · + amnxn = bm
Observe-se que fazendo
A =





a11 a12 · · · a1n
a21 a22 · · · a2n
.
.
. · · · · · · · · ·
am1 am2 · · · amn





(Matriz dos Coeficientes),
B =





b1
b2
.
.
.
bm





(Matriz dos Termos Independentes) e X =





x1
x2
.
.
.
xn





,
o sistema de equações é equivalente à equação matricial AX = B.
Sabemos que as operações elementares transformam o sistema dado num sistema equiva-
lente. Assim, podemos encontrar a(s) solução(ões), caso exista(m), aplicando o método de
condensação à matriz ampliada ou completa:
[A|B] =



a11 · · · a1n | b1
.
.
. · · ·
.
.
. |
.
.
.
am1 · · · amn | bm


 .
Atenção: A troca de duas colunas em A correspondem a uma troca de incógnitas.
Condensando [A|B], ou melhor, condensando A, até determinar a sua caracterı́stica r,
temos:
1o
Caso: m = n = r





α11 α12 · · · α1n | β1
0 α22 · · · α2n | β2
· · ·
...
... · · · |
.
.
.
0 · · · 0 αnn | βn





19
ou, até à forma diagonal,





γ11 0 · · · 0 | δ1
0 γ22 · · · 0 | δ2
· · · · · ·
... · · · |
.
.
.
0 · · · 0 γnn | δn





e ainda






1 0 · · · 0 | δ1
γ11
0 1 · · · 0 | δ2
γ22
· · · · · ·
... · · · |
.
.
.
0 · · · 0 1 | δn
γnn






isto é,











x1 = δ1
γ11
x2 = δ2
γ22
.
.
.
xn = δn
γnn
,
que é a solução do sistema inicial. Diz-se então que é um sistema possı́vel e determinado.
2o
Caso: m = r  n
Neste caso temos,





α11 α12 · · · α1r | · · · α1n | β1
0 α22 · · · α2r | · · · α2n | β2
· · ·
...
... · · · | · · · · · · |
.
.
.
0 · · · 0 αrr | · · · αrn | βr





→





γ11 0 · · · 0 | · · · γ1n | δ1
0 γ22 · · · 0 | · · · γ2n | δ2
· · ·
...
... · · · | · · · · · · |
.
.
.
0 · · · 0 γrr | · · · γrn | δr





→
→






1 0 · · · 0 | · · · γ1n
γ11
| δ1
γ11
0 1 · · · 0 | · · · γ2n
γ22
| δ2
γ22
· · · · · ·
... · · · | · · · · · · |
.
.
.
0 · · · 0 1 | · · · γrn
γrr
| δr
γrr






,
isto é,





x1 = δ1
γ11
−
Pn
j=r+1
γ1j
γ11
xj
.
.
.
xr = δr
γrr
−
Pn
j=r+1
γrj
γrr
xj
As r incógnitas, ditas principais, dependem das restantes n − r incógnitas não princi-
pais. Assim, o sistema diz-se possı́vel indeterminado, sendo n − r o grau de indeter-
minação.
20
3o
Caso: Se r  m, temos que













α11 α12 · · · α1r | · · · α1n | β1
0 α22 · · · α2r | · · · α2n | β2
· · ·
... ... · · · | · · · · · · |
.
.
.
0 · · · 0 αrr | · · · αrn | βr
−− −− −− −− | −− −− | −−
0 · · · · · · 0 | 0 · · · · · · 0 | βr+1
· · · · · · · · · · · · | · · · · · · |
.
.
.
0 · · · · · · 0 | 0 · · · · · · 0 | βm













e duas possibilidades:
1. βr+1 = · · · = βm = 0;
2. βr+1, . . . , βm não todos nulos.
1. Se as últimas m − r linhas somente têm elementos nulos, as equações transformam-se em
0 = 0. Logo, fica





α11 α12 · · · α1r | · · · α1n | β1
0 α22 · · · α2r | · · · α2n | β2
· · ·
...
... · · · | · · · · · · |
.
.
.
0 · · · 0 αrr | · · · αrn | βr





e tal como antes,
sistema possı́vel

determinado, se r = n,
indeterminado, se r  n, com grau de indeterminação n − r.
2. Se nas últimas equações algum βj 6= 0, obtemos 0x1 + 0x2 + · · · + 0xn = βj. Logo, o
sistema é impossı́vel. Neste caso, a caracterı́stica de [A|B] é maior que r, isto é, maior
do que a caracterı́stica de A.
Em Resumo:
Sistema Possı́vel: Car A = Car[A|B]
Sistema Possı́vel



Determinado, se Car A = n,
Indeterminado, se Car A  n, com grau de indeterminação
n − Car A.
Sistema Impossı́vel: Car A  Car[A|B]
Exercı́cios:
1. Resolva e classifique o seguinte sistema:



2x − y − z = 1
x + y − z = 2
−x + 2y + 2z = 4
21
2. Considere o sistema de equações lineares sobre R, nas incógnitas x, y, z e t:







x = a − b
5ax − 2by + az + t = 1
−bz = 1
−3ax + 2by − az + (b − a)t = 2a − 1
Utilizando o método de condensação, discuta o sistema em função dos parâmetros a e b.
Cálculo da Matriz Inversa de uma Matriz Regular
Seja A uma matriz quadrada de ordem n. Sabemos que A é regular (isto é, invertı́vel) se
existe uma matriz quadrada, com a mesma ordem, B tal que
AB = BA = I.
Vamos determinar a matriz B tal que
AB = I
e em seguida mostraremos que essa matriz B também é inversa à esquerda, isto é, BA = I.
Representemos B por X, e Xj e Ij, respectivamente, as j-ésimas colunas de X e I. Assim,
a equação matricial AX = I é equivalente a n sistemas de equações lineares:

AXj = Ij
j = 1, . . . , n
Pelo que vimos anteriormente, tais sistemas têm solução única se, e somente se, Car A = n.
Cada um dos sistemas é resolvido passando da matriz ampliada [A|Ij] para a matriz [I|Xj].
Isto é equivalente à passagem de [A|I] para [I|X] efectuando as operações elementares nos
n sistemas.
Exercı́cio: Determine a inversa à direita da matriz
A =


2 0 2
−1 1 −3
0 2 1

 .
Mostremos agora que a existência de uma inversa à direita garante a existência de inversa
à esquerda e que elas são iguais.
Sabemos que se A tem inversa X à direita se, e somente se, Car A = n (ordem de A).
Desta forma, AT
também tem inversa à direita, digamos Y, isto é, AT
Y = I. Logo,
AT
Y
T
= IT
⇔ Y T
A = I,
isto é, a matriz A tem inversa à esquerda.
22
Agora basta mostrar que Y T
= X. Ora, Y T
A = I implica
Y T
AX = IX ⇔ Y T
(AX) = X ⇔ Y T
I = X ⇔ Y T
= X.
Portanto, concluı́mos que a inversa à esquerda é igual à inversa à direita. Chamar-lhe-
-emos apenas inversa de A e representa-se por A−1
.
Sistemas Homogéneos
Seja A ∈ MK(m, n). Se no sistema AX = B, a matriz B é a matriz nula (B = 0), estamos
perante um sistema de equações lineares homogéneo (AX = 0) onde todas as equações são
homogéneas de grau 1.
É evidente que todo o sistema homogéneo é um sistema possı́vel: admite sempre a
solução nula (X = 0), pelo menos! Assim, sendo r a caracterı́stica de A,
se r = n, o sistema é possı́vel e determinado, tendo somente a solução nula, X = 0.
se r  n, o sistema é possı́vel indeterminado, admite soluções não nulas.
Suponhamos que A é uma matriz quadrada de ordem n. Então temos o seguinte resultado:
Teorema 2.11 A é regular se, e somente se, AX = 0 só tem a solução X = 0.
Demonstração: Exercı́cio.
Propriedades da Inversão de Matrizes
1. Se A é regular, também o é A−1
e (A−1
)
−1
= A.
2. Um produto de matrizes quadradas é invertı́vel se, e somente se, cada factor é invertı́vel
e
(A1 . . . Ak)−1
= A−1
k . . . A−1
1 .
3. Se A é regular, Ak
−1
= (A−1
)
k
.
4. Se A é regular, então AT
, A e A∗
também são regulares e temos que
AT
−1
= A−1
T
; A
−1
= A−1; (A∗
)−1
= A−1
∗
.
Definição 2.12 Uma matriz quadrada A é dita
i) ortogonal se A−1
= AT
, isto é, AT
A = I = AAT
.
ii) unitária se A−1
= A∗
, isto é, A∗
A = I = AA∗
.
Exemplo: A matriz
 √
2
2
−
√
2
2
√
2
2
√
2
2
#
é ortogonal (e unitária).
23
3 ESPAÇOS VECTORIAIS. APLICAÇÕES LINEARES.
Definição 3.1: Seja K um corpo. Diz-se que um conjunto E, não vazio, é um espaço vectorial
ou um espaço linear sobre K se nele estão definidas duas leis de composição:
a) Uma lei de composição interna, dita adição, a respeito da qual E é um grupo
abeliano.
b) Uma lei de composição externa, isto é, uma aplicação de E
K ×
( ,
α
em E,
denominada multiplicação escalar, que associa a todo par ordenado , com
)
x
K
∈
α e ,
E
x ∈ um elemento ,
E
x ∈
α satisfazendo as propriedades:
i) ( ) y
x
y
x
,
E
y
,
x
,
K α
+
α
=
+
α
∈
∀
∈
α
∀
(Distributividade da multiplicação escalar relativamente à adição em E).
ii) ( ) x
x
x
,
E
x
,
K
, β
+
α
=
β
+
α
∈
∀
∈
β
α
∀
(Distributividade da multiplicação escalar relativamente à adição em K).
iii) ( ) ( )
x
x
,
E
x
,
K
, β
α
=
αβ
∈
∀
∈
β
α
∀
(Associativadade da multiplicação escalar).
iv) x (1 é o elemento unidade de K).
x
1
,
E
x =
⋅
∈
∀
Os elementos de K denominam-se escalares e os elementos de E vectores.
No caso de K ser o corpo IR, dos números reais, diz-se que E é um espaço vectorial
real. No caso de K ser o corpo C
 , dos números complexos, diz-se que E é um espaço
vectorial complexo.
Por vezes, o elemento neutro E
0∈ é designado por origem ou zero de E.
Exemplos:
1. O conjunto dos vectores livres do espaço ordinário é um espaço vectorial real com as
operações usuais:
- Adição: A soma , resultado da adição dos vectores
v
u
r
r
+ u
r
e , é definida pela
regra do paralelogramo.
v
r
- Multiplicação escalar: u
r
α é o vector com a direcção de u
r
, sentido de se
u
r
α é
positivo e sentido oposto se α é negativo e cujo comprimento é dado pelo produto
do módulo do número real α pelo comprimento de u
r
.
2. IR é um espaço vectorial real.
3. C
 é um espaço vectorial real.
4. C
 é um espaço vectorial complexo.
5. IR não é um espaço vectorial complexo.
6. Seja K um corpo. Para cada IN, o conjunto K
∈
n
n
( )
{ ∈
= i
n
2
1 x
:
x
,
,
x
,
x K K ,
é um espaço vectorial sobre K relativamente às operações (ditas usuais):
}
n
,
,
2
,
1
i K
=
- Adição: definida pela relação
( ) ( ) ( )
n
n
2
2
1
1
n
2
1
n
2
1 y
x
,
,
y
x
,
y
x
y
,
,
y
,
y
x
,
,
x
,
x +
+
+
=
+ K
K
K ;
24
- Multiplicação escalar: definida por
( ) ( )
n
2
1
n
2
1 x
,
,
x
,
x
x
,
,
x
,
x α
α
α
=
α K
K ;
(em que as operações que figuram nos n-uplos dos segundos membros das
igualdades anteriores são as operações adição e multiplicação em k).
Nota: Dado um corpo K, sempre que seja feita referência ao espaço vectorial K
n
sobre o
corpo K, assumiremos que as operações consideradas são as usuais, a menos que seja dito
o contrário.
7. Para cada n IN , o conjunto IR
∈
n
(respectivamente, C

n
) é um espaço vectorial real
(respectivamente, complexo).
8. Para cada IN,o conjunto C

∈
n
n
é um espaço vectorial real.
9. O conjunto de todos os polinómios na variável x, com coeficientes em K, de grau não
superior a n ( IN) é um espaço vectorial sobre K (K = IR ou K = C
 ) com as operações
definidas por:
∈
n
( ) ( )
( ) ( ) ( ) ( ) n
n
n
2
2
2
1
1
0
0
n
n
2
2
1
0
n
n
2
2
1
0
x
b
a
x
b
a
x
b
a
b
a
x
b
x
b
x
b
b
x
a
x
a
x
a
a
+
+
+
+
+
+
+
+
=
=
+
+
+
+
+
+
+
+
+
L
L
L
e
( ) ( ) ( ) ( ) ( n
n
2
2
1
0
n
n
2
2
1
0 x
a
x
a
x
a
a
x
a
x
a
x
a
a α
+
+
α
+
α
+
α
=
+
+
+
+
α L
L ) .
10. O conjunto de todos os polinómios na variável x, com coeficientes em K, é um espaço
vectorial sobre K, com as operações definidas de forma análoga às definidas em 9 (ditas
usuais).
Propriedades dos Espaços Vectoriais:
1. ( ) y
x
y
x
,
E
y
,
x
,
K α
−
α
=
−
α
∈
∀
∈
α
∀
De facto, tem-se
( ) ( )
[ ] x
y
y
x
y
y
x α
=
+
−
α
=
α
+
−
α ,
atendendo-se à propriedade i) da multiplicação escalar e a ( )
+
,
E ser um grupo.
2. 0
0
,
K =
α
∈
α
∀
É um caso particular de 1. para .
y
x =
3. ( ) ( )
y
y
,
E
y
,
K α
−
=
−
α
∈
∀
∈
α
∀
É um caso particular de 1. para .
0
x =
4. ( ) x
x
x
,
E
x
,
K
, β
−
α
=
β
−
α
∈
∀
∈
β
α
∀
De facto, tem-se
( ) ( )
[ ] x
x
x
x α
=
β
+
β
−
α
=
β
+
β
−
α
25
atendendo-se à propriedade ii) da multiplicação escalar e a K ser um corpo.
5. 0
x
0
,
E
x =
∈
∀
É um caso particular de 4. para .
β
=
α
6. ( ) ( )
x
x
,
E
x
,
K β
−
=
β
−
∈
∀
∈
β
∀
É um caso particular de 4. para .
0
=
α
7. 0
x
0
0
x
,
E
x
,
K =
∨
=
α
⇔
=
α
∈
∀
∈
α
∀
Demonstração: Exercício.
Definição 3.2: Seja K um corpo e E um espaço vectorial sobre K. Se S é um subconjunto não
vazio de E e se é um espaço vectorial sobre K relativamente às mesmas operações definidas
em E, então diz-se que S é um subespaço vectorial de E.
Exemplos:
1. IRé um subespaço vectorial real do espaço vectorial real C
 .
2. O espaço vectorial dos polinómios reais de grau não superior a 3 é subespaço vectorial do
espaço vectorial dos polinómios de grau não superior a 6, etc..
3. Qualquer que seja o espaço vectorial E, o conjunto { }
0 e E são subespaços vectoriais de E.
Teorema 3.3: Um subconjunto S, não vazio, do espaço vectorial E é subespaço vectorial se, e
somente se, S é fechado relativamente às leis de composição definidas em E, isto é, S
satisfazendo às condições:
E
⊂
a) ,
∅
≠
S
b) ,
S
y
x
,
S
y
,
x ∈
+
∈
∀
c) ,
S
x
,
S
x
,
K ∈
α
∈
∀
∈
α
∀
é um subespaço vectorial de E.
Demonstração: Exercício.
Exercício: Considere os seguintes conjuntos
( )
{ ∈
= z
,
y
,
x
A IR
3
: z }
0
= e ( )
{ ∈
= z
,
y
,
x
B IR
3
: }
0
z
y
x ≠
+
+ .
Averigúe se são ou não subespaços vectoriais de IR
3
.
Teorema 3.4: Seja E um espaço vectorial definido sobre um corpo K e seja { } um
conjunto de subespaços vectoriais de E. Então
I
i
:
Si ∈
I
I
i
i
S
S
∈
=
26
é também um subespaço vectorial de E.
Demonstração: Exercício.
Seja E um espaço vectorial sobre um corpo K e E
x
,
,
x
,
x n
2
1 ∈
K . Todo o vector v que
se pode exprimir sob a forma
n
n
2
2
1
1 x
x
x
v α
+
+
α
+
α
= L ,
com ,
i diz-se combinação linear dos vectores
,
K
i ∈
α n
,
,
1 K
= .
x
,
,
x
,
x n
2
1 K
Analogamente, se A é um subconjunto de E, então qualquer vector de E da forma
n
n
2
2
1
1 x
x
x α
+
+
α
+
α L ,
com e
K
,
,
, n
2
1 ∈
α
α
α K ,
A
x
,
,
x
,
x n
2
1 ∈
K diz-se combinação linear (finita) de elementos
de A.
Obs.: É óbvio que qualquer elemento de A é combinação linear de elementos de A. De facto,
se podemos escrever
,
A
x ∈
,
x
0
x
0
x
1
x n
2 ⋅
+
+
⋅
+
⋅
= L
com .
A
x
,
,
x
,
x n
3
2 ∈
K
Exercício: Dados os vectores, em IR
4
,
( b
,
a
,
1
,
1
u = ) ( )
3
,
1
,
1
,
3
v = ( )
5
,
1
,
0
,
2
w = ,
determine o valor das constantes a e b por forma a ser possível escrever o vector u
como combinação linear dos vectores v e w.
Teorema 3.5: Seja E um espaço vectorial sobre um corpo K e A uma parte não vazia de E. O
conjunto F de todas as combinações lineares de elementos de A é o “menor” subespaço
vectorial de E que contém A.
Demonstração: Exercício.
Sendo A uma parte não vazia do espaço vectorial E definido sobre um corpo K, o
subespaço F de E formado por todas as combinações lineares de elementos de A diz-se
subespaço gerado por A, ou, também, que A gera o subespaço F.
No caso de F coincidir com o próprio E, diz-se que os vectores de A constituem um
sistema de geradores de E.
Notação: O subespaço gerado por A representa-se por
A ou [ ]
A ou ainda ,
x
,
,
x
,
x n
2
1 K
se .
{ }
n
2
1 x
,
,
x
,
x
A K
=
Em resumo: se F for o subespaço gerado pelo conjunto { }
n
2
1 x
,
,
x
,
x K ,
27
,
K
:
x
x
,
,
x
,
x
F i
n
1
i
i
i
n
2
1






∈
α
α
=
= ∑
=
K
isto é, todo o vector de F é combinação linear dos vectores .
n
2
1 x
,
,
x
,
x K
Exercícios:
1. Considere os vectores do espaço vectorial real IR
3
( )
3
,
2
,
1
x1 = e ( )
1
,
1
,
2
x2 −
= .
Escreva uma condição que caracterize o subespaço F de IR
3
gerado por .
{ }
2
1 x
,
x
A =
2. No espaço vectorial IR
4
, considere os conjuntos
( ) (






−
−
−
−






−
−
= 0
,
1
,
1
,
0
,
1
,
2
,
2
,
1
,
2
1
,
1
,
1
,
2
1
B ) e ( ) ( )
{ }
0
,
1
,
1
,
0
,
2
,
0
,
0
,
2
C = .
Mostre que B e C geram o mesmo subespaço vectorial de IR
4
.
Exemplos:
1. No espaço dos vectores OP de um plano, dois vectores quaisquer desse plano não
colineares são geradores do espaço.
2. Os vectores ( ) ( ) ( ) ( )
1
,
1
,
1
e
1
,
0
,
0
,
0
,
1
,
0
,
0
,
0
,
1 são geradores de IR
3
.
3. Também geram IR
( ) ( ) ( 1
,
0
,
0
e
0
,
1
,
0
,
0
,
0
,
1 ) 3
.
4. Em geral, o espaço vectorial IR
n
é gerado pelos n vectores
( )
( )
( )
1
,
0
,
,
0
,
0
,
0
e
0
,
0
,
,
0
,
1
,
0
e
0
,
0
,
,
0
,
0
,
1
e
n
2
1
K
K
K
K
K
K
K
K
K
K
=
=
=
5. IR é gerado por qualquer número real não nulo.
6. O espaço real C
 é gerado por { }
i
1
,
i
,
1 + e também por { }
i
,
1 , pois a i
b
1
a
bi ⋅
+
⋅
=
+ .
7. O espaço complexo C
 é gerado por qualquer número complexo não nulo.
Observem-se os exemplos 2. e 3.. Repare-se que o número de vectores no exemplo 3. é o
menor número de vectores que geram o espaço. O mesmo já não acontece no exemplo 2.
porque ( ) ( ) ( ) ( )
1
,
0
,
0
1
0
,
1
,
0
1
0
,
0
,
1
1
1
,
1
,
1 ⋅
+
⋅
+
⋅
= . Diremos por isso, como vamos ver, que os
quatro vectores são linearmente dependentes.
Definição 3.6: Os vectores x dizem-se linearmente dependentes se existem
escalares não todos nulos tais que
n
2
1 x
,
,
x
, K
n
2
1 ,
,
, α
α
α K
0
x
x n
n
1
1 =
α
+
+
α L .
Esses vectores dizem-se linearmente independentes se a combinação linear nula só
acontece quando todos os escalares são nulos, isto é,
28
0
0
x
x n
2
1
n
n
1
1 =
α
=
=
α
=
α
⇒
=
α
+
+
α L
L .
Proposição 3.7: Os vectores são linearmente dependentes se, e somente se,
algum deles é combinação linear dos restantes.
n
2
1 x
,
,
x
,
x K
Demonstração: Exercício.
Exercícios:
1. Verifique se os vectores ( ),
1
,
1
,
0
,
1 ( )
0
,
1
,
3
,
2 , ( )
1
,
1
,
1
,
2 − e ( )
0
,
0
,
0
,
1 são linearmente inde-
pendentes.
2. Verifique se os elementos do espaço vectorial real P3(x) (conjunto dos polinómios reais de
grau menor ou igual a 3)
1, ,
2
x
2
x − 3
2
x
x + , 3
x
2
x +
são linearmente independentes.
Propriedades:
1. Se os vectores são linearmente dependentes, então qualquer conjunto finito
de vectores que os contenha é um conjunto de vectores linearmente dependentes.
n
2
1 x
,
,
x
,
x K
2. Dados n vectores, se um deles é o vector nulo, então os n vectores são linearmente
dependentes. Pois, 1 0
x
0
x
0
0 1
n
1 =
⋅
+
+
⋅
+
⋅ −
L .
3. Qualquer subconjunto de um conjunto de n vectores linearmente
independentes, é formado por vectores linearmente independentes.
n
2
1 x
,
,
x
,
x K
4. A dependência ou independência linear de n vectores não se altera por
qualquer troca na ordem pela qual estes vectores são indicados.
n
2
1 x
,
,
x
,
x K
5. A dependência ou independência linear de n vectores não se altera quando a um deles se
adiciona uma combinação linear de qualquer número dos restantes.
Depois destas considerações, podemos afirmar que os geradores ( ) ( ) ( )
1
,
0
,
0
,
0
,
1
,
0
,
0
,
0
,
1 de
IR
3
são linearmente independentes, mas os geradores ( ) ( ) ( ) ( )
1,1,1
,
1
,
0
,
0
,
0
,
1
,
0
,
0
,
0
,
1 são
linearmente dependentes.
Definição 3.8: Chama-se base do espaço vectorial E a um conjunto de geradores de E
linearmente independentes.
Obviamente, excluindo o caso em que { }
0
E = , os vectores de uma base são não nulos.
Definição 3.9: Um espaço vectorial E sobre um corpo K diz-se finitamente gerado se admite
um conjunto de geradores finito.
Nota: Somente trabalharemos no contexto dos espaços vectoriais finitamente gerados.
29
Teorema 3.10: Todo o espaço vectorial { }
0
E ≠ finitamente gerado admite uma base.
Teorema 3.11: Todas as bases de um espaço vectorial E finitamente gerado têm o mesmo
número de elementos.
Definição 3.12: Seja E um espaço vectorial finitamente gerado sobre um corpo K. O número
de elementos de qualquer base de E diz-se dimensão de E e designa-se por , ou
apenas . Por convenção,
( )
E
dimK
( )
E
dim { }
( ) 0
0
dim = .
Definição 3.13: Dado um espaço vectorial E sobre um corpo K e { }
n
2
1 x
,
,
x
,
x K
E
x
uma base de
E, chamam-se componentes ou coordenadas de um vector ∈ relativamente à base
considerada aos escalares n
2
1 ,
,
, α
α
α K que surgem na combinação linear
∑
=
α
=
n
1
i
i
ix
x .
Teorema 3.14: Um conjunto de vectores { }
n
2
1 x
,
,
x
,
x K é uma base de um espaço vectorial E
se, e somente se, cada vector x se exprime de forma única como combinação linear dos
vectores x , isto é,
E
∈
n
2
1 x
,
,
x
, K
∑
=
α
=
n
1
i
i
ix
x ,
com únicos.
n
2
1 ,
,
, α
α
α K
Demonstração: Exercício.
Exemplos:
1. Em IR
2
são bases ( ) ( )
{ }
1
,
0
,
0
,
1 , ( ) ( )
1
,
1
,
0
,
1
{ }, etc.
2. No espaço K
n
sobre o corpo K, chama-se base canónica à base
( ) ( ) ( )
{ }
1
,
0
,
,
0
,
0
,
,
0
,
0
,
,
1
,
0
,
0
,
0
,
,
0
,
1 K
K
K
K .
3. No espaço real C
 , { é uma base: tem dimensão 2. O espaço complexo C
 tem dimensão
1.
}
}
}
}
}
i
,
1
Teorema 3.15: Sejam E um espaço vectorial sobre um corpo K de dimensão igual a n e
um conjunto de n vectores de E. Então, as seguintes afirmações são
equivalentes:
{ n
2
1 e
,
,
e
,
e K
a) é uma base de E;
{ n
2
1 e
,
,
e
,
e K
b) é um conjunto de geradores de E;
{ n
2
1 e
,
,
e
,
e K
c) é um conjunto de vectores linearmente independentes de E.
{ n
2
1 e
,
,
e
,
e K
Demonstração: Exercício.
30
Exercícios:
1. Indique a condição a que deve satisfazer λ de modo a que os vectores ( ), ( ) e
constituam uma base de IR
1
,
0
,
1 0
,
,
0 λ
( λ
,
0
,
1 ) 3
.
2. Considere o seguinte subespaço vectorial do espaço vectorial IR
4
:
( )
{ ∈
= t
,
z
,
y
,
x
A IR
4
: }
0
t
z
y
x =
+
−
− .
Determine uma base e a dimensão do subespaço A.
Pelo que vimos anteriormente, fixada uma base { }
n
2
1 e
,
,
e
,
e K no espaço E, cada
vector de E fica bem definido pelas suas coordenadas, isto é, pelos escalares que aparecem
em:
( )
n
2
1 ,
,
, α
α
α K ou [ ]
n
2
1 α
α
α L ou em .












α
α
α
n
2
1
M
Exemplo: No espaço dos polinómios de grau não superior a 3, { }
3
2
x
,
x
,
x
,
1 é uma base. Nesta
base, as coordenadas do polinómio são
3
2
x
5
x
4
x
2 −
+
+
− [ ]
5
4
1
2 −
− .
Aplicações Lineares
Definição 3.16: Sejam E e F dois espaços vectoriais definidos sobre o mesmo corpo K e ϕ
uma aplicação de E em F. Se é tal que
ϕ
( ) ( ) ( )
y
x
y
x
,
E
y
,
x ϕ
+
ϕ
=
+
ϕ
∈
∀
( ) ( )
x
x
,
E
x
,
K αϕ
=
α
ϕ
∈
∀
∈
α
∀
então diz-se que é uma aplicação linear, um homomorfismo ou uma transformação
linear de E em F.
ϕ
Uma aplicação linear de E em E diz-se um endomorfismo.
Um aplicação linear bijectiva diz-se também um isomorfismo de E em F. Caso exista
esse isomorfismo diz-se que E e F são espaços isomorfos. Um isomorfismo de E em E
denomina-se automorfismo.
Observação: Pode mostrar-se que as duas proposições da definição de aplicação linear são
equivalentes à proposição: ( ) ( ) (y
x
y
x
,
E
y
,
x
,
K
, )
βϕ
+
αϕ
=
β
+
α
ϕ
∈
∀
∈
β
α
∀ .
Exemplos:
31
1. A aplicação f de IR
3
em IR
2
definida por ( ) ( )
z
y
x
,
x
z
,
y
,
x
f +
+
= .
2. Homotetia (em IR
3
): .
( ) ( z
2
,
y
2
,
x
2
z
,
y
,
x a )
3. Rotação (em IR
2
): ( ) ( x
,
y
y
,
x −
a ) (rotação de
2
π
)
ou ( ) ( ) ( )







 +
−
2
y
x
2
,
2
y
x
2
y
,
x a (rotação de
4
π
)
Exercício: Verifique se a seguinte aplicação é linear:
:
f IR
3
→ IR
2
( ) ( )
z
y
,
y
x
z
,
y
,
x −
−
a .
Representaremos por L o conjunto de todas as aplicações lineares de E em F,
com E e F espaços vectoriais sobre um mesmo corpo K.
( F
,
E )
Observação: Prova-se que o conjunto L ( )
F
,
E é um espaço vectorial sobre K, para as
operações:
Adição: ∈
ψ
ϕ,
∀ L ,
( )
F
,
E ( )( ) ( ) ( )
x
x
x ψ
+
ϕ
=
ψ
+
ϕ .
Multiplicação Escalar: ∈
ϕ
∀
∈
α
∀ ,
K L ( )
F
,
E , ( )( ) ( )
[ ]
x
x ϕ
α
=
αϕ .
Propriedades das Aplicações Lineares:
Sejam ∈
ϕ L ( )
F
,
E e ψ L
∈ ( )
G
,
F , com E, F e G espaços vectoriais sobre o mesmo
corpo K.
1. ( ) .
0
0 =
ϕ
2. é uma aplicação linear de E em G.
ϕ
ψ o
3. é um subespaço vectorial de F.
( )
E
ϕ
4. , denominado núcleo da aplicação linear ϕ , é um
subespaço vectorial de E.
{ }
( ) ( )
{ 0
x
:
E
x
0
N 1
=
ϕ
∈
=
ϕ
= −
ϕ }
5. ( ) ( ) ( )
( )
E
dim
N
dim
E
dim ϕ
+
= ϕ .
6. A aplicação é injectiva se, e somente se,
ϕ { }
0
N =
ϕ .
Exercício: Considere a aplicação linear
:
f IR
3
→ IR
2
( ) ( )
z
y
,
y
x
z
,
y
,
x −
−
a .
a) Determine . A aplicação f é injectiva?
f
N
b) Determine dim (f (IR
3
)).
Teorema 3.17: Sejam E e F dois espaços vectoriais sobre o mesmo corpo K, { }
uma base de E e uma aplicação linear de E em F. Sejam f respectivamente, as
imagens por dos vectores da base de E, isto é,
n
2
1 e
,
,
e
,
e K
ϕ ,
f
,
,
f
, n
2
1 K
ϕ n
2
1 e
,
,
e
,
e K
32
( ) i
i f
e =
ϕ ( )
n
,
,
2
,
1
i K
=
Então podemos afirmar que:
a) é injectiva se, e somente se, f são linearmente independentes.
ϕ n
2
1 f
,
,
f
, K
b) é sobrejectiva se, e somente se, f geram F.
ϕ n
2
1 f
,
,
f
, K
c) é bijectiva se, e somente se, f constituem uma base de F.
ϕ n
2
1 f
,
,
f
, K
Demonstração: Exercício.
Definição 3.18: Sejam E e F dois espaços vectoriais (de dimensão finita) sobre um mesmo
corpo K. Chama-se característica de uma aplicação linear ϕ de E em F, à dimensão do
subespaço ϕ .
( )
E
Matriz de uma Aplicação Linear
Sejam E e F dois espaços vectoriais (de dimensão finita) sobre um mesmo corpo K,
uma base de E, { uma base de F e
{ n
2
1 e
,
,
e
,
e K } }
m
2
1 f
,
,
f
,
f K ∈
ϕ L ( )
F
,
E .
Os vectores ( )
j
e
ϕ , com pertencem ao espaço F e como é
uma base de F, então os vectores
,
n
,
,
2
,
1
j K
= { }
m
2
1 f
,
,
f
,
f K
( )
j
e
ϕ podem representar-se de maneira única como
combinação linear desses vectores,
( ) ∑
=
=
ϕ
m
1
i
i
ij
j f
a
e ( ),
n
,
,
2
,
1
j K
=
onde cada designa a coordenada do vector
K
aij ∈ ( )
j
e
ϕ , relativamente ao vector da base
de F. Isto é, tem-se
i
f
( )
( )
( ) m
mn
2
n
2
1
n
1
n
m
2
m
2
22
1
12
2
m
1
m
2
21
1
11
1
f
a
f
a
f
a
e
f
a
f
a
f
a
e
f
a
f
a
f
a
e
+
+
+
=
ϕ
+
+
+
=
ϕ
+
+
+
=
ϕ
L
K
K
K
K
K
K
K
K
K
K
K
K
K
L
L
Desta forma, podemos escrever as coordenadas de cada vector ( )
j
e
ϕ na forma matricial












=
mn
2
m
1
m
n
2
22
21
n
1
12
11
a
a
a
a
a
a
a
a
a
A
K
K
K
K
K
K
K
sendo A a matriz, em que cada coluna j ( )
n
,
,
2
,
1
j K
= é constituída pelas coordenadas do
vector ( )
j
e
ϕ
1
e
relativamente à base { , a matriz da aplicação linear em relação
às bases { } e{ . Designa-se, em geral, A por
}
m
f
,
}
2
1 ,
f
,
f K
m
f
,
ϕ
n
2 e
,
,
e
, K 2
1 ,
f
,
f K ( )
}
f
{
},
,
M i
ϕ e
{ j ou,
apenas, por .
( )
ϕ
M
Observe-se agora o seguinte: seja E
x ∈ e suponhamos que pretendemos determinar a
imagem de x pela aplicação linear ϕ . Como { }
n
2
1 e
,
,
e
,
e K é uma base de E, podemos
escrever
33
n
n
2
2
1
1 e
e
e
x α
+
+
α
+
α
= L .
Logo, atendendo a que ϕ é uma aplicação linear, podemos obter sucessivamente o seguinte:
( ) ( )
( ) ( ) ( )
,
f
a
f
a
f
a
f
a
f
a
e
e
e
e
e
e
x
m
1
i
i
n
1
j
j
ij
n
1
j
m
1
i
i
ij
j
m
1
i
i
in
n
m
1
i
i
2
i
2
m
1
i
i
1
i
1
n
n
2
2
1
1
n
n
2
2
1
1
∑ ∑
∑ ∑
∑
∑
∑
= =
= =
=
=
=








α
=
α
=
α
+
+
α
+
α
=
ϕ
α
+
+
ϕ
α
+
ϕ
α
=
=
α
+
+
α
+
α
ϕ
=
ϕ
L
L
L
Mas e, portanto, representa-se de maneira única como combinação linear dos
vectores f da base de F,
( ) F
x ∈
ϕ
2
1 ,
f
, m
f
,
K
( ) ∑
=
β
=
β
+
+
β
+
β
=
ϕ
m
1
i
i
i
m
m
2
2
1
1 f
f
f
f
x L .
Consequentemente, tem-se
∑
=
α
=
β
n
1
j
j
ij
i a ( )
m
,
,
2
,
1
i K
=
e podemos escrever












α
α
α












=












β
β
β
n
2
1
mn
2
m
1
m
n
2
22
21
n
1
12
11
m
2
1
a
a
a
a
a
a
a
a
a
M
K
K
K
K
K
K
K
M
Observação: Pelo que vimos anteriormente, fixadas as bases em E e F, a aplicação linear ϕ
fica bem definida pela matriz .
( )
ϕ
M
Teorema 3.19: Sejam E e F espaços vectoriais, de dimensões n e m, respectivamente, sobre
um corpo K. A aplicação que associa a toda a aplicação
Ψ ∈
ϕ L a matriz
correspondente é uma aplicação bijectiva do espaço vectorial L no espaço
vectorial , isto é, L
( F
,
E
( )
F
,
E
)
( )
ϕ
M
( )
n
,
m
MK :
Ψ ( )
F
,
E → ( )
n
,
m
MK , tal que ( ) ( )
ϕ
=
ϕ
Ψ M , é bijectiva.
Deste teorema podemos concluir que a cada aplicação linear está associada uma matriz
e a cada matriz está associada uma aplicação linear. Assim, a característica de uma aplicação
linear é igual à característica da matriz que lhe está associada. Mais, a característica de uma
matriz é igual à dimensão do subespaço vectorial ( )
E
ϕ , sendo ϕ a aplicação linear que lhe
está associada.
Exercício: Seja f IR
:
3
→ IR
2
tal que ( ) ( )
z
y
,
y
x
z
,
y
,
x
f −
−
= , uma aplicação linear.
a) Determine a matriz de f relativamente às bases canónicas de IR
3
e IR
2
.
34
b) A aplicação f tem inversa? Justifique.
c) Calcule , usando:
( 3
,
2
,
1
f )
i) a definição de f;
ii) a matriz de f.
Matrizes de Mudança de Base
Seja E um espaço vectorial sobre um corpo K. Suponhamos que E é de dimensão n e
sejam
{ }
n
2
1 e
,
,
e
,
e K e { }
n
2
1 e
,
,
e
,
e ′
′
′ K
duas bases de E.
Como todo o vector de E se pode representar como combinação linear única dos
vectores da base, podemos escrever
( ),
n
,
1,2,
j
e
t
e
t
e
t
e
t
e
n
1
i
i
ij
n
nj
2
j
2
1
j
1
j
K
L
=
=
+
+
+
=
′
∑
=
e obter a matriz












=
nn
2
n
1
n
n
2
22
21
n
1
12
11
t
t
t
t
t
t
t
t
t
T
L
L
L
L
L
L
L
,
cuja coluna j é formada pelas coordenadas de ej
′ em relação à base { }
n
2
1 e
,
,
e
,
e K . Esta matriz
denomina-se de matriz de transformação, matriz de mudança de base ou matriz de
passagem da base para a base
{ n
2
1 e
,
,
e
,
e K } { }
n
2 e
,
,
e
,
1
e ′
′
′ K .
Pode considerar-se T como a matriz da aplicação identidade em E relativamente às
bases e
{ }
n
2
1 e
,
,
e
,
e ′
′
′ K { }
n
2
1 e
,
,
e
,
e K , isto é,
( )
}
e
{
},
e
{
,
id
M
T i
j
E
′
= .
Seja x um vector de E. Então podemos escrever
∑
=
α
=
α
+
+
α
+
α
=
n
1
i
i
i
n
n
2
2
1
1 e
e
e
e
x L
e
∑
=
′
β
=
′
β
+
+
′
β
+
′
β
=
n
1
j
j
j
n
n
2
2
1
1 e
e
e
e
x L .
Logo,
∑ ∑
∑ ∑
∑ = =
= =
=








β
=
β
=
′
β
=
n
1
i
i
n
1
j
j
ij
n
1
j
n
1
i
i
ij
j
n
1
j
j
j e
t
e
t
e
x .
Consequentemente, devido à unicidade das coordenadas do vector x relativamente à base
, tem-se
{ }
n
2
1 e
,
,
e
,
e K
35
∑
=
β
=
α
n
1
j
j
ij
i t
ou
β
=
α T ,
onde designa a matriz coluna e
α [ T
n
1 α
α L ] β a matriz coluna [ ]T
n
1 β
β L .
Analogamente, se T designar a matriz quadrada de ordem n cuja coluna j é formada
pelas coordenadas de e relativamente à base
′
j { }
n
2
1 e
,
,
e
,
e ′
′
′ K , isto é, se T é a matriz de
passagem da base {
′
}
n
1 e
,
e ′
2 , e
,
′
′ K para a base { }
n
2 e
,
,
e K
1,
e , tem-se
α
′
=
β T .
Combinando estas duas relações, tem-se












α
α
α
′
⋅
=












β
β
β
=












α
α
α
n
2
1
n
2
1
n
2
1
T
T
T
M
M
M
e também












β
β
β
⋅
′
=












α
α
α
′
=












β
β
β
n
2
1
n
2
1
n
2
1
T
T
T
M
M
M
.
Então , isto é, é a matriz inversa de T, ou seja T
n
I
T
T
T
T =
⋅
′
=
′
⋅ T′ 1
T−
=
′ .
Considere-se agora uma aplicação linear ∈
ϕ L ( )
F
,
E e vejamos que alterações
ocorrem na matriz de ϕ quando se mudam as bases de E e F.
Teorema 3.20: Sejam e
{ }
n
2
1 e
,
,
e
,
e K { }
n
2
1 e
,
,
e
,
e ′
′
′ K duas bases de E e T a matriz de
passagem da base { }
n
2
1 e
,
,
e
, K
e para a base { }
n
2 e
,
,
e
1,
e ′
′
′ K . Sejam { } e
duas bases de F e S a matriz de passagem da base
m
2
1 f
,
,
f
,
f K
{ m
2
1 f
,
,
f
,
f ′
′
′ K } { }
m
f
,
2
1 ,
f
,
f K para a base
. Seja A=
{ }
m
2
1 f
,
,
f
,
f ′
′
′ K ( )
}
f
{
},
e
{
, i
j
ϕ
M e A′ = ( )
}
f
{ i
},
e
{
, j
M ′
′
ϕ . Então podemos afirmar que
T
A
S
A 1
⋅
⋅
=
′ −
.
As matrizes A e , do tipo
A′ n
m× , por satisfazerem à relação ou à
relação equivalente , com S e T matrizes regulares, de ordem m e n
respectivamente, dizem-se matrizes equivalentes.
T
A
S
A 1
⋅
⋅
=
′ −
1
T
A
A −
⋅
′
S⋅
=
É óbvio que A e têm a mesma característica. No caso particular em que
A′ ,
F
E =
isto é, no caso em que ∈
ϕ L , tem-se
( E
,
E )
T
A
T
A 1
⋅
⋅
=
′ −
,
36
em que T é a matriz de passagem da base { }
n
2
1 e
,
,
e
,
e K para a base { }
n
2
1 e
,
,
e
,
e ′
′
′ K .
As matrizes A e satisfazendo à relação A
A′ T
A
T 1
⋅
⋅
=
′ −
ou à equivalente
em que T é regular, dizem-se matrizes semelhantes.
,
T
A
T
A 1
−
⋅
′
⋅
=
Exercício: Sejam E e F dois espaços vectoriais reais e { }
3
2
1
1 e
,
e
,
e
B = e bases de
E e F, respectivamente. Seja a aplicação linear tal que
{ 2
1
1 f
,
f
B =
′ }
)
F
E
:
f →
( ) 





=
′
0
1
1
1
0
1
B
,
B
,
f
M 1
1 .
Determine ( 2
2 B
,
B
,
f
M ′ , onde { }
3
2
1
2
1
2
1
2 e
e
e
,
e
e
,
e
e
B +
+
+
−
= e { }
2
2
1
2 f
,
f
2
f
B −
+
=
′ são
bases em E e F, respectivamente.
Valores Próprios e Vectores Próprios
Definição 3.21: Seja E um espaço vectorial sobre um corpo K e ϕ um endomorfismo de E.
Um escalar λ é dito valor próprio de ϕ se existe algum vector em E tal que
. Chama-se vector próprio de
0
x ≠
( ) x
x λ
=
ϕ ϕ associado ao valor próprio λ a todo o vector não
nulo tal que .
E
x ∈ ( ) x
x λ
=
ϕ
Definição 3.22: Seja A uma matriz quadrada de ordem n. Um escalar λ é dito valor próprio
de A se existe alguma matriz coluna X 0
≠ , ( )
1
,
n
M
X K
∈ , tal que . Chama-se
vector próprio de A associado ao valor próprio
X
AX λ
=
λ a toda a matriz não nula tal
que .
( 1
,
n
MK )
X ∈
X
AX λ
=
Evidentemente, a definição anterior é um caso particular da definição 3.21. Pois, a
cada aplicação linear está associada uma matriz e basta designar ( )
1
,
n
MK por E para que
seja linear.
AX
X a
Exemplos:
1. Se 





=
2
1
0
2
A , 2
=
λ e , temos






=
1
0
X X
AX λ
= .
2. Sejam ,










−
−
=
5
2
1
12
4
3
4
0
2
A 0
1 =
λ , 1
2 =
λ , 2
3 =
λ ,









−
=
1
2
3
2
X1 , e
, com . Então










α
α
−
= 0
4
X2





β
β
0
IR
, ∈
β
α





=
2
X3 i
i X
i
AX λ
= , para i 3
,
2
,
1
= .
Teorema 3.23: O conjunto dos vectores próprios de ∈
ϕ L ( )
E
,
E
I
λ
−
ϕ
associado a um mesmo
valor próprio acrescido do vector nulo é o subespaço de E (chamado subespaço
K
∈
λ N
37
próprio de associado a e à sua dimensão chama-se multiplicidade geométrica do valor
próprio λ ).
ϕ λ
1,
λ
Demonstração: Exercício.
Teorema 3.24: Se os vectores próprios de um endomorfismo estão associados a
distintos valores próprios , então os vectores são linearmente independentes.
n
1 x
,
,
x K
n
,λ
K
Demonstração: Exercício.
Corolário 3.25: Um endomorfismo de um espaço vectorial de dimensão n tem, no máximo, n
valores próprios distintos.
38
4 DETERMINANTES
Antes de iniciarmos o estudo da teoria dos determinantes, estudaremos alguns
conceitos relacionados com permutações, essenciais à compreensão da dita teoria.
Definição 4.1: Sejam n um número natural e { }
n
,
,
2
,
1
A K
= . Chama-se permutação de A a
qualquer aplicação bijectiva de A em A.
Observações:
1. O número de permutações de n elementos é igual a .
!
n
2. Designaremos por o conjunto de todas as permutações de n elementos. (Veja a
observação da página 2).
n
S
Exemplos:
1. As permutações que pertencem a S são:
4








4
3
2
1
4
3
2
1








1
3
2
4
4
3
2
1
, , , , ,
, etc.








3
4
2
1
4
3
2
1








4
2
3
1
4
3
2
1








4
3
1
2
4
3
2
1








2
3
4
1
4
3
2
1
2. As permutações








4
2
1
5
3
6
6
5
4
3
2
1
e 






 4
6
3
1
2
5
6
5
4
3
2
1
pertencem a S .
6
É vulgar escrever-se ( em vez de , tornando a escrita mais
simplificada. Repare-se que a escrita simplificada de uma permutação não é de forma alguma
ambígua.
)
)
)
1
,
3
,
2 







1
3
2
3
2
1
Teorema 4.2: ( é um grupo, onde o é a operação binária composição de aplicações.
o
,
Sn
Obs.: O grupo não é necessariamente comutativo.
( o
,
Sn
Exemplo: Em S ,
3








=
















2
1
3
3
2
1
3
1
2
3
2
1
2
3
1
3
2
1
o
e
39








=
















1
3
2
3
2
1
2
3
1
3
2
1
3
1
2
3
2
1
o
Definição 4.3: Uma transposição é uma permutação σ de S tal que
n ( ) j
i =
σ e , para
, e σ ,
( ) i
j =
σ
j
i ≠ ( ) k
k = j
,
i
k ≠
∀ .
Exemplo:
1. A permutação 


pode simplesmente escrever-se na forma , isto é,




 2
4
3
5
1
5
4
3
2
1
( 5
,
2 )
)
( )
5
,
2
2
4
3
5
1
5
4
3
2
1
=








.
2. Analogamente, podemos escrever
( )( )( ) ( )( 5
,
2
4
,
3
,
1
2
1
4
5
3
5
4
3
2
1
3
,
4
1
,
3
5
,
2 =








=
Nota: Uma transposição é inversa de si própria.
Teorema 4.4: Qualquer permutação de S ( ) é composição de transposições, isto é, se
é um permutação, então
n 2
n ≥
k
σ 2
1 τ
τ
τ
=
σ o
o o
L , com ,
k
,
,
1
i
,
i K
=
τ transposições.
Exemplos:
1. Em S ,
2
( 2
,
1
1
2
2
1
=








) e ( )( )
1
,
2
2
,
1
2
1
2
1
=








2. Em S ,
5
( ) ( )( )( )
3
,
4
2
,
3
1
,
2
4
,
3
,
2
,
1
5
1
4
3
2
5
4
3
2
1
=
=








.
Definição 4.5: Diz-se que uma permutação é par se é decomponível num número par de
transposições e ímpar se é decomponível num número ímpar de transposições.
Observação: Embora a decomposição de uma permutação em composição de transposições
não seja única, a paridade do número de transposições em cada decomposição é sempre a
mesma. Isto é, se uma permutação σ é tal que k
2
1 τ
τ
τ
=
σ o
L
o
o e m
2
1 π
π
π
=
σ o
L
o
o ,
então ou k e m são números pares ou k e m são números ímpares.
40
Exemplo: A permutação 


é par já que, por exemplo, 


.




 1
4
2
3
4
3
2
1
( )( 3
,
1
4
,
1
1
4
2
3
4
3
2
1
=





)
Teorema 4.6: Uma permutação não pode ser simultaneamente par e ímpar.
Além da definição, existe um outro método, mais prático, para a determinação da
paridade de uma permutação. Esse método é descrito no teorema que se segue. Antes, defina-
-se para uma permutação , tal que
n
S
∈
σ r
2
1 τ
τ
τ
=
σ o
L
o
o
1
, o seu sinal como ε . Se
é par, ; se é ímpar,
( ) ( )r
1
−
=
σ
σ ( ) 1
=
σ
ε σ ( ) −
=
σ
ε .
Teorema 4.7: Para qualquer permutação n
S
∈
σ , tem-se ( ) ( ) ( )
, em que ν é o
número de pares ( tais que 1
σ
ν
−
=
σ
ε 1 ( )
σ
)
j
,
i n
j
i ≤

≤ e ( ) ( )
j
i σ

σ .
Dizemos que o número ν (definido no teorema anterior) é o número de inversões
de σ .
( )
σ
Observação: É óbvio que uma permutação é par ou ímpar se o seu número de inversões é,
respectivamente, par ou ímpar.
Exercício: Determine a paridade das seguintes permutações a partir do teorema anterior:
a) b) 










3
1
2
4
4
3
2
1




 5
6
2
1
4
3
6
5
4
3
2
1
Teorema 4.8: Para , tem-se:
2
n ≥
1. Se é uma transposição, então
n
S
∈
τ ( ) 1
−
=
τ
ε ;
2. ( ) ( ) (θ
ε
σ
ε )
=
θ
σ
ε
∈
θ
σ
∀ o
,
S
, n .
Corolário 4.9: Se σ , então
n
S
∈ ( ) ( )
σ
ε
=
σ
ε −1
.
Exercício: Determine a inversa da permutação








=
σ
6
5
3
2
1
4
6
5
4
3
2
1
e verifique que ( ) ( )
σ
ε
=
σ
ε −1
.
41
Funções Multilineares
Definição 4.10: Seja K um corpo e n
n
n
K
K
K ×
×
× L o espaço vectorial constituído pelo
produto cartesiano de n factores n
K . Chama-se função n-linear ( ou multilinear) sobre n
K
a uma aplicação
K
K
K
K
:
f n
n
n
→
×
×
× L
tal que
( ) ( ) ( )
n
i
1
n
i
1
n
i
i
1 x
,
,
y
,
,
x
f
x
,
,
x
,
,
x
f
x
,
,
y
x
,
,
x
f K
K
K
K
K
K β
+
α
=
β
+
α ,
para , , isto é, f é linear em relação a cada um dos n
argumentos.
n
i
1 ≤
≤ n
n
1 K
x
,
,
x
,
K
, ∈
∀
∈
β
α
∀ K
Observação: A condição
( ) ( ) ( )
n
i
1
n
i
1
n
i
i
1 x
,
,
y
,
,
x
f
x
,
,
x
,
,
x
f
x
,
,
y
x
,
,
x
f K
K
K
K
K
K β
+
α
=
β
+
α
é equivalente a:
( ) ( ) ( )
n
i
1
n
i
1
n
i
i
1 x
,
,
y
,
,
x
f
x
,
,
x
,
,
x
f
x
,
,
y
x
,
,
x
f K
K
K
K
K
K +
=
+
e
( ) ( )
n
i
1
n
i
1 x
,
,
x
,
,
x
f
x
,
,
x
,
,
x
f K
K
K
K α
=
α .
Exemplos:
1. IR
:
f
2
× IR
2
→ IR, tal que, ( ) ( )
( ) bd
ac
d
,
c
,
b
,
a
f +
= é bilinear.
2. IR
:
f
2
IR
×
2
→ IR , tal que, ( ) ( )
( ) bc
ad
d
,
c
,
b
,
a
f −
= é bilinear. Pode provar-se que
( ) ( )
( )
,
c
,
b
f d
,
a é a área do paralelogramo definido pelos vectores ( )
b
,
a e .
( )
d
,
c
Pode facilmente verificar-se que aplicação bilinear do exemplo 2. satisfaz as
propriedades: ( ) ( )
( ) 0
b
,
a
,
b
,
a
f = e ( ) ( )
( ) ( ) ( )
( )
b
,
a
,
d
,
c
f
d
,
c
,
b
,
a
f −
= , ao contrário da aplicação
bilinear do exemplo 1.. Estas propriedades sugerem a seguinte definição:
Definição 4.11: Uma função n-linear f diz-se alternada se para ,
x
x j
i = com ,
j
i ≠
( ) 0
x
,
,
x
,
,
x
,
,
x
f n
j
i
1 =
K
K
K ,
isto é, anula-se sempre que dois dos vectores sejam iguais.
Uma função n-linear f diz-se anti-simétrica se
( ) ( )
n
i
j
1
n
j
i
1 x
,
,
x
,
,
x
,
,
x
f
x
,
,
x
,
,
x
,
,
x
f K
K
K
K
K
K −
= ,
isto é, uma troca de sinal corresponde a uma troca de posição de dois vectores.
Teorema 4.12: Sejam K um corpo de característica diferente de 2 (isto é, um corpo que
satisfaça a propriedade: 0
x
0
x
x =
⇒
=
+ ) e uma função n-linear.
Então as seguintes afirmações são equivalentes:
K
K
K
K
:
f n
n
n
→
×
×
× L
a) f é anti-simétrica.
b) f é alternada.
c) Se e são linearmente dependentes, então
i
x j
x ( ) 0
x
,
,
x
,
,
x
,
,
x
f n
j
i
1 =
K
K
K .
42
Observação: Se uma função n-linear é anti-simétrica e σ é uma permutação de S , então
n
( ) ( ) ( )
( ) ( ) ( )
n
2
1
n
2
1 x
,
,
x
,
x
f
x
,
,
x
,
x
f K
K σ
ε
=
σ
σ
σ .
A partir de agora consideraremos sempre um corpo K de característica diferente 2. O
corpo dos reais ou dos complexos são considerados corpos de característica zero (ou infinita).
Seja A uma matriz quadrada de ordem n sobre K, isto é,












=
nn
2
n
1
n
n
2
22
21
n
1
12
11
a
a
a
a
a
a
a
a
a
A
L
L
L
L
L
L
L
.
É evidente que uma matriz pode identificar-se com um elemento de n
n
n
K
K
K ×
×
× L
n
,
bastando identificar cada uma das suas linhas, L como elementos de
,
L
,
,
L
, n
2
1 K K . Assim,
no contexto de podemos definir a seguinte função n-linear:
( n
,
n
MK )
Definição 4.13: Chama-se determinante de ( )
n
,
n
M
A K
∈ à função n-linear alternada das
linhas de A definida por:
[ ] ( ) ( ) ( ) ( )
∑
∈
σ
σ
σ
σ ⋅
σ
ε
=
=
=
n
S
n
n
2
2
1
1
ij a
a
a
A
A
det
a
A L
a .
Observação: O determinante de uma matriz quadrada não é mais do que a soma de todos os
produtos de n elementos da matriz, correspondentes a cada uma das permutações de S ,
afectados pelo sinal da permutação correspondente. Assim, o número de parcelas é igual a n .
n
!
]
A partir da definição, podemos facilmente constatar que:
- Se A , então .
[ 11
a
= 11
a
A
det =
- Se A , então det






=
22
21
12
11
a
a
a
a
21
12
22
11 a
a
a
a
A −
= , já que S , sendo a
permutação par e a permutação ímpar.






















=
1
2
2
1
,
2
1
2
1
2








2
1
2
1








1
2
2
1
Assim, o determinante de uma matriz quadrada de ordem 2 é igual à diferença entre o
produto dos elementos principais e o produto dos elementos da diagonal secundária.
- Se A , então










=
33
32
31
23
22
21
13
12
11
a
a
a
a
a
a
a
a
a
43
32
23
11
33
21
12
31
22
13
32
21
13
31
23
12
33
22
11
33
32
31
23
22
21
13
12
11
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
a
−
−
−
+
+
= ,
já que as permutações de S são:
3








3
2
1
3
2
1
, , , , , .








1
3
2
3
2
1








2
1
3
3
2
1








1
2
3
3
2
1








3
1
2
3
2
1








2
3
1
3
2
1
Em termos práticos, o cálculo do determinante de uma matriz quadrada de ordem 3
pode ser efectuado usando a Regra de Sarrus: as parcelas de sinal positivo do
determinante são referentes ao produto dos elementos principais e aos produtos dos
elementos que se dispõem nos vértices dos dois triângulos cuja base é paralela à diagonal
principal, e as parcelas de sinal negativo do determinante são referentes ao produto dos
elementos da diagonal secundária e aos produtos dos elementos que se dispõem nos
vértices dos dois triângulos cuja base é paralela à diagonal secundária. Observe o
esquema:
33
32
31
23
22
21
13
12
11
a
a
a
a
a
a
a
a
a
Exercício: Calcule o determinante das seguintes matrizes:
a) b) c)





−
1
3
5
2










−
−
−
3
3
1
1
2
1
4
0
2










−
−
−
1
2
3
2
4
2
1
2
1
No cálculo do determinante de uma matriz de ordem superior ou igual a 4 não é usual
aplicar-se a definição de determinante, pois torna-se um cálculo fastidioso. No entanto,
iremos estudar propriedades que facilitam esses cálculos. Antes dessas propriedades,
estudemos agora as propriedades básicas dos determinantes.
Propriedades dos Determinantes:
Seja A uma matriz quadrada de ordem n.
1. (n-linear) Se uma fila de A se decompuser numa soma de filas, o determinante de A é
igual à soma dos determinantes de duas matrizes em que nessa fila se usa uma parcela de
cada vez, mantendo-se as restantes. Isto é,
[ ] [ ] [ ]
n
i
1
n
i
1
n
i
i
1 F
,
,
F
,
,
F
det
F
,
,
F
,
,
F
det
F
,
,
F
F
,
,
F
det K
K
K
K
K
K ′
+
=
′
+ .
2. (n-linear) Se multiplicarmos uma fila de A por um escalar α , então o determinante vem
multiplicado por , isto é,
α
[ ] [ ]
n
i
1
n
i
1 F
,
,
F
,
,
F
det
F
,
,
F
,
,
F
det K
K
K
K α
=
α .
44
Assim, também temos que A
A n
α
=
α .
3. (Anti-simetria) Ao trocarmos entre si duas filas paralelas de A, o determinante troca de
sinal, isto é,
[ ] [ ]
n
i
j
1
n
j
i
1 F
,
,
F
,
,
F
,
,
F
det
F
,
,
F
,
,
F
,
,
F
det K
K
K
K
K
K −
= .
4. (Função alternada) Se as filas de A são linearmente dependentes, então o determinante
de A é igual a zero.
5. Não se altera o determinante de A quando a uma fila se adiciona uma combinação linear
de outras filas paralelas. Basta observar que:
[ ] [ ] [ ]
n
j
j
1
n
i
1
n
j
i
1 F
,
,
F
,
,
F
,
,
F
det
F
,
,
F
,
,
F
det
F
,
,
F
F
,
,
F
det K
K
K
K
K
K
K α
+
=
α
+ .
6. . Pois, representando a por a , cada parcela de det é da forma
A
det
A
det T
= ji
T
ij
T
A
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
( ) ( ) ( )
n
n
1
1
1
n
n
1
1
n
n
1
1
T
n
n
T
1
1 1
1
1
1 a
a
a
a
a
a
a
a −
−
−
−
σ
σ
−
σ
σ
σ
σ
σ
σ σ
ε
=
σ
ε
=
σ
ε
=
σ
ε L
L
L
L ,
isto é, corresponde a outro termo de , com o mesmo sinal.
A
det
7. ∗
=
= A
det
A
det
A
det .
8. Se A é uma matriz triangular, então
nn
22
11 a
a
a
A
det L
= .
Em particular, .
1
I
det =
9. A característica da matriz A é inferior à ordem se, e somente se, , isto é, A é
uma matriz singular se, e somente se, det
0
A
det =
0
A = . Evidentemente, A é regular se, e somente
se, .
0
A
det ≠
10. B
A
B
A ⋅
=
⋅ .
11. Se A é regular, então
A
1
A 1
=
−
.
12. A característica da matriz A é igual à mais alta ordem das submatrizes quadradas de A
com determinante não nulo.
Exercício: Sejam A e B duas matrizes quadradas de ordem 2 tais que .
Calcule
B
det
2
A
det −
=
=
( )
( )
[ ]
T
1
AB
2
det
−
.
Complementos Algébricos
Definição 4.14: Seja A uma matriz quadrada de ordem n. Chama-se menor de ordem m de A
ao determinante de qualquer submatriz de A de ordem m ( n
m  ).
Dois menores dizem-se complementares se num deles estão representadas
exactamente as linhas e colunas de A que não figuram no outro.
Um menor diz-se principal se a sua diagonal tem somente elementos principais da
matriz inicial.
Um menor de A diz-se par ou ímpar conforme é par ou ímpar a soma dos índices das
linhas e das colunas de A nele representadas.
45
Dado um menor de A, o seu complemento algébrico é o produto do seu menor
complementar pelo respectivo sinal ( )ω
−1 , onde ω é a soma dos índices que determinam a
paridade do menor.
Notação: Sendo um elemento de A, representaremos por o complemento algébrico do
menor
ij
a ij
A
ij
a .
Exemplo: Seja . Um seu menor é
















−
−
−
=
1
2
5
3
4
2
0
1
0
1
1
3
4
1
0
0
2
1
0
0
4
5
0
3
1
A
2
3
4
0
0
1
2
0
0
−
e é par, porque
18
4
2
1
5
4
2 =
+
+
+
+
+
=
ω . O seu menor complementar é
1
4
4
0
−
e o complemento
algébrico é ( )
1
4
4
0
1
4
4
0
−
=
−
ω
1
− .
Exercício: Determine o complemento algébrico do menor 12
a , sendo a elemento da matriz
A do exemplo anterior.
12
Propriedades:
a) Um menor principal é sempre par.
b) Um menor e o seu complementar têm a mesma paridade.
Depois destes conceitos, estamos em condições de estudar um teorema muito
importante que permite calcular mais facilmente o determinante de uma matriz de ordem
superior ou igual a quatro.
Teorema 4.15: (Teorema de Laplace) Um determinante de uma matriz é igual à soma dos
produtos dos elementos de uma fila pelos respectivos complementos algébricos.
Exercício: Seja A . Utilize o teorema de Laplace para calcular












−
−
−
−
−
=
1
2
4
3
1
3
2
1
0
4
2
0
2
1
1
2
A .
Nota: Na aplicação do teorema de Laplace convém escolher uma das filas com mais zeros (se
existirem). No entanto, podemos sempre fazer surgir zeros através da utilização de operações
elementares que não alterem o valor do determinante.
46
Teorema 4.16: A soma dos produtos dos elementos de uma fila pelos complementos
algébricos dos elementos homólogos de outra fila paralela é nula, isto é,
hn
in
2
h
2
i
1
h
1
i A
a
A
a
A
a
0 +
+
+
= L (i h
≠ )
ou
nk
nj
k
2
j
2
k
1
j
1 A
a
A
a
A
a
0 +
+
+
= L ( k
j ≠ ).
Demonstração: Essa soma é igual ao determinante da matriz obtida substituindo a linha i pela
linha h (ou coluna j pela coluna k). Desta forma, a matriz fica com duas filas iguais e portanto
o determinante é nulo.
Este teorema e o teorema de Laplace permitem escrever:
∑
∑ =
=
=
=
n
1
i
ij
ij
n
1
j
ij
ij A
a
A
a
A e 0 ,
)
h
i
e
k
j
(
A
a
A
a
n
1
i
ik
ij
n
1
j
hj
ij ≠
≠
=
= ∑
∑ =
=
isto é, usando o símbolo de Kronecker,
A
A
a ih
n
1
j
hj
ij δ
=
∑
=
ou A
A
a jk
n
1
i
ik
ij δ
=
=
∑ .
Teorema 4.17: (Teorema de Laplace Generalizado) Um determinante de uma matriz é
igual à soma dos produtos dos menores de ordem m contidos em m filas paralelas pelos
respectivos complementos algébricos.
Exercício: Seja . Utilize o teorema de Laplace generalizado para
calcular
















−
−
−
=
1
2
5
3
4
2
0
1
0
1
1
3
4
1
0
0
2
1
0
0
4
5
0
3
1
A
A .
Definição 4.18: Seja A uma matriz quadrada. Chama-se adjunta de A à matriz que desta se
obtém substituindo cada elemento pelo seu complemento algébrico e transpondo a matriz
resultante.
Notação: A adjunta de uma matriz A é representada por adj A ou .
Â
De acordo com a definição anterior, se [ ]
ij
a
A = , então a matriz adjunta de A é tal
que adjA .
[ ] [ ji
T
ij A
A =
= ]
Exercício: Determine a matriz adjunta da matriz .










−
−
=
0
1
1
0
0
1
2
1
0
A
47
Teorema 4.19: Seja A uma matriz quadrada de ordem n regular. Então I
A
adjA
A ⋅
=
⋅ e
1
n
A
adjA
−
= .
Demonstração: Basta observar que multiplicando A e , obtemos:
adjA
[ ] ,
b
adjA
A ij
=
⋅ com ∑ δ
=
=
k
ij
jk
ik
ij A
A
a
b e [ ] ,
c
A ij
=
⋅
adjA com ∑ δ
=
=
k
ij
kj
ki
ij A
a
A
c .
Assim, podemos concluir que I
A
A ⋅
=
⋅
adjA
adjA
A =
⋅ . E desta fórmula, usando as
propriedades dos determinantes e o facto de A ser regular, temos que
1
n
n
A
adjA
A
adjA
A
I
A
adjA
A
−
=
⇔
=
⋅
⇔
⋅
=
⋅
Corolário 4.20: Se A é uma matriz quadrada regular, então
adjA
A
1
A 1
⋅
=
−
.
Demonstração: Usando-se o teorema 4.19, resulta de imediato que
I
A
adjA
A
1
adjA
A
1
A =
⋅








⋅
=








⋅
⋅ .
Este corolário dá-nos assim um novo processo para calcular a inversa de uma matriz
regular.
Exercício: Utilizando a última propriedade, determine, caso exista, a matriz inversa da matriz










−
−
=
0
1
1
0
0
1
2
1
0
A .
Resolução de Sistemas de Equações Lineares Usando a Teoria dos Determinantes
Seja





=
+
+
+
=
+
+
+
m
n
mn
2
2
m
1
1
m
1
n
n
1
2
12
1
11
b
x
a
x
a
x
a
b
x
a
x
a
x
a
L
M
L
,
um sistema de m equações lineares com n incógnitas, sobre um corpo K. Já sabemos que este
sistema é equivalente à equação matricial AX B
= , com
48










=
mn
1
m
n
1
11
a
a
a
a
A
L
L
L
L
L
, e .










=
n
1
x
x
X M










=
m
1
b
b
B M
1º Caso: Se , então o sistema é possível e determinado e a matriz A é
quadrada. Assim, a matriz A é invertível o que implica que o seu determinante é não nulo.
Logo, pelo Corolário 4.20,
(A
car
n
m =
= )
( ) B
adjA
A
1
X
B
A
X
B
A
AX
A
B
AX 1
1
1
⋅
=
⇔
=
⇔
=
⇔
= −
−
−
,
isto é,










⋅










⋅
=










n
1
nn
n
1
1
n
11
n
1
b
b
A
A
A
A
A
1
x
x
M
L
L
L
L
L
M ,
e portanto,
( )
A
a
b
a
a
b
a
b
A
b
A
b
A
A
1
x nn
n
1
n
n
1
1
11
n
ni
2
i
2
1
i
1
i
L
L
M
L
M
L
M
L
L
L =
+
+
+
= ,
onde os termos independentes aparecem na coluna i, com n
,
,
2
,
1
i K
= .
Regra de Cramer: Um sistema de n equações com n incógnitas com o determinante da
matriz dos coeficientes não nulo é possível e determinado e o valor de cada incógnita é o
inverso do determinante da matriz dos coeficientes multiplicado pelo determinante da matriz
que se obtém a partir da matriz dos coeficientes substituindo os coeficientes dessa incógnita
pelos correspondentes termos independentes.
Os sistemas deste primeiro caso são usualmente denominados por sistemas de
Cramer.
Exercício: Resolva, se possível, o seguinte sistema usando a regra de Cramer:





=
+
=
−
=
+
+
0
y
x
2
z
x
1
z
y
x
.
2º Caso: Se , então o sistema
( ) n
m
A
car 
=





=
+
+
+
=
+
+
+
m
n
mn
2
2
m
1
1
m
1
n
n
1
2
12
1
11
b
x
a
x
a
x
a
b
x
a
x
a
x
a
L
M
L
é possível indeterminado e é equivalente a
49





−
−
−
=
+
+
+
−
−
−
=
+
+
+
+
+
+
n
mn
1
m
1
m
,
m
m
m
mm
2
2
m
1
1
m
n
n
1
1
m
1
m
1
1
m
m
1
1
11
x
a
x
a
b
x
a
x
a
x
a
x
a
x
a
b
x
a
x
a
L
L
M
L
L
Este último sistema pode resolver-se pela regra de Cramer, pois, relativamente às incógnitas
principais, podemos considerar que estamos na presença de um sistema de Cramer.
Sendo o número de incógnitas principais igual a ( ) m
A
Car = (as não principais são
), chama-se determinante principal do sistema ao determinante dos coeficien-
tes das incógnitas (escolhidas para) principais. É óbvio que
( )
A
car
n − ∆
∆ é não nulo, de ordem ( )
A
Car .
3º Caso: . Por condensação, a matriz ampliada do sistema transforma-se em
( ) m
r
A
Car 
=













β
β
−
−
−
−
−
−
β
α
β
α
β
α













−
−
−
−
−
−
−
−
α
α
α
α
α
α
+
m
1
r
r
rn
2
n
2
1
n
1
rr
r
2
22
r
1
12
11
|
0
0
|
|
|
|
0
0
|
|
|
|
|
|
|
|
|
|
|
0
0
0
0
0
0
0
L
L
M
L
L
L
L
L
M
L
L
L
L
L
L
L
L
L
L
L
L
L
L
O
O
L
L
L
Assim, para este caso temos que considerar r incógnitas e equações principais, que definem
um determinante principal, não nulo, e r
n − incógnitas não principais e r
m − equações
não principais. Nestas circunstâncias, sabemos que o sistema é possível se, e somente se,
.
0
m
2
r
1
r =
β
=
=
β
=
β +
+ L
Seja o determinante da matriz obtida a partir da matriz de determinante
s
∆ ∆
acrescentando-lhe uma última linha, constituída pelos coeficientes das incógnitas principais
da equação de ordem s não principal, e uma última coluna constituída pelos termos
independentes dessas 1
r + equações, isto é,
s
r
1
sr
1
s
rr
1
r
r
1
11
s
b
|
|
b
|
|
b
|
a
a
a
a
a
a
−
−
−
−
−
−
−
−
=
∆
M
L
L
L
L
L
L
.
Chama-se a determinante característico.
s
∆
Como as operações elementares não alteram o determinante de uma matriz caso este
seja nulo, então
0
|
|
|
|
|
0
0
0
0
b
|
|
b
|
|
b
|
a
a
a
a
a
a
s
r
1
rr
r
1
11
s
r
1
sr
1
s
rr
1
r
r
1
11
s =
β
−
−
β
β
−
−
−
−
−
−
α
α
α
=
−
−
−
−
−
−
−
−
=
∆
M
L
L
O
L
L
M
L
L
L
L
L
L
se, e somente se, , isto é, se, e somente se, cada determinante característico é nulo. Em
conclusão:
0
s =
β
50
Teorema 4.21: (Teorema de Rouché) Um sistema de equações lineares é possível se, e
somente se, ou não existem determinantes característicos ou, existindo, são todos nulos.
Exemplos:
1. Considere o seguinte sistema:





=
+
+
=
+
+
−
=
−
+
3
z
y
3
x
2
1
z
2
y
x
2
z
y
2
x
3
.
Verifique que
0
1
3
2
2
1
1
1
2
3
=
−
−
.
Um determinante principal é, por exemplo, 0
5
1
1
2
3
≠
=
−
=
∆ . Um outro é, por exemplo,
0
5
2
1
1
2
≠
=
−
. Neste caso, existe um determinante característico:
3
3
2
1
1
1
2
2
3
3 −
=
∆
e . Logo, o sistema é possível e indeterminado.
0
3 =
∆
2. Considere o seguinte sistema:







=
+
−
−
=
+
−
=
+
−
=
+
2
z
y
x
3
1
z
y
2
x
0
z
2
y
3
x
4
1
y
x
2
.
A matriz dos coeficientes é:












−
−
−
1
1
3
1
2
1
2
3
4
0
1
2
.
Observe, por exemplo, que:
1. 0
2 ≠ ;
2. 0
10
3
4
1
2
≠
−
=
−
;
51
3. 0
1
2
1
2
3
4
0
1
2
=
−
− .
4. 0
1
1
3
2
3
4
0
1
2
=
−
−
Logo, a característica da matriz dos coeficientes é 2 e um determinante principal é
3
4
1
2
−
=
∆ . Como,
,
0
5
1
2
1
0
3
4
1
1
2
3 ≠
=
−
−
−
=
∆
então o sistema é impossível.
Neste último exemplo foi usado o seguinte resultado:
Teorema 4.22: A característica de uma matriz é r se, e somente se, contém um menor de
ordem r não nulo e todos os de ordem 1
r + que dele se obtêm juntando uma linha e uma
coluna da matriz são nulos.
Sistemas Homogéneos
Dado que um sistema homogéneo AX 0
= é sempre possível, tendo sempre a solução
, então, quando a matriz dos coeficientes é quadrada, o sistema é determinado se, e
somente se,
0
X =
0
A ≠ . Será indeterminado se, e somente se, 0
A = .
Cálculo de Valores Próprios
Recordemos que o escalar é valor próprio de um endomorfismo de um espaço
vectorial se existe um vector tal que
λ
0
ϕ
x ≠ ( ) x
x λ
=
ϕ . Equivalentemente, se A é a matriz da
aplicação linear , em relação a certa base previamente fixada no espaço vectorial, temos a
equação matricial AX
ϕ
X
λ
= ou ( ) 0
X
I
A =
λ
− , isto é, um sistema homogéneo que deve ter
outras soluções além da nula, ou seja, deve ser indeterminado. Logo, a matriz I
A λ
− é
singular (não regular), o que é equivalente a 0
I
A =
λ
− . À equação 0
I
A λ
− = , cujas raízes
são os valores próprios de A, chama-se equação característica. Chama-se polinómio
característico ao polinómio I
A λ
− em λ de grau igual à ordem de A. Para este polinómio é
válido o seguinte teorema:
52
Teorema 4.23: Um polinómio característico não depende da matriz que representa o
endomorfismo de um espaço vectorial.
ϕ
Demonstração: Sejam e
{ }
( )
i
e
,
M
A ϕ
= { }
( )
i
e
,
M
B ′
ϕ
= , com { }
i
e e { }
i
e′ bases do espaço
vectorial. Sabemos que , em que P é a matriz de passagem de { para {
P
A
P
B 1
⋅
⋅
= −
}
i
e }
i
e′ .
Vamos mostrar que I
A
I
B λ
−
=
λ
− . Ora,
I
A
P
I
A
P
P
I
P
P
A
P
I
B
1
1
1
λ
−
=
λ
−
=
⋅
⋅
λ
−
⋅
⋅
=
λ
−
−
−
−
.
Exercício: Determine os valores próprios da matriz










− 1
1
1
0
4
3
0
1
0
Teorema 4.24: Um endomorfismo ϕ de E, espaço vectorial de dimensão n, pode ser
representado por uma matriz diagonal, isto é, é diagonalizável, se, e somente se, E admite
uma base formada por vectores próprios de ϕ . Neste caso, os elementos principais dessa
matriz diagonal são os valores próprios de ϕ e cada matriz de ϕ é semelhante a essa matriz.
Demonstração: Basta observar que { }
n
1 e
,
,
e K é base de vectores próprios com ( ) i
i
i e
e λ
=
ϕ ,
, se, e somente se,
n
,
,
1
i K
=












λ
λ
λ
n
2
1
0
0
0
0
0
0
L
L
L
L
L
L
L
é a matriz de em relação a essa base.
ϕ
Corolário 4.25: Se tem n valores próprios distintos, então
ϕ ϕ pode ser representada por
uma matriz diagonal.
Demonstração: A n valores próprios distintos correspondem n vectores próprios linearmente
independentes. Logo, porque n vectores linearmente independentes formam uma base, E
admite uma base formada por vectores próprios de ϕ .
Exercício: Seja o endomorfismo de IR
ϕ
3
representado, em relação à base { de IR
}
3
2
1 e
,
e
,
e
3
,
pela matriz










=
1
2
0
0
0
1
0
2
1
A .
a) Determine os valores próprios de ϕ .
b) Determine o subespaço próprio associado a um dos valores próprios de .
ϕ
c) Diga, justificando, se a matriz A é, ou não, semelhante a uma matriz diagonal, isto é, se
A é diagonalizável.
53
5 Espaços Euclidianos e Espaços Unitários
Neste capítulo consideraremos sempre um espaço vectorial E sobre K, com K = IRou
K = C
/ .
Definição 5.1: Uma aplicação do produto cartesiano E
E× em K tal que ( ) ( v
u
v
,
u a ) diz-se um
produto interno (ou escalar) em E se satisfaz as seguintes propriedades:
P1: ( ) . E
0
u
u ≥ ( ) 0
u
u = se, e somente se, 0
u = ;
P2: ( ) ( ) ( )
w
v
w
u
w
v
u β
+
α
=
β
+
α ;
P3: Se K = IR, ( ) ( v
u
u
v = ); Se K = C
/ , ( ) ( )
v
u
u
v = .
Chama-se espaço euclidiano (ou unitário) a um espaço vectorial real (ou complexo) de
dimensão finita com produto interno.
Observações:
1. Independentemente do corpo ser o real ou o complexo, ( )∈
u
u IR.
2. Se K = IR , ( ) ( ) ( )
v
w
u
w
v
u
w β
+
α
=
β
+
α , logo o produto interno é bilinear.
3. Se K = C
/ , ( ) ( ) ( )
v
w
u
w
v
u
w β
+
α
=
β
+
α .
Exemplos:
1. Em IR
n
(que é um espaço vectorial real), se ∈
y
,
x IR
n
, usando as coordenadas dos vectores na
base canónica, e
( )
n
1 x
,
,
x
x K
= ( )
n
y
,
K
1,
y
y = , podemos definir um produto interno do
seguinte modo:
( ) ∑
=
=
n
1
i
i
i y
x
y
x .
Para ,
3
n = ( ) 3
3
2
2
1
1 y
x
y
x
y
x
y
x +
+
= .
2. Em C
/
n
podemos definir um produto interno do seguinte modo:
( ) ∑
=
=
n
1
i
i
i y
x
y
x .
Propriedades do Produto Interno:
1. ( ) ( ) .
0
x
0
0
x =
= Pois, basta observar que ( ) ( ) ( ) ( ) 0
x
x
x
x
x
x
x
0
x =
−
=
−
= .
2. Se ( ) ,
E
y
,
0
y
x ∈
∀
= então . E, se
0
x = ( ) ,
E
y
,
0
x
y ∈
∀
= então 0
x = .
3. (Desigualdade de Cauchy-Schwarz) Se E é espaço euclidiano e ,
E
y
,
x ∈ então
( ) ( )( )
y
y
x
x
y
x
2
≤ .
54
Definição 5.2: Num espaço E com produto interno chama-se norma do vector ao escalar
real
E
x ∈
x definido por:
( )
x
x
x = .
Exemplo: Em IR
n
, ( ) ∑
=
=
+
+
+
=
n
1
i
2
i
2
n
2
2
2
1
n
2
1 x
x
x
x
x
,
,
x
,
x L
K é uma norma denominada
euclidiana. Em C
/
n
, ( ) ∑
=
=
+
+
+
=
=
n
1
i
2
i
2
n
2
2
2
1
n
2
1 x
x
x
x
x
,
,
x
,
x
x L
K .
Propriedades da Norma:
1. 0
x = se, e somente se, e
0
x = 0
x ≥ , para todo E
x ∈ .
2. x
x ⋅
α
=
α , para quaisquer α e
K
∈ E
x ∈ .
3. (Desigualdade Triangular) y
x
y
x +
≤
+ , para quaisquer E
y
,
x ∈ .
Observação: A desigualdade triangular é consequência da desigualdade de Cauchy-Schwarz:
( ) y
x
y
x ⋅
≤ .
Definição 5.3: Dois vectores x e y, de um espaço vectorial E, com produto interno, dizem-se
ortogonais se ( ) 0
y
x = . Neste caso escreve-se y
x⊥ .
Chama-se complemento ortogonal de um conjunto S ao conjunto
E
⊂
{ }
S
x
,
x
y
:
E
y
S ∈
⊥
∈
=
⊥
.
Uma base é dita ortonormada (o.n.) se os vectores são ortogonais dois a dois e têm
norma 1, isto é, a base { é ortonormada se
}
n
2
1 e
,
,
e
,
e K ( ) 0
e
e j
i = , para , e
j
i ≠ 1
ei = , para
.
n
,
,
2
,
1
i K
=
Exemplos:
1. e .
{ } E
0 =
⊥
{ }
0
E =
⊥
2. Em IR
3
, com o produto interno já referido, são ortonormadas as bases:
( ) ( ) ( )
{ }
1
,
0
,
0
,
0
,
1
,
0
,
0
,
0
,
1
e
( )


















−








01
,
0
,
0
,
2
2
,
2
2
,
0
,
2
2
,
2
2
.
55
Teorema 5.4: Um espaço euclidiano (ou unitário) admite sempre uma base ortonormada.
Demonstração: Este teorema é consequência do facto de qualquer espaço vectorial, de dimensão
finita, ter uma base e uma base poder transformar-se numa base o.n. usando-se o processo de
ortonormalização de Gram-Schmidt. Vejamos em que consiste este processo num espaço
vectorial de dimensão 3.
Seja E um espaço euclidiano (ou unitário) de dimensão 3 e { }
3
2
1 e
,
e
,
e uma sua base.
Definam-se os vectores e por:
2
1 u
,
u 3
u
1
1
1
e
e
u = ;
,
u
u
u
2
2
2
′
′
= com ( ) 1
1
2
2
2 u
u
e
e
u −
=
′ ;
,
u
u
u
3
3
3
′
′
= com ( ) ( ) 1
1
3
2
2
3
3
3 u
u
e
u
u
e
e
u −
−
=
′ .
É imediato verificar que estes vectores têm norma 1. Vejamos que u e são
ortogonais:
1 2
u
( ) ( )
( )
( )
( ) ( )( )
( )
( ) ( )
( )
.
0
u
e
u
e
u
1
u
u
u
e
u
e
u
1
u
u
u
e
e
u
1
u
u
1
2
1
2
2
1
1
1
2
1
2
2
1
1
1
2
2
2
1
2
=
−
′
=
−
′
=
−
′
=
De modo semelhante pode mostrar-se que os restantes pares de vectores possíveis são também
ortogonais.
Mostrando que { constituem uma base de E (exercício!), conclui-se que
é uma base o.n. de E.
}
}
3
2
1 u
,
u
,
u
{ 3
2
1 u
,
u
,
u
Em geral, se E é um espaço vectorial de dimensão n e { }
n
2
1 e
,
,
e
,
e K é uma base de E,
então constituem uma base ortonormada de E se:
{ n
2
1 u
,
,
u
,
u K }
1
1
1
e
e
u = ,
,
u
u
u
k
k
k
′
′
= com ( )
∑
−
=
−
=
′
1
k
1
i
i
i
k
k
k u
u
e
e
u , para k n
,
,
2 K
= .
(Ortonormalização de Gram-Schmidt)
56
Definição 5.5: Sejam E um espaço euclidiano e { }
0

E
y
,
x ∈ . Define-se ângulo formado pelos
vectores x e y por meio da igualdade
θ
( )
y
x
y
x
cos
⋅
=
θ , π
≤
θ
≤
0 .
Observações:
1. Da definição anterior conclui-se que ( ) θ
⋅
⋅
= cos
y
x
y
x .
2. O ângulo θ já que, pela desigualdade de Cauchy-Schwarz,
[ π
∈ ,
0 ]
( )
( ) ( ) 1
y
x
y
x
1
1
y
x
y
x
y
x
y
x ≤
⋅
≤
−
⇔
≤
⋅
⇔
⋅
≤
e a função cos(x) é uma bijecção de [ ]
π
,
0 em [ ]
1
,
1
− .
Cálculo do Produto Interno de Dois Vectores
Sejam { uma base do espaço unitário E e
}
n
2
1 e
,
,
e
,
e K E
y
,
x ∈ . Então, existem ,
K
, i
i ∈
β
α
tais que
,
n
,
,
1
i K
=
n
n
2
2
1
1 e
e
e
x α
+
+
α
+
α
= L
e
n
n
2
2
1
1 e
e
e
y β
+
+
β
+
β
= L .
Assim, podemos escrever:
( ) ( )
( ) ( ) ( )
( ) ( ) ( )
( )
∑∑
= =
β
α
=
β
α
+
+
β
α
+
β
α
+
+
β
α
+
+
β
α
+
β
α
=
β
+
+
β
α
+
+
α
=
n
1
i
n
1
j
j
i
j
i
n
n
n
n
2
n
2
n
1
n
1
n
n
1
n
1
2
1
2
1
1
1
1
1
n
n
1
1
n
n
1
1
e
e
e
e
e
e
e
e
e
e
e
e
e
e
e
e
e
e
y
x
L
L
L
L
L
(1)
Se representarmos ( )
j
i e
e por a , podemos obter a matriz
ij [ ]
ij
a
=
A e deste modo, a expressão (1)
para o produto interno de x por y pode escrever-se na forma matricial:
( ) Y
A
X
y
x T
⋅
⋅
= , (2)
em que










α
α
=
n
1
X M , e










β
β
=
n
1
Y M [ ]
ij
a
A = .
57
Observe-se que a matriz A é hermítica, pois ( ) ( )
i
j
j
i e
e
e
e = , no caso complexo, ou simétrica no
caso real, já que ( ) ( )
i
j
j
i e
e
e
e = .
Em particular, se a base { }
n
2
1 e
,
,
e
,
e K é o.n., então ( ) ij
j
i e
e δ
= , para quaisquer
ou seja, . Consequentemente, as fórmulas (1) e (2) resumem-se a:
,
n
,
,
1
j
,
i K
= n
I
A =
( ) Y
X
y
x T
n
1
i
i
i ⋅
=
β
α
= ∑
=
(no caso complexo) ou ( ) Y
X
y
x T
n
1
i
i
i ⋅
=
β
α
= ∑
=
(no caso real).
No caso dos espaços vectoriais IR
n
e C
/
n
, temos as seguintes expressões para a norma de um
vector:
- No caso geral: X
A
X
x T
⋅
⋅
= ;
- Com bases o.n.: ∑
=
α
=
⋅
=
n
1
i
2
i
T
X
X
x .
Matriz de Passagem de uma Base O.N. para outra Base O.N.
Sejam { } e {
n
2
1 e
,
,
e
,
e K }
n
2
1 e
,
,
e
,
e ′
′
′ K duas bases o.n. de E, espaço vectorial real ou
complexo, e seja P a matriz de passagem da segunda base para a primeira base. Então, para
,
E
y
,
x ∈
PX
X =
′ e Y PY
=
′ ,
em que X e Y são matrizes coluna das coordenadas de x e y na primeira base e e
X′ Y′ são as
matrizes coluna das coordenadas de x e y na segunda base.
Suponhamos que E é um espaço euclidiano. Então, neste caso,
( ) ,
Y
P
P
X
Y
X
Y
X
y
x T
T
T
T
⋅
⋅
⋅
=
′
⋅
′
=
⋅
=
isto é, , que equivale a afirmar que P é ortogonal.
I
P
PT
=
⋅
Suponhamos agora que E é um espaço unitário. Então, neste caso,
( ) ,
Y
P
P
X
Y
X
Y
X
y
x T
T
T
T
⋅
⋅
⋅
=
′
⋅
′
=
⋅
=
isto é, I
P
PT
=
⋅ , que equivale a afirmar que P é unitária.
Em conclusão, uma matriz de passagem de uma base o.n. para outra base o.n. é ortogonal
(se o espaço é real) ou unitária (se o espaço é complexo).
Nota:
1. P ortogonal 1
P
1
P
I
P
P
2
T
±
=
⇒
=
⇒
=
⋅
⇔ .
2. P unitária θ
=
⇔
=
⇒
=
⋅
⇒
=
⋅
⇔ cis
P
det
1
P
det
1
P
P
I
P
PT
, [ [
π
∈
θ 2
,
0 .
58
Se E é um espaço real e det 1
P = , então dizemos que as duas bases o.n. têm a mesma
orientação e obtém-se uma a partir da outra por uma rotação.
Exemplos: As bases { } e
( ) ( ) ( )
1
,
0
,
0
,
0
,
1
,
0
,
0
,
0
,
1 ( ) ( ) ( )
{ }
0
,
1
,
0
,
1
,
0
,
0
,
0
,
0
,
1 não têm a mesma orientação,
pois
1
0
1
0
1
0
0
0
0
1
P
det −
=
= .
Uma rotação em IR
2
é uma aplicação linear que pode ser representada pela matriz ortogonal:






θ
θ
θ
−
θ
=
cos
sen
sen
cos
P .
Produto Vectorial e Misto em IR
3
Definição 5.14: Sejam x e y dois vectores de IR
3
(com o produto escalar usual). Define-se
produto vectorial (ou externo) de x por y, que denotamos por y
x ∧ , do seguinte modo:
- Se x e y são linearmente dependentes, 0
y
x =
∧ .
- Se x e y são linearmente independentes, y
x ∧ é tal que
1. é ortogonal a x e a y.
y
x ∧
2. é uma base directa (ou positiva) (isto é, a matriz de passagem da base
para esta base tem determinante positivo).
( y
x
,
y
,
x ∧
( )
( ,
1
,
0
,
0
,
0
,
1
)
))
( ) ( 1
,
0
,
0
,
0
3. θ
⋅
⋅
=
∧ sen
y
x
y
x , com [ ]
π
∈
θ ,
0 , o ângulo formado pelos vectores x e y.
Observação: A partir de agora consideraremos sempre a base canónica de IR
3
, inclusivé na
Geometria Analítica, representada por três segmentos de recta de origem O e tal que um
observador com a cabeça no sentido de , vê e à sua direita e e à sua esquerda (isto é,
rodando no sentido directo um ângulo de
3
e 1 2
1
e 2
π obtém-se ). Fixando esta base como
positiva, diremos que a base com orientação contrária (isto é, obtida por uma mudança de base
cuja matriz tem determinante negativo) é inversa (ou negativa). Por isto, utiliza-se a notação
em lugar de { }
2
e
( 3
2
1 e
,
e
,
e )
)
3
2
1 e
,
e
,
e .
Cálculo do produto vectorial:
Se ( é uma base de IR
3
2
1 e
,
e
,
e
3
o.n. directa e
3
3
2
2
1
1 e
x
e
x
e
x
x +
+
= , 3
3
2
2
1
1 e
y
e
y
e
y
y +
+
= ,
então
( ) ( ) ( ) 3
1
2
2
1
2
1
3
3
1
1
2
3
3
2 e
y
x
y
x
e
y
x
y
x
e
y
x
y
x
y
x −
+
−
−
−
=
∧ .
59
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior
Álgebra Linear e Geometria Analítica da Universidade da Beira Interior

Mais conteúdo relacionado

Semelhante a Álgebra Linear e Geometria Analítica da Universidade da Beira Interior

Conjuntos Autor Antonio Carlos Carneiro Barroso
Conjuntos Autor Antonio Carlos Carneiro BarrosoConjuntos Autor Antonio Carlos Carneiro Barroso
Conjuntos Autor Antonio Carlos Carneiro Barrosoguestbf5561
 
7463_APOSTILA_Matematica_Prof_Roberto.pdf
7463_APOSTILA_Matematica_Prof_Roberto.pdf7463_APOSTILA_Matematica_Prof_Roberto.pdf
7463_APOSTILA_Matematica_Prof_Roberto.pdfJoseJoanicioBenevinu1
 
Resumo teorico matematica afa
Resumo teorico matematica afaResumo teorico matematica afa
Resumo teorico matematica afaAcir Robson
 
Intro teoria dos numeros cap1
Intro teoria dos numeros cap1Intro teoria dos numeros cap1
Intro teoria dos numeros cap1Paulo Martins
 
Teoría y Problemas de Calculo Integral souza-ccesa007
Teoría y Problemas de Calculo Integral souza-ccesa007Teoría y Problemas de Calculo Integral souza-ccesa007
Teoría y Problemas de Calculo Integral souza-ccesa007Demetrio Ccesa Rayme
 
Matemática Discreta - Parte IV teoria dos-conjuntos
Matemática Discreta - Parte IV teoria dos-conjuntosMatemática Discreta - Parte IV teoria dos-conjuntos
Matemática Discreta - Parte IV teoria dos-conjuntosUlrich Schiel
 
Lista de exercícios 1 - Cálculo
Lista de exercícios 1 - CálculoLista de exercícios 1 - Cálculo
Lista de exercícios 1 - CálculoCarlos Campani
 

Semelhante a Álgebra Linear e Geometria Analítica da Universidade da Beira Interior (20)

Conjuntos Autor Antonio Carlos Carneiro Barroso
Conjuntos Autor Antonio Carlos Carneiro BarrosoConjuntos Autor Antonio Carlos Carneiro Barroso
Conjuntos Autor Antonio Carlos Carneiro Barroso
 
7463_APOSTILA_Matematica_Prof_Roberto.pdf
7463_APOSTILA_Matematica_Prof_Roberto.pdf7463_APOSTILA_Matematica_Prof_Roberto.pdf
7463_APOSTILA_Matematica_Prof_Roberto.pdf
 
Resumo teorico matematica afa
Resumo teorico matematica afaResumo teorico matematica afa
Resumo teorico matematica afa
 
Intro teoria dos numeros cap1
Intro teoria dos numeros cap1Intro teoria dos numeros cap1
Intro teoria dos numeros cap1
 
Teoria dos Conjuntos
Teoria dos ConjuntosTeoria dos Conjuntos
Teoria dos Conjuntos
 
Teoría y Problemas de Calculo Integral souza-ccesa007
Teoría y Problemas de Calculo Integral souza-ccesa007Teoría y Problemas de Calculo Integral souza-ccesa007
Teoría y Problemas de Calculo Integral souza-ccesa007
 
Matemática Discreta - Parte IV teoria dos-conjuntos
Matemática Discreta - Parte IV teoria dos-conjuntosMatemática Discreta - Parte IV teoria dos-conjuntos
Matemática Discreta - Parte IV teoria dos-conjuntos
 
2_Funçoes.pdf
2_Funçoes.pdf2_Funçoes.pdf
2_Funçoes.pdf
 
Matematica discreta
Matematica discretaMatematica discreta
Matematica discreta
 
áLgebra i
áLgebra iáLgebra i
áLgebra i
 
Matemática apostila 1 suely
Matemática   apostila 1 suelyMatemática   apostila 1 suely
Matemática apostila 1 suely
 
Mono - UFMG
Mono - UFMGMono - UFMG
Mono - UFMG
 
Lista de exercícios 1 - Cálculo
Lista de exercícios 1 - CálculoLista de exercícios 1 - Cálculo
Lista de exercícios 1 - Cálculo
 
Teoria dos Conjuntos
Teoria dos Conjuntos   Teoria dos Conjuntos
Teoria dos Conjuntos
 
Números Complexos
Números ComplexosNúmeros Complexos
Números Complexos
 
Números Complexos
Números ComplexosNúmeros Complexos
Números Complexos
 
Números Complexos
Números ComplexosNúmeros Complexos
Números Complexos
 
Números Complexos
Números ComplexosNúmeros Complexos
Números Complexos
 
NúMeros Complexos
NúMeros ComplexosNúMeros Complexos
NúMeros Complexos
 
Números Complexos
Números ComplexosNúmeros Complexos
Números Complexos
 

Mais de Marcelo Martelli Rossilho (13)

Nova Gramatica da Lingua Portuguesa Para Concursos.pdf
Nova Gramatica da Lingua Portuguesa Para Concursos.pdfNova Gramatica da Lingua Portuguesa Para Concursos.pdf
Nova Gramatica da Lingua Portuguesa Para Concursos.pdf
 
livro proprietario - lingua portuguesa.pdf
livro proprietario - lingua portuguesa.pdflivro proprietario - lingua portuguesa.pdf
livro proprietario - lingua portuguesa.pdf
 
DicasLinguaPortuguesa.pdf
DicasLinguaPortuguesa.pdfDicasLinguaPortuguesa.pdf
DicasLinguaPortuguesa.pdf
 
apostila_lingua_portuguesa.pdf
apostila_lingua_portuguesa.pdfapostila_lingua_portuguesa.pdf
apostila_lingua_portuguesa.pdf
 
Resumo MatemÔÇática.pdf
Resumo MatemÔÇática.pdfResumo MatemÔÇática.pdf
Resumo MatemÔÇática.pdf
 
zz - Enem - Matemática - Matemática Básica.pdf
zz - Enem - Matemática - Matemática Básica.pdfzz - Enem - Matemática - Matemática Básica.pdf
zz - Enem - Matemática - Matemática Básica.pdf
 
Funções - Aula (3).pdf
Funções - Aula  (3).pdfFunções - Aula  (3).pdf
Funções - Aula (3).pdf
 
MatemÔÇática - T┬ópicos Fundamentais (2).pdf
MatemÔÇática - T┬ópicos Fundamentais (2).pdfMatemÔÇática - T┬ópicos Fundamentais (2).pdf
MatemÔÇática - T┬ópicos Fundamentais (2).pdf
 
MatemÔÇática - T┬ópicos Fundamentais (1).pdf
MatemÔÇática - T┬ópicos Fundamentais (1).pdfMatemÔÇática - T┬ópicos Fundamentais (1).pdf
MatemÔÇática - T┬ópicos Fundamentais (1).pdf
 
conjuntos_numericos.pdf
conjuntos_numericos.pdfconjuntos_numericos.pdf
conjuntos_numericos.pdf
 
apostila_de_trigonometria.pdf
apostila_de_trigonometria.pdfapostila_de_trigonometria.pdf
apostila_de_trigonometria.pdf
 
redacao-bb-ebook.pdf
redacao-bb-ebook.pdfredacao-bb-ebook.pdf
redacao-bb-ebook.pdf
 
Apostila tomografia prof. ricardo pereira
Apostila tomografia   prof. ricardo pereiraApostila tomografia   prof. ricardo pereira
Apostila tomografia prof. ricardo pereira
 

Último

Revista-Palavra-Viva-Profetas-Menores (1).pdf
Revista-Palavra-Viva-Profetas-Menores (1).pdfRevista-Palavra-Viva-Profetas-Menores (1).pdf
Revista-Palavra-Viva-Profetas-Menores (1).pdfMárcio Azevedo
 
Manual da CPSA_1_Agir com Autonomia para envio
Manual da CPSA_1_Agir com Autonomia para envioManual da CPSA_1_Agir com Autonomia para envio
Manual da CPSA_1_Agir com Autonomia para envioManuais Formação
 
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...azulassessoria9
 
Literatura Brasileira - escolas literárias.ppt
Literatura Brasileira - escolas literárias.pptLiteratura Brasileira - escolas literárias.ppt
Literatura Brasileira - escolas literárias.pptMaiteFerreira4
 
"É melhor praticar para a nota" - Como avaliar comportamentos em contextos de...
"É melhor praticar para a nota" - Como avaliar comportamentos em contextos de..."É melhor praticar para a nota" - Como avaliar comportamentos em contextos de...
"É melhor praticar para a nota" - Como avaliar comportamentos em contextos de...Rosalina Simão Nunes
 
o ciclo do contato Jorge Ponciano Ribeiro.pdf
o ciclo do contato Jorge Ponciano Ribeiro.pdfo ciclo do contato Jorge Ponciano Ribeiro.pdf
o ciclo do contato Jorge Ponciano Ribeiro.pdfCamillaBrito19
 
2° ano_PLANO_DE_CURSO em PDF referente ao 2° ano do Ensino fundamental
2° ano_PLANO_DE_CURSO em PDF referente ao 2° ano do Ensino fundamental2° ano_PLANO_DE_CURSO em PDF referente ao 2° ano do Ensino fundamental
2° ano_PLANO_DE_CURSO em PDF referente ao 2° ano do Ensino fundamentalAntônia marta Silvestre da Silva
 
Rotas Transaarianas como o desrto prouz riqueza
Rotas Transaarianas como o desrto prouz riquezaRotas Transaarianas como o desrto prouz riqueza
Rotas Transaarianas como o desrto prouz riquezaronaldojacademico
 
Aula de História Ensino Médio Mesopotâmia.pdf
Aula de História Ensino Médio Mesopotâmia.pdfAula de História Ensino Médio Mesopotâmia.pdf
Aula de História Ensino Médio Mesopotâmia.pdfFernandaMota99
 
11oC_-_Mural_de_Portugues_4m35.pptxTrabalho do Ensino Profissional turma do 1...
11oC_-_Mural_de_Portugues_4m35.pptxTrabalho do Ensino Profissional turma do 1...11oC_-_Mural_de_Portugues_4m35.pptxTrabalho do Ensino Profissional turma do 1...
11oC_-_Mural_de_Portugues_4m35.pptxTrabalho do Ensino Profissional turma do 1...licinioBorges
 
Dicionário de Genealogia, autor Gilber Rubim Rangel
Dicionário de Genealogia, autor Gilber Rubim RangelDicionário de Genealogia, autor Gilber Rubim Rangel
Dicionário de Genealogia, autor Gilber Rubim RangelGilber Rubim Rangel
 
COMPETÊNCIA 4 NO ENEM: O TEXTO E SUAS AMARRACÕES
COMPETÊNCIA 4 NO ENEM: O TEXTO E SUAS AMARRACÕESCOMPETÊNCIA 4 NO ENEM: O TEXTO E SUAS AMARRACÕES
COMPETÊNCIA 4 NO ENEM: O TEXTO E SUAS AMARRACÕESEduardaReis50
 
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...azulassessoria9
 
ENSINO RELIGIOSO 7º ANO INOVE NA ESCOLA.pdf
ENSINO RELIGIOSO 7º ANO INOVE NA ESCOLA.pdfENSINO RELIGIOSO 7º ANO INOVE NA ESCOLA.pdf
ENSINO RELIGIOSO 7º ANO INOVE NA ESCOLA.pdfLeloIurk1
 
PROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdf
PROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdfPROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdf
PROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdfMarianaMoraesMathias
 
Atividade sobre os Pronomes Pessoais.pptx
Atividade sobre os Pronomes Pessoais.pptxAtividade sobre os Pronomes Pessoais.pptx
Atividade sobre os Pronomes Pessoais.pptxDianaSheila2
 
FASE 1 MÉTODO LUMA E PONTO. TUDO SOBRE REDAÇÃO
FASE 1 MÉTODO LUMA E PONTO. TUDO SOBRE REDAÇÃOFASE 1 MÉTODO LUMA E PONTO. TUDO SOBRE REDAÇÃO
FASE 1 MÉTODO LUMA E PONTO. TUDO SOBRE REDAÇÃOAulasgravadas3
 
Pedologia- Geografia - Geologia - aula_01.pptx
Pedologia- Geografia - Geologia - aula_01.pptxPedologia- Geografia - Geologia - aula_01.pptx
Pedologia- Geografia - Geologia - aula_01.pptxleandropereira983288
 
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...azulassessoria9
 

Último (20)

Revista-Palavra-Viva-Profetas-Menores (1).pdf
Revista-Palavra-Viva-Profetas-Menores (1).pdfRevista-Palavra-Viva-Profetas-Menores (1).pdf
Revista-Palavra-Viva-Profetas-Menores (1).pdf
 
Manual da CPSA_1_Agir com Autonomia para envio
Manual da CPSA_1_Agir com Autonomia para envioManual da CPSA_1_Agir com Autonomia para envio
Manual da CPSA_1_Agir com Autonomia para envio
 
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
 
Literatura Brasileira - escolas literárias.ppt
Literatura Brasileira - escolas literárias.pptLiteratura Brasileira - escolas literárias.ppt
Literatura Brasileira - escolas literárias.ppt
 
"É melhor praticar para a nota" - Como avaliar comportamentos em contextos de...
"É melhor praticar para a nota" - Como avaliar comportamentos em contextos de..."É melhor praticar para a nota" - Como avaliar comportamentos em contextos de...
"É melhor praticar para a nota" - Como avaliar comportamentos em contextos de...
 
o ciclo do contato Jorge Ponciano Ribeiro.pdf
o ciclo do contato Jorge Ponciano Ribeiro.pdfo ciclo do contato Jorge Ponciano Ribeiro.pdf
o ciclo do contato Jorge Ponciano Ribeiro.pdf
 
2° ano_PLANO_DE_CURSO em PDF referente ao 2° ano do Ensino fundamental
2° ano_PLANO_DE_CURSO em PDF referente ao 2° ano do Ensino fundamental2° ano_PLANO_DE_CURSO em PDF referente ao 2° ano do Ensino fundamental
2° ano_PLANO_DE_CURSO em PDF referente ao 2° ano do Ensino fundamental
 
Rotas Transaarianas como o desrto prouz riqueza
Rotas Transaarianas como o desrto prouz riquezaRotas Transaarianas como o desrto prouz riqueza
Rotas Transaarianas como o desrto prouz riqueza
 
Aula de História Ensino Médio Mesopotâmia.pdf
Aula de História Ensino Médio Mesopotâmia.pdfAula de História Ensino Médio Mesopotâmia.pdf
Aula de História Ensino Médio Mesopotâmia.pdf
 
11oC_-_Mural_de_Portugues_4m35.pptxTrabalho do Ensino Profissional turma do 1...
11oC_-_Mural_de_Portugues_4m35.pptxTrabalho do Ensino Profissional turma do 1...11oC_-_Mural_de_Portugues_4m35.pptxTrabalho do Ensino Profissional turma do 1...
11oC_-_Mural_de_Portugues_4m35.pptxTrabalho do Ensino Profissional turma do 1...
 
Dicionário de Genealogia, autor Gilber Rubim Rangel
Dicionário de Genealogia, autor Gilber Rubim RangelDicionário de Genealogia, autor Gilber Rubim Rangel
Dicionário de Genealogia, autor Gilber Rubim Rangel
 
COMPETÊNCIA 4 NO ENEM: O TEXTO E SUAS AMARRACÕES
COMPETÊNCIA 4 NO ENEM: O TEXTO E SUAS AMARRACÕESCOMPETÊNCIA 4 NO ENEM: O TEXTO E SUAS AMARRACÕES
COMPETÊNCIA 4 NO ENEM: O TEXTO E SUAS AMARRACÕES
 
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
 
ENSINO RELIGIOSO 7º ANO INOVE NA ESCOLA.pdf
ENSINO RELIGIOSO 7º ANO INOVE NA ESCOLA.pdfENSINO RELIGIOSO 7º ANO INOVE NA ESCOLA.pdf
ENSINO RELIGIOSO 7º ANO INOVE NA ESCOLA.pdf
 
PROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdf
PROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdfPROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdf
PROGRAMA DE AÇÃO 2024 - MARIANA DA SILVA MORAES.pdf
 
Bullying, sai pra lá
Bullying,  sai pra láBullying,  sai pra lá
Bullying, sai pra lá
 
Atividade sobre os Pronomes Pessoais.pptx
Atividade sobre os Pronomes Pessoais.pptxAtividade sobre os Pronomes Pessoais.pptx
Atividade sobre os Pronomes Pessoais.pptx
 
FASE 1 MÉTODO LUMA E PONTO. TUDO SOBRE REDAÇÃO
FASE 1 MÉTODO LUMA E PONTO. TUDO SOBRE REDAÇÃOFASE 1 MÉTODO LUMA E PONTO. TUDO SOBRE REDAÇÃO
FASE 1 MÉTODO LUMA E PONTO. TUDO SOBRE REDAÇÃO
 
Pedologia- Geografia - Geologia - aula_01.pptx
Pedologia- Geografia - Geologia - aula_01.pptxPedologia- Geografia - Geologia - aula_01.pptx
Pedologia- Geografia - Geologia - aula_01.pptx
 
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
 

Álgebra Linear e Geometria Analítica da Universidade da Beira Interior

  • 1. UNIVERSIDADE DA BEIRA INTERIOR Apontamentos Teóricos de Álgebra Linear e Geometria Analı́tica Cristina Gama Jorge Gama Ano Lectivo 2001/2002
  • 2. 1 ESTRUTURAS ALGÉBRICAS Os conceitos que se seguem servirão de suporte aos objectivos da disciplina. Esses conceitos são as estruturas de grupo, anel e corpo. No final do capı́tulo faremos um estudo mais aprofundado do corpo dos números complexos. Definição 1.1 Seja A um conjunto não vazio. Chama-se operação binária ou lei de composição interna no conjunto A a qualquer aplicação definida do conjunto A×A (produto cartesiano de A por A) em A, isto é, se representarmos por θ essa aplicação, então θ : A × A → A (a, b) 7→ θ(a, b) No caso das operações binárias é usual escrever-se aθb no lugar de θ(a, b). Passaremos a usar essa notação. Exemplos: 1. No conjunto N, a adição e a multiplicação usuais são operações binárias. 2. No conjunto Z a adição e a multiplicação usuais são operações binárias. 3. Em Q ou R a adição e a multiplicação usuais são operações binárias. 4. A subtracção é uma operação binária em N? E em Z? 5. A divisão é uma operação binária em N, Z, Q, ou R? E em Q {0} ou R {0}? 6. Se em N0 definirmos ∗ : N0 ×N0 → N0 tal que a∗b = a+b+1, ∗ é uma operação binária. Definição 1.2 Seja A um conjunto, não vazio, e θ uma operação binária definida em A. Diz-se que (A, θ) é um grupo quando se verificam os seguintes axiomas: G1. ∀a, b, c ∈ A, (aθb)θc = aθ(bθc) (Associatividade) G2. ∃u ∈ A : ∀a ∈ A, aθu = uθa = a (Existência de elemento neutro) G3. ∀a ∈ A, ∃a0 ∈ A : aθa0 = a0 θa = u (Existência de elemento oposto) No caso em que a operação é também comutativa, isto é, G4. ∀a, b ∈ A, aθb = bθa o grupo (A, θ) diz-se comutativo ou abeliano. Observações: 1
  • 3. 1. É usual designarem-se as operações binárias por adição ou multiplicação, representadas respectivamente por + e · (não é necessário que tenham alguma coisa a ver com a adição e multiplicação usuais). 2. No contexto da observação anterior, o elemento neutro designa-se por zero (0), se a operação é uma adição, e designa-se por identidade (1), se a operação é uma multi- plicação. Analogamente, se a operação é uma adição, o oposto de um elemento a chama-se simétrico (representa-se por −a), se a operação é uma multiplicação, o oposto chama-se inverso (representa-se por a−1 ). Exercı́cio: Seja A um conjunto e θ uma operação binária definida em A. Em (A, θ), com θ associativa, mostre que a) quando existe elemento neutro, ele é único. b) quando um elemento tem oposto, este é único. Exemplos de Grupos: (Z, +), (Q, +), (R, +), (R {0}, ·), (F, ◦), com F o conjunto de todas as funções bijectivas de um conjunto nele próprio (em particular, o conjunto S3 das permutações de {1, 2, 3} com a composição), etc. Observação: No caso (S3, ◦), os elementos de S3 são I = 1 2 3 1 2 3 T1 = 1 2 3 1 3 2 T2 = 1 2 3 2 1 3 T3 = 1 2 3 2 3 1 T4 = 1 2 3 3 1 2 T5 = 1 2 3 3 2 1 e, por exemplo, T1 ◦ T2 = 1 2 3 1 3 2 ◦ 1 2 3 2 1 3 = T4. Outro exemplo: (Z2, +), onde Z2 = {0, 1} e + está definida por + 0 1 0 0 1 1 1 0 Definição 1.3 Seja (A, θ) um grupo e B um subconjunto não vazio de A. Diz-se que (B, θ) é um subgrupo de (A, θ) se (B, θ) é um grupo em relação à operação binária definida em A. Exercı́cio: Nos exemplos anteriores, verifique quais os grupos que são subgrupos de algum dos outros grupos. 2
  • 4. Homomorfismos de Grupos Definição 1.4 Sejam (A, θ) e (A0 , σ) dois grupos. Uma aplicação f : A → A0 diz-se um homomorfismo se ∀a, b ∈ A, f(aθb) = f(a)σf(b). Observações: Se f : A → A0 é um homomorfismo, então i) f(u) = u0 (u elemento neutro de (A, θ) e u0 elemento neutro de (A0 , σ)) ii) (f(a))−1 = f(a−1 ). Exemplos: 1. Seja f : R+ → R x 7→ ln(x). f é um homomorfismo do grupo (R+ , ·), no grupo (R, +), já que ln(x · y) = ln(x) + ln(y). 2. A aplicação g : R → R+ x 7→ ex é um homomorfismo de (R, +) no grupo (R+ , ·), já que ex+y = ex · ey . Definição 1.5 Um terno (A, +, ·), com A um conjunto, não vazio, e + e · operações binárias definidas em A, é um anel se: A1. (A, +) é um grupo abeliano; A2. A operação · é associativa; A3. A operação · é distributiva relativamente à operação +, isto é, ∀a, b, c ∈ A, a · (b + c) = (a · b) + (a · c) ∧ (a + b) · c = (a · c) + (b · c). O elemento neutro da primeira operação chama-se zero do anel. Se a segunda operação for comutativa, então o anel diz-se comutativo. Caso o anel A tenha elemento unidade, isto é, se (A, ·) tiver elemento neutro, A diz-se anel com elemento unidade ou anel unitário. Exemplos de Anéis: 1. (Z, +, ·) é um anel comutativo unitário. 2. O conjunto R2 = {(a, b) : a, b ∈ R} com as operações definidas por (a, b) + (c, d) = (a + c, b + d) (a, b) · (c, d) = (ac, bd) é um anel. 3
  • 5. Definição 1.6 Um terno (K, +, ·) diz-se um corpo se (K, +, ·) é uma anel comutativo com identidade e todos os elementos de K {0} têm inverso, isto é, (K, +, ·) é um corpo se (K, +) e (K {0}, ·) são grupos comutativos e · é distributiva relativamente a +. Exemplos de Corpos: (Q, +, ·), (R, +, ·), com + e · as operações usuais, e (Z2, +, ·), com + 0 1 0 0 1 1 1 0 · 0 1 0 0 0 1 0 1 Propriedades 1.7 Num corpo são válidas as seguintes proposições: 1. a · 0 = 0 · a = 0 (0 é elemento absorvente da multiplicação) 2. a · b = 0 ⇔ a = 0 ∨ b = 0 (lei do anulamento do produto) Definição 1.8 Sejam (K, +, ·) e (K0 , θ, ∗) dois corpos. A aplicação f : K → K0 diz-se um homomorfismo de corpos se, para todos x, y ∈ K, f(x + y) = f(x)θf(y) e f(x · y) = f(x) ∗ f(y). Se f é bijectiva, f diz-se um isomorfismo. Se K = K0 , f diz-se um endomorfismo. E um endomorfismo bijectivo diz-se um automorfismo. Depois de definirmos todas estas estruturas, podemos estudar mais profundamente um corpo muito importante: Corpo dos Complexos, isto é, C = {(a, b) : a, b ∈ R} munido com as operações: (a, b) + (c, d) = (a + c, b + d) (a, b) · (c, d) = (ac − bd, ad + bc) Exercı́cio: Mostre que (C, +, ·) é um corpo. Observações: 1. Não é difı́cil verificar que (0, 0) é o zero de C e (1, 0) é a unidade de C. 2. Seja S = {(a, 0) : a ∈ R}, subconjunto de C. (S, +, ·) é um corpo para as operações definidas em C. Dado que a aplicação f : (R, +, ·) → (S, +, ·) a 7→ (a, 0) é um isomorfismo de corpos, podemos simplificar a escrita identificando os complexos (a, 0) com o correspondente número real a. 4
  • 6. Da definição dada para a multiplicação em C, resulta (0, 1)2 = (0, 1) · (0, 1) = (0 − 1, 0 + 0) = (−1, 0). Deste modo, o número complexo (0, 1) é solução da equação x2 = −1. O complexo (0, 1) denomina-se unidade imaginária e representa-se pelo sı́mbolo i. Atendendo-se à identificação de (a, 0) com a e (0, 1) com i, é consequência das operações definidas em C a seguinte representação: ∀(a, b) ∈ C : (a, b) = (a, 0) + (0, b) = a + (0, 1) · (b, 0) = a + ib, em que a será chamado parte real do complexo e b parte imaginária do complexo. Em sı́mbolos, se z = a + bi, a = Re(z) e b = Im(z). Os números complexos da forma ib, com b 6= 0, chamam-se imaginários puros. Observe-se que i2 = −1, i3 = −i, i4 = 1, i5 = i, . . . , (a + bi) + (c + di) = (a + c) + (b + d)i, (a + bi) · (c + di) = (ac − bd) + (ad + bc)i. Definição 1.9 Seja z = a+bi um número complexo. Chama-se conjugado de z ao número complexo z = a − bi. Chama-se módulo de z ao número real |z| = √ z · z = √ a2 + b2. Propriedades 1.10 Para todo z, w ∈ C, 1. Re(z) = z + z 2 , 2. Im(z) = z − z 2i , 3. z + w = z + w, 4. z · w = z · w, 5. |z| = |z|, 6. z−1 = z |z|2 = a a2 + b2 − i b a2 + b2 , com z 6= 0, 7. z w = z w Exercı́cio: Calcule: a) (1 − i)(3 − 2i) − (2 − i)(3 + 4i); b) (2 − i)2 − 2 1 + 3i . 5
  • 7. Representação Trigonométrica dos Números Complexos Já sabemos que dada uma recta orientada, existe uma correspondência biunı́voca entre cada ponto da recta e o conjunto dos números reais, R. Assim, como identificamos o número complexo (a, 0) com o número real a, os complexos da forma a + i0 serão representados na recta. Como representar, por exemplo, os imaginários puros? Repare-se que uma rotação de 180o em torno da origem corresponde a uma multiplicação por −1. Ora, uma rotação de 90o deverá corresponder a multiplicar por k de modo que k2 = −1. Logo, k terá que ser a unidade imaginária i. Convencionaremos que o sentido positivo das rotações é o sentido contrário ao dos ponteiros do relógio. Portanto, passaremos a representar os números reais num eixo horizontal (eixo real) e os imaginários puros num eixo vertical (eixo imaginário). Assim, um ponto P do plano de abcissa a e ordenada b será a imagem do complexo z = a+bi. - 6 r O P a b ρ θ Plano de Argand Sabemos que o comprimento OP é o número real |z| = √ a2 + b2 (Teorema de Pitágoras). Representemos este número por ρ. Repare-se que o ponto P fica bem definido se consider- armos ρ e o ângulo θ que o segmento [OP] faz com a parte positiva do eixo real. Chama-se argumento principal ao ângulo θ ∈] − π, π]. Assim, a imagem do complexo z fica bem definida se conhecermos ρ := |z| e θ := arg(z). Observe-se que se fizermos θ = arg(z) + 2kπ, k ∈ Z, obtemos sempre a mesma imagem. Portanto, a cada complexo podemos associar uma infinidade de argumentos. Além do principal, o argumento positivo mı́nimo de z = a + bi é tal que θ ∈ [0, 2π[ e tg θ = b a . Observe a figura anterior para concluir que para todo o complexo z = a + bi, a = ρ cos θ b = ρ sen θ Assim, a forma trigonométrica de z é z = ρ(cos(θ) + i sen(θ)). Abreviadamente, z = ρ cis(θ). Se z ∈ C é tal que z = a + bi = ρ cis(θ), então z = a − bi = ρ cis(−θ). 6
  • 8. - 6 r Z Z Z Z Z Z Z Zr O z z ρ θ −θ Exercı́cio: Escreva na forma trigonométrica: a) −3i; b) −1 − i; c) 1 − i √ 3; d) 2 + 3i. Operações com Complexos na Forma Trigonométrica Adição: Usa-se a regra do paralelogramo - 6 r O z1 + z2 = z r z1 r z2 z = ρ cis(θ) = z1+z2 = ρ1 cis(θ1)+ρ2 cis(θ2) = ρ1 cos(θ1)+ρ2 cos(θ2)+i(ρ1 sen(θ1)+ρ2 sen(θ2)) e |z|2 = ρ2 = (ρ1 cos(θ1)+ρ2 cos(θ2))2 +(ρ1 sen(θ1)+ρ2 sen(θ2))2 = ρ2 1 +ρ2 2 +2ρ1ρ2 cos(θ1 −θ2). Multiplicação: Se z1 = ρ1 cis(θ1) e z2 = ρ2 cis(θ2), então z1 · z2 = (ρ1 cis(θ1))(ρ2 cis(θ2)) = ρ1ρ2 cis(θ1 + θ2). 7
  • 9. ∴ |z1 · z2| = |z1| · |z2| e arg(z1 · z2) = arg(z1) + arg(z2). Divisão: Se z2 6= 0, então 1 z2 = 1 ρ2 cis(−θ2). Logo, z1 z2 = ρ1 ρ2 cis(θ1 − θ2). ∴ z1 z2 = |z1| |z2| e arg z1 z2 = arg(z1) − arg(z2). Potenciação: Se z = ρ cis(θ) e n ∈ Z, então zn = ρn cis(nθ) (Fórmula de De Moivre). ∴ |zn | = |z|n e arg (zn ) = n arg(z). Radiciação: Seja z = ρ cis(θ) e n ∈ N. Se w = ρ1 cis(θ1) é uma raiz de ı́ndice n de z, então wn = z. Logo, (ρ1 cis(θ1))n = ρ cis(θ) ⇔ ρn 1 cis(nθ1) = ρ cis(θ) ⇔    ρn 1 = ρ cos(nθ1) = cos(θ) sen(nθ1) = sen(θ) ⇔ ρ1 = n √ ρ nθ1 = θ + 2kπ, com k ∈ Z, isto é, ρ1 = n √ ρ ∧ θ1 = θ + 2kπ n , k ∈ Z. Assim, e atendendo-se às repetições, w = n √ ρ cis θ + 2kπ n , com k = 0, 1, . . . , n − 1. As raı́zes de ı́ndice n de um complexo z têm imagens que formam os vértices de um polı́gono regular de n lados: - 6 r r r H H H H H H H - 6 r r r r @ @ @ @ @ @ No caso do expoente racional, isto é, do tipo p q , com p, q ∈ N, tem-se, por definição, para z = ρ cis(θ), zp/q = z1/q p = ρ1/q cis θ + 2kπ q p = ρp/q cis p q (θ + 2kπ) . 8
  • 10. Observe-se que 8 12 = 2 3 e assim z8/12 = z2/3 , tem 3 raı́zes distintas, enquanto 12 √ z8 tem 12 raı́zes distintas. Em C, (zp )1/q pode ser diferente de z1/q p . Exercı́cios: 1. Utilize a forma trigonométrica para calcular: a) i55 − √ 3 (1 − i)6 ; b) i66 ( √ 3 − i)4 (1 + i √ 3)8 . 2. Resolva, em C, a equação z3 − (1 + i)z2 + iz = 0. Lugares Geométricos - Circunferência de centro z0 e raio r ≥ 0. Por definição, uma circunferência de centro z0 e raio r é o conjunto dos pontos z tais que |z − z0| = r ou, equivalentemente, (z − z0) (z − z0) = r2 ⇔ zz − zz0 − z0z + |z0|2 = r2 . Se |z0|2 = r2 , a circunferência passa pela origem. Se |z0|2 6= r2 , a circunferência não passa pela origem. - Equação da recta. A equação geral de uma recta em R2 é da forma Ax + By + C = 0. Tomando-se z0 = A + iB e z = x + iy, obtém-se que Re(z0)Re(z) + Im(z0)Im(z) + C = 0 ⇔ ⇔ z0 + z0 2 · z + z 2 + z0 − z0 2i · z − z 2i + C = 0 ⇔ (z0 + z0) (z + z) − (z0 − z0) (z − z) + 4C = 0 ⇔ 2z0z + 2z0z + 4C = 0 ⇔ z0z + z0z + R = 0 (Equação Geral da Recta) Se R = 0, a recta passa pela origem. Se R 6= 0, a recta não passa pela origem. 9
  • 11. 2 MATRIZES. RESOLUÇÃO DE SISTEMAS. INVERSÃO DE MATRIZES. Definição 2.1 Sejam m, n ∈ N e K um corpo. Chama-se matriz do tipo m × n (ou de ordem (m, n)) sobre o corpo K, ou simplesmente, matriz do tipo m × n, a uma função A definida no conjunto {(i, j) ∈ N × N : 1 ≤ i ≤ m, 1 ≤ j ≤ n} e com valores em K. As componentes ou elementos ou entradas da matriz A designam-se por aij = A(i, j). É usual usar-se um quadro rectangular para dispor os elementos de K.      a11 a12 · · · a1n a21 a22 · · · a2n . . . · · · · · · · · · am1 am2 · · · amn      ou      a11 a12 · · · a1n a21 a22 · · · a2n . . . · · · · · · · · · am1 am2 · · · amn      Abreviadamente, uma matriz representa-se por [aij](m,n) (1 ≤ i ≤ m, 1 ≤ j ≤ n) ou, apenas, por A. Duas matrizes A = [aij] e B = [bij] dizem-se iguais se, e somente se, são do mesmo tipo e aij = bij, para todos os valores de i e j. Designa-se por MK(m, n) o conjunto de todas as matrizes sobre o corpo K e de ordem (m, n) (m linhas, n colunas). Se K = R, a matriz diz-se real. Se K = C, a matriz diz-se complexa. Matrizes Especiais Seja A = [aij] ∈ MK(m, n). 1. Se n = 1, a matriz A diz-se matriz coluna.      a11 a21 . . . am1      2. Se m = 1, a matriz A diz-se matriz linha. a11 a12 · · · a1n 10
  • 12. 3. Se m = n, a matriz A diz-se quadrada de ordem n.      a11 a12 · · · a1n a21 a22 · · · a2n . . . · · · · · · · · · an1 an2 · · · ann      Numa matriz quadrada, os elementos a11, a22, . . . , ann dizem-se elementos principais ou diagonais e formam a primeira diagonal ou diagonal principal. Os elementos a1n, a2,n−1, . . . , an1 formam a segunda diagonal ou diagonal secundária.         Diagonal Principal Diagonal Secundária 3.1 Uma matriz quadrada A diz-se triangular superior se aij = 0, para i j. Exemplo:   −2 1 3 0 4 −1 0 0 −5   3.2 Uma matriz quadrada A diz-se triangular inferior se aij = 0, para i j. Exemplo:   2 0 0 −1 3 0 7 4 −2   3.3 Uma matriz quadrada A diz-se diagonal se aij = 0, para i 6= j. Exemplo:     −1 0 0 0 0 3 0 0 0 0 5 0 0 0 0 −1     3.4 Uma matriz quadrada A diz-se escalar se é diagonal e aii = a 6= 0, para todo o i. Exemplo:     3 0 0 0 0 3 0 0 0 0 3 0 0 0 0 3     Utilizando-se o sı́mbolo de Kronecker, δij, definido por δij = 0, se i 6= j, 1, se i = j, uma matriz escalar pode representar-se apenas por [aδij]. 11
  • 13. Exemplo:     3 0 0 0 0 3 0 0 0 0 3 0 0 0 0 3     = [3δij] A matriz identidade é a matriz escalar [δij]. Designa-se, em geral, por In. I1 = [1] I2 = 1 0 0 1 I3 =   1 0 0 0 1 0 0 0 1   I4 =     1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1     . . . 4. Uma matriz formada por r linhas (r ≤ m) e s colunas (s ≤ n) de uma matriz A diz-se uma submatriz de A do tipo r × s. Exemplo: A matriz 2 0 −1 4 é submatriz de   2 0 4 1 −1 4 −3 0 5 −6 8 1/2  . 5. A matriz A diz-se matriz nula se todos os elementos são nulos (aij = 0, para todos os valores de i e j). Designa-se a matriz nula por 0m×n, ou simplesmente por 0, se não houver ambiguidade quanto ao seu tipo. Exemplo:   0 0 0 0 0 0 0 0 0   6. A matriz oposta da matriz A = [aij](m,n) é uma matriz do mesmo tipo definida por −A = [−aij] . Exemplo: A =   −1 2 3 5 1/2 − √ 2   − A =   1 −2 −3 −5 −1/2 √ 2   7. Denomina-se matriz transposta de A a matriz AT que se obtém de A trocando orde- nadamente as linhas por colunas e as colunas por linhas. Se A é do tipo m × n, AT é do tipo n × m. Exemplo: A = 2 −5 7 −3 2 1 AT =   2 −3 −5 2 7 1   Propriedade 2.2 AT T = A. 12
  • 14. 8. A matriz A diz-se simétrica se é igual à sua transposta, isto é, A = AT . Logo, os seus elementos verificam a relação aij = aji, para todos os valores de i e j. Desta forma, uma matriz simétrica é necessariamente quadrada e os elementos colocados simetricamente em relação à diagonal principal são iguais. Exemplo:   3 4 −1 4 −2 7 −1 7 −5   9. A matriz A diz-se anti-simétrica ou hemi-simétrica se AT = −A ou A = −AT . Os elementos verificam a relação aij = −aji. Assim, para i = j, tem-se aii = −aii ⇔ aii = 0. Desta forma, uma matriz anti-simétrica é uma matriz quadrada cujos elementos principais são nulos e os elementos colocados simetricamente em relação à diagonal principal são simétricos. Exemplo:   0 2 −7 −2 0 5 7 −5 0   10. Se a matriz A é complexa, chama-se matriz conjugada de A à matriz A que se obtém substituindo cada elemento de A pelo seu conjugado. Exemplo: A = 5 3 + 2i 2 −i 7i 9 − i A = 5 3 − 2i 2 i −7i 9 + i Propriedades 2.3 1. Se A = A, então A é uma matriz real. 2. A = A. 11. Denomina-se matriz associada de A (complexa) a matriz A∗ que é igual à transposta da conjugada de A, ou, o que é o mesmo, à conjugada da transposta de A, isto é, A∗ = A T = (AT ). Exemplo: A = 5 3 + 2i 2 −i 7i 9 + i A∗ =   5 i 3 − 2i −7i 2 9 − i   13
  • 15. Propriedades 2.4 1. (A∗ )T = A. 2. (A∗) = AT . 3. (A∗ )∗ = A. 12. Uma matriz A diz-se hermı́tica ou hermitiana se é igual à sua associada, isto é, se A = A∗ . Logo, os seus elementos verificam a relação aij = aji e é uma matriz quadrada. Em particular, para i = j, tem-se aii = aii = a ∈ R, isto é, aii é um número real. Exemplo:     5 5 + 2i 3i 0 5 − 2i −1 9 2 − i −3i 9 7 7 + 2i 0 2 + i 7 − 2i −4     13. Uma matriz A diz-se hemi-hermı́tica ou hemi-hermitiana se satisfaz a relação A = −A∗ . Logo, os seus elementos verificam a relação aij = −aji e é uma matriz quadrada. Em particular, para i = j, tem-se aii = −aii, isto é, Re(aii) = 0. Exemplo:     5i 5 5 − i 3 − 2i −5 −2i 2 + i 9i −5 − i −2 + i 7i 9 −3 − 2i 9i −9 −i     Operações com Matrizes 1. Adição: Sejam A = [aij], B = [bij] ∈ MK(m, n). Define-se adição de A com B como sendo a matriz S = A + B ∈ MK(m, n) cujos elementos são obtidos pela relação sij = aij + bij. Exemplo: 2 6 0 −1 4 7 + 1 0 4 −4 1 −3 = 3 6 4 −5 5 4 Propriedades 2.5 (Adição de Matrizes) a) A adição de matrizes é comutativa, isto é, ∀A, B ∈ MK(m, n), A + B = B + A. 14
  • 16. b) A adição de matrizes é associativa, isto é, ∀A, B, C ∈ MK(m, n), (A + B) + C = A + (B + C). c) A adição de matrizes tem elemento neutro, a matriz nula    0 · · · 0 . . . · · · . . . 0 · · · 0    (m,n) d) Todas as matrizes em MK(m, n) têm oposto. O elemento oposto de A ∈ MK(m, n) é a matriz −A ∈ MK(m, n). ∴ (MK(m, n), +) é um grupo abeliano. e) Sejam A1, A2, . . . , Ap ∈ MK(m, n). Então (A1 + A2 + · · · + Ap)T = AT 1 + AT 2 + · · · + AT p . f) Se A ∈ MC(n, n), então A + A∗ é hermı́tica e A − A∗ é hemi-hermı́tica. g) Se A ∈ MK(n, n), então A + AT é simétrica e A − AT é anti-simétrica. 2. Multiplicação de uma Matriz por um Escalar: Sejam A = [aij] ∈ MK(m, n) e λ ∈ K. É usual denominar qualquer elemento de um corpo por escalar. Define-se produto do escalar λ pela matriz A como sendo a matriz λA = [λaij]. Exemplo: Se A = 2 5 7 1 0 −2 e λ = 2, então λA = 4 10 14 2 0 −4 . Propriedades 2.6 Sejam A, B ∈ MK(m, n) e α, β ∈ K. i) 1 · A = A; ii) α(βA) = (αβ)A = β(αA); iii) (α + β)A = αA + βA; iv) α(A + B) = αA + αB; v) Se K = C e m = n, uma matriz A pode exprimir-se como soma de uma matriz hermı́tica e uma hemi-hermı́tica, ou de uma matriz simétrica e outra anti-simétrica. 3. Multiplicação de Matrizes: Sejam A = [aik] ∈ MK(m, p) e B = [blj] ∈ MK(p, n). As matrizes A e B dizem- -se encadeadas porque o número de colunas de A é igual ao número de linhas de B. Define-se multiplicação da matriz A pela matriz B como sendo uma matriz C do tipo m × n, cujos elementos cij satisfazem a igualdade cij = p X k=1 aikbkj, 15
  • 17. com i = 1, . . . , m e j = 1, . . . , n. Exemplo: A = 2 −1 0 3 B = 3 −1 0 1 2 −4 AB = 5 −4 4 3 6 −12 Observe que não é possı́vel a multiplicação BA. Desta forma, a multiplicação não é comutativa. Mesmo que A seja do tipo m × n e B do tipo n × m, AB é diferente de BA, para m 6= n, dado as matrizes AB e BA não serem da mesma ordem. Observe o seguinte exemplo: 0 1 2 3 3 2 1 0     0 3 1 2 2 1 3 0     = 14 4 4 14     0 3 1 2 2 1 3 0     0 1 2 3 3 2 1 0 =     9 6 3 0 6 5 4 3 3 4 5 6 0 3 6 9     No caso particular m = n, se AB = BA, então as matrizes A e B dizem-se permutáveis. Exemplo: 2 0 0 2 3 0 0 3 = 6 0 0 6 = 3 0 0 3 2 0 0 2 As matrizes 2 0 0 2 e 3 0 0 3 são permutáveis. Propriedades 2.7 i) Se A, B e C são matrizes do tipo m × p, p × q e q × n, respectivamente, então (A · B) · C = A · (B · C) (Associatividade). ii) Se A, B e C são matrizes do tipo m × p, p × n e p × n, respectivamente, então A · (B + C) = A · B + A · C (Distributividade à Esquerda). Se D, E e F são matrizes do tipo m × p, m × p e p × n, respectivamente, então (D + E) · F = D · F + E · F (Distributividade à Direita). iii) O conjunto MK(n, n), das matrizes quadradas de ordem n com elementos no corpo K, munido com as operações adição e multiplicação de matrizes é um anel não comutativo com elemento unidade (matriz identidade de ordem n). 16
  • 18. Observações: 1. Um produto AB pode ser a matriz nula sem que A ou B sejam a matriz nula. Por exemplo:   1 2 0 1 1 0 1 4 0     0 0 0 0 0 0 1 4 9   =   0 0 0 0 0 0 0 0 0   . 2. A igualdade AB = AC não implica necessariamente B = C. Por exemplo: AB =   1 2 0 1 1 0 −1 4 0     1 2 3 1 1 −1 2 2 2   =   3 4 1 2 3 2 3 2 −7   AC =   1 2 0 1 1 0 −1 4 0     1 2 3 1 1 −1 1 1 1   =   3 4 1 2 3 2 3 2 −7   iv) Se as matrizes A e B são do tipo m × p e p × n, respectivamente, então 1. (AB)T = BT AT ; 2. AB = A · B; 3. (AB)∗ = B∗ A∗ . No caso das matrizes quadradas, An , para todo n ∈ N, existe, já que A é encadeada com A, A2 , A3 , . . .. Ainda no caso das matrizes quadradas de ordem n, se AB = BA = In, B é a matriz inversa de A em MK(n, n), isto é, B = A−1 e A = B−1 . Neste caso, as matrizes A e B dizem-se regulares ou invertı́veis. Se A ∈ MK(n, n) não é regular, diz-se singular. Operações Elementares com as Filas de uma Matriz. Condensação Definição 2.8 Numa matriz, duas filas paralelas dizem-se dependentes se são iguais ou se uma é igual ao produto da outra por um escalar. Ainda, se uma fila é igual à soma de outras filas paralelas ou à soma dos produtos de outras filas paralelas por escalares, diremos que essas filas paralelas são dependentes. Caso contrário, as filas dizem-se independentes. Definição 2.9 Chama-se caracterı́stica de uma matriz A à ordem máxima da submatriz de A constituı́da pelas filas independentes. Para se encontrar a caracterı́stica de uma matriz é necessário ter em conta o seguinte: 1. Teorema 2.10 A dependência ou independência das linhas ou colunas de uma matriz não é alterada por alguma das seguintes operações ditas elementares: O1 Troca entre si de duas filas paralelas. 17
  • 19. O2 Multiplicação dos elementos de uma fila por um escalar de K {0}. O3 Adição, aos elementos de uma fila, dos produtos dos elementos correspondentes de uma fila paralela por um mesmo escalar de K. 2. Uma matriz que tenha uma submatriz triangular (ou diagonal), com elementos principais não nulos, e as restantes filas com elementos todos nulos tem caracterı́stica igual ao número de filas dessa submatriz. Utilizando-se 1. e 2., podemos determinar a caracterı́stica de uma matriz. Efectua-se, assim, a condensação da matriz. Exercı́cio: Determine a caracterı́stica da matriz A =   0 −3 2 1 −2 2 2 0 1 2 −4 3   . Em geral, dada uma matriz A =     a11 a12 · · · a1n a21 a22 · · · a2n · · · · · · · · · · · · am1 am2 · · · amn     , podemos, por condensação, obter         b11 b12 · · · b1r · · · b1n 0 b22 · · · b2r · · · b2n · · · · · · · · · · · · · · · · · · 0 · · · 0 brr · · · brn · · · · · · · · · · · · · · · · · · 0 0 · · · · · · · · · 0         ou         c11 0 · · · 0 · · · 0 c21 c22 · · · 0 · · · 0 · · · · · · · · · · · · · · · · · · cr1 · · · · · · crr · · · 0 · · · · · · · · · · · · · · · · · · 0 0 · · · · · · · · · 0         ou         d11 0 · · · · · · · · · 0 0 d22 0 · · · · · · 0 · · · · · · · · · · · · · · · · · · 0 · · · 0 drr · · · 0 · · · · · · · · · · · · · · · · · · 0 0 · · · · · · · · · 0         . 18
  • 20. Qualquer destas matrizes tem r filas independentes e quaisquer r + 1 filas passam a ser dependentes. Logo, Car A = r. Aplicação à Resolução de Sistemas de Equações Lineares Considere-se um sistema de m equações com n incógnitas:    a11x1 + a12x2 + · · · + a1nxn = b1 · · · · · · · · · · · · · · · · · · am1x1 + am2x2 + · · · + amnxn = bm Observe-se que fazendo A =      a11 a12 · · · a1n a21 a22 · · · a2n . . . · · · · · · · · · am1 am2 · · · amn      (Matriz dos Coeficientes), B =      b1 b2 . . . bm      (Matriz dos Termos Independentes) e X =      x1 x2 . . . xn      , o sistema de equações é equivalente à equação matricial AX = B. Sabemos que as operações elementares transformam o sistema dado num sistema equiva- lente. Assim, podemos encontrar a(s) solução(ões), caso exista(m), aplicando o método de condensação à matriz ampliada ou completa: [A|B] =    a11 · · · a1n | b1 . . . · · · . . . | . . . am1 · · · amn | bm    . Atenção: A troca de duas colunas em A correspondem a uma troca de incógnitas. Condensando [A|B], ou melhor, condensando A, até determinar a sua caracterı́stica r, temos: 1o Caso: m = n = r      α11 α12 · · · α1n | β1 0 α22 · · · α2n | β2 · · · ... ... · · · | . . . 0 · · · 0 αnn | βn      19
  • 21. ou, até à forma diagonal,      γ11 0 · · · 0 | δ1 0 γ22 · · · 0 | δ2 · · · · · · ... · · · | . . . 0 · · · 0 γnn | δn      e ainda       1 0 · · · 0 | δ1 γ11 0 1 · · · 0 | δ2 γ22 · · · · · · ... · · · | . . . 0 · · · 0 1 | δn γnn       isto é,            x1 = δ1 γ11 x2 = δ2 γ22 . . . xn = δn γnn , que é a solução do sistema inicial. Diz-se então que é um sistema possı́vel e determinado. 2o Caso: m = r n Neste caso temos,      α11 α12 · · · α1r | · · · α1n | β1 0 α22 · · · α2r | · · · α2n | β2 · · · ... ... · · · | · · · · · · | . . . 0 · · · 0 αrr | · · · αrn | βr      →      γ11 0 · · · 0 | · · · γ1n | δ1 0 γ22 · · · 0 | · · · γ2n | δ2 · · · ... ... · · · | · · · · · · | . . . 0 · · · 0 γrr | · · · γrn | δr      → →       1 0 · · · 0 | · · · γ1n γ11 | δ1 γ11 0 1 · · · 0 | · · · γ2n γ22 | δ2 γ22 · · · · · · ... · · · | · · · · · · | . . . 0 · · · 0 1 | · · · γrn γrr | δr γrr       , isto é,      x1 = δ1 γ11 − Pn j=r+1 γ1j γ11 xj . . . xr = δr γrr − Pn j=r+1 γrj γrr xj As r incógnitas, ditas principais, dependem das restantes n − r incógnitas não princi- pais. Assim, o sistema diz-se possı́vel indeterminado, sendo n − r o grau de indeter- minação. 20
  • 22. 3o Caso: Se r m, temos que              α11 α12 · · · α1r | · · · α1n | β1 0 α22 · · · α2r | · · · α2n | β2 · · · ... ... · · · | · · · · · · | . . . 0 · · · 0 αrr | · · · αrn | βr −− −− −− −− | −− −− | −− 0 · · · · · · 0 | 0 · · · · · · 0 | βr+1 · · · · · · · · · · · · | · · · · · · | . . . 0 · · · · · · 0 | 0 · · · · · · 0 | βm              e duas possibilidades: 1. βr+1 = · · · = βm = 0; 2. βr+1, . . . , βm não todos nulos. 1. Se as últimas m − r linhas somente têm elementos nulos, as equações transformam-se em 0 = 0. Logo, fica      α11 α12 · · · α1r | · · · α1n | β1 0 α22 · · · α2r | · · · α2n | β2 · · · ... ... · · · | · · · · · · | . . . 0 · · · 0 αrr | · · · αrn | βr      e tal como antes, sistema possı́vel determinado, se r = n, indeterminado, se r n, com grau de indeterminação n − r. 2. Se nas últimas equações algum βj 6= 0, obtemos 0x1 + 0x2 + · · · + 0xn = βj. Logo, o sistema é impossı́vel. Neste caso, a caracterı́stica de [A|B] é maior que r, isto é, maior do que a caracterı́stica de A. Em Resumo: Sistema Possı́vel: Car A = Car[A|B] Sistema Possı́vel    Determinado, se Car A = n, Indeterminado, se Car A n, com grau de indeterminação n − Car A. Sistema Impossı́vel: Car A Car[A|B] Exercı́cios: 1. Resolva e classifique o seguinte sistema:    2x − y − z = 1 x + y − z = 2 −x + 2y + 2z = 4 21
  • 23. 2. Considere o sistema de equações lineares sobre R, nas incógnitas x, y, z e t:        x = a − b 5ax − 2by + az + t = 1 −bz = 1 −3ax + 2by − az + (b − a)t = 2a − 1 Utilizando o método de condensação, discuta o sistema em função dos parâmetros a e b. Cálculo da Matriz Inversa de uma Matriz Regular Seja A uma matriz quadrada de ordem n. Sabemos que A é regular (isto é, invertı́vel) se existe uma matriz quadrada, com a mesma ordem, B tal que AB = BA = I. Vamos determinar a matriz B tal que AB = I e em seguida mostraremos que essa matriz B também é inversa à esquerda, isto é, BA = I. Representemos B por X, e Xj e Ij, respectivamente, as j-ésimas colunas de X e I. Assim, a equação matricial AX = I é equivalente a n sistemas de equações lineares: AXj = Ij j = 1, . . . , n Pelo que vimos anteriormente, tais sistemas têm solução única se, e somente se, Car A = n. Cada um dos sistemas é resolvido passando da matriz ampliada [A|Ij] para a matriz [I|Xj]. Isto é equivalente à passagem de [A|I] para [I|X] efectuando as operações elementares nos n sistemas. Exercı́cio: Determine a inversa à direita da matriz A =   2 0 2 −1 1 −3 0 2 1   . Mostremos agora que a existência de uma inversa à direita garante a existência de inversa à esquerda e que elas são iguais. Sabemos que se A tem inversa X à direita se, e somente se, Car A = n (ordem de A). Desta forma, AT também tem inversa à direita, digamos Y, isto é, AT Y = I. Logo, AT Y T = IT ⇔ Y T A = I, isto é, a matriz A tem inversa à esquerda. 22
  • 24. Agora basta mostrar que Y T = X. Ora, Y T A = I implica Y T AX = IX ⇔ Y T (AX) = X ⇔ Y T I = X ⇔ Y T = X. Portanto, concluı́mos que a inversa à esquerda é igual à inversa à direita. Chamar-lhe- -emos apenas inversa de A e representa-se por A−1 . Sistemas Homogéneos Seja A ∈ MK(m, n). Se no sistema AX = B, a matriz B é a matriz nula (B = 0), estamos perante um sistema de equações lineares homogéneo (AX = 0) onde todas as equações são homogéneas de grau 1. É evidente que todo o sistema homogéneo é um sistema possı́vel: admite sempre a solução nula (X = 0), pelo menos! Assim, sendo r a caracterı́stica de A, se r = n, o sistema é possı́vel e determinado, tendo somente a solução nula, X = 0. se r n, o sistema é possı́vel indeterminado, admite soluções não nulas. Suponhamos que A é uma matriz quadrada de ordem n. Então temos o seguinte resultado: Teorema 2.11 A é regular se, e somente se, AX = 0 só tem a solução X = 0. Demonstração: Exercı́cio. Propriedades da Inversão de Matrizes 1. Se A é regular, também o é A−1 e (A−1 ) −1 = A. 2. Um produto de matrizes quadradas é invertı́vel se, e somente se, cada factor é invertı́vel e (A1 . . . Ak)−1 = A−1 k . . . A−1 1 . 3. Se A é regular, Ak −1 = (A−1 ) k . 4. Se A é regular, então AT , A e A∗ também são regulares e temos que AT −1 = A−1 T ; A −1 = A−1; (A∗ )−1 = A−1 ∗ . Definição 2.12 Uma matriz quadrada A é dita i) ortogonal se A−1 = AT , isto é, AT A = I = AAT . ii) unitária se A−1 = A∗ , isto é, A∗ A = I = AA∗ . Exemplo: A matriz √ 2 2 − √ 2 2 √ 2 2 √ 2 2 # é ortogonal (e unitária). 23
  • 25. 3 ESPAÇOS VECTORIAIS. APLICAÇÕES LINEARES. Definição 3.1: Seja K um corpo. Diz-se que um conjunto E, não vazio, é um espaço vectorial ou um espaço linear sobre K se nele estão definidas duas leis de composição: a) Uma lei de composição interna, dita adição, a respeito da qual E é um grupo abeliano. b) Uma lei de composição externa, isto é, uma aplicação de E K × ( , α em E, denominada multiplicação escalar, que associa a todo par ordenado , com ) x K ∈ α e , E x ∈ um elemento , E x ∈ α satisfazendo as propriedades: i) ( ) y x y x , E y , x , K α + α = + α ∈ ∀ ∈ α ∀ (Distributividade da multiplicação escalar relativamente à adição em E). ii) ( ) x x x , E x , K , β + α = β + α ∈ ∀ ∈ β α ∀ (Distributividade da multiplicação escalar relativamente à adição em K). iii) ( ) ( ) x x , E x , K , β α = αβ ∈ ∀ ∈ β α ∀ (Associativadade da multiplicação escalar). iv) x (1 é o elemento unidade de K). x 1 , E x = ⋅ ∈ ∀ Os elementos de K denominam-se escalares e os elementos de E vectores. No caso de K ser o corpo IR, dos números reais, diz-se que E é um espaço vectorial real. No caso de K ser o corpo C , dos números complexos, diz-se que E é um espaço vectorial complexo. Por vezes, o elemento neutro E 0∈ é designado por origem ou zero de E. Exemplos: 1. O conjunto dos vectores livres do espaço ordinário é um espaço vectorial real com as operações usuais: - Adição: A soma , resultado da adição dos vectores v u r r + u r e , é definida pela regra do paralelogramo. v r - Multiplicação escalar: u r α é o vector com a direcção de u r , sentido de se u r α é positivo e sentido oposto se α é negativo e cujo comprimento é dado pelo produto do módulo do número real α pelo comprimento de u r . 2. IR é um espaço vectorial real. 3. C é um espaço vectorial real. 4. C é um espaço vectorial complexo. 5. IR não é um espaço vectorial complexo. 6. Seja K um corpo. Para cada IN, o conjunto K ∈ n n ( ) { ∈ = i n 2 1 x : x , , x , x K K , é um espaço vectorial sobre K relativamente às operações (ditas usuais): } n , , 2 , 1 i K = - Adição: definida pela relação ( ) ( ) ( ) n n 2 2 1 1 n 2 1 n 2 1 y x , , y x , y x y , , y , y x , , x , x + + + = + K K K ; 24
  • 26. - Multiplicação escalar: definida por ( ) ( ) n 2 1 n 2 1 x , , x , x x , , x , x α α α = α K K ; (em que as operações que figuram nos n-uplos dos segundos membros das igualdades anteriores são as operações adição e multiplicação em k). Nota: Dado um corpo K, sempre que seja feita referência ao espaço vectorial K n sobre o corpo K, assumiremos que as operações consideradas são as usuais, a menos que seja dito o contrário. 7. Para cada n IN , o conjunto IR ∈ n (respectivamente, C n ) é um espaço vectorial real (respectivamente, complexo). 8. Para cada IN,o conjunto C ∈ n n é um espaço vectorial real. 9. O conjunto de todos os polinómios na variável x, com coeficientes em K, de grau não superior a n ( IN) é um espaço vectorial sobre K (K = IR ou K = C ) com as operações definidas por: ∈ n ( ) ( ) ( ) ( ) ( ) ( ) n n n 2 2 2 1 1 0 0 n n 2 2 1 0 n n 2 2 1 0 x b a x b a x b a b a x b x b x b b x a x a x a a + + + + + + + + = = + + + + + + + + + L L L e ( ) ( ) ( ) ( ) ( n n 2 2 1 0 n n 2 2 1 0 x a x a x a a x a x a x a a α + + α + α + α = + + + + α L L ) . 10. O conjunto de todos os polinómios na variável x, com coeficientes em K, é um espaço vectorial sobre K, com as operações definidas de forma análoga às definidas em 9 (ditas usuais). Propriedades dos Espaços Vectoriais: 1. ( ) y x y x , E y , x , K α − α = − α ∈ ∀ ∈ α ∀ De facto, tem-se ( ) ( ) [ ] x y y x y y x α = + − α = α + − α , atendendo-se à propriedade i) da multiplicação escalar e a ( ) + , E ser um grupo. 2. 0 0 , K = α ∈ α ∀ É um caso particular de 1. para . y x = 3. ( ) ( ) y y , E y , K α − = − α ∈ ∀ ∈ α ∀ É um caso particular de 1. para . 0 x = 4. ( ) x x x , E x , K , β − α = β − α ∈ ∀ ∈ β α ∀ De facto, tem-se ( ) ( ) [ ] x x x x α = β + β − α = β + β − α 25
  • 27. atendendo-se à propriedade ii) da multiplicação escalar e a K ser um corpo. 5. 0 x 0 , E x = ∈ ∀ É um caso particular de 4. para . β = α 6. ( ) ( ) x x , E x , K β − = β − ∈ ∀ ∈ β ∀ É um caso particular de 4. para . 0 = α 7. 0 x 0 0 x , E x , K = ∨ = α ⇔ = α ∈ ∀ ∈ α ∀ Demonstração: Exercício. Definição 3.2: Seja K um corpo e E um espaço vectorial sobre K. Se S é um subconjunto não vazio de E e se é um espaço vectorial sobre K relativamente às mesmas operações definidas em E, então diz-se que S é um subespaço vectorial de E. Exemplos: 1. IRé um subespaço vectorial real do espaço vectorial real C . 2. O espaço vectorial dos polinómios reais de grau não superior a 3 é subespaço vectorial do espaço vectorial dos polinómios de grau não superior a 6, etc.. 3. Qualquer que seja o espaço vectorial E, o conjunto { } 0 e E são subespaços vectoriais de E. Teorema 3.3: Um subconjunto S, não vazio, do espaço vectorial E é subespaço vectorial se, e somente se, S é fechado relativamente às leis de composição definidas em E, isto é, S satisfazendo às condições: E ⊂ a) , ∅ ≠ S b) , S y x , S y , x ∈ + ∈ ∀ c) , S x , S x , K ∈ α ∈ ∀ ∈ α ∀ é um subespaço vectorial de E. Demonstração: Exercício. Exercício: Considere os seguintes conjuntos ( ) { ∈ = z , y , x A IR 3 : z } 0 = e ( ) { ∈ = z , y , x B IR 3 : } 0 z y x ≠ + + . Averigúe se são ou não subespaços vectoriais de IR 3 . Teorema 3.4: Seja E um espaço vectorial definido sobre um corpo K e seja { } um conjunto de subespaços vectoriais de E. Então I i : Si ∈ I I i i S S ∈ = 26
  • 28. é também um subespaço vectorial de E. Demonstração: Exercício. Seja E um espaço vectorial sobre um corpo K e E x , , x , x n 2 1 ∈ K . Todo o vector v que se pode exprimir sob a forma n n 2 2 1 1 x x x v α + + α + α = L , com , i diz-se combinação linear dos vectores , K i ∈ α n , , 1 K = . x , , x , x n 2 1 K Analogamente, se A é um subconjunto de E, então qualquer vector de E da forma n n 2 2 1 1 x x x α + + α + α L , com e K , , , n 2 1 ∈ α α α K , A x , , x , x n 2 1 ∈ K diz-se combinação linear (finita) de elementos de A. Obs.: É óbvio que qualquer elemento de A é combinação linear de elementos de A. De facto, se podemos escrever , A x ∈ , x 0 x 0 x 1 x n 2 ⋅ + + ⋅ + ⋅ = L com . A x , , x , x n 3 2 ∈ K Exercício: Dados os vectores, em IR 4 , ( b , a , 1 , 1 u = ) ( ) 3 , 1 , 1 , 3 v = ( ) 5 , 1 , 0 , 2 w = , determine o valor das constantes a e b por forma a ser possível escrever o vector u como combinação linear dos vectores v e w. Teorema 3.5: Seja E um espaço vectorial sobre um corpo K e A uma parte não vazia de E. O conjunto F de todas as combinações lineares de elementos de A é o “menor” subespaço vectorial de E que contém A. Demonstração: Exercício. Sendo A uma parte não vazia do espaço vectorial E definido sobre um corpo K, o subespaço F de E formado por todas as combinações lineares de elementos de A diz-se subespaço gerado por A, ou, também, que A gera o subespaço F. No caso de F coincidir com o próprio E, diz-se que os vectores de A constituem um sistema de geradores de E. Notação: O subespaço gerado por A representa-se por A ou [ ] A ou ainda , x , , x , x n 2 1 K se . { } n 2 1 x , , x , x A K = Em resumo: se F for o subespaço gerado pelo conjunto { } n 2 1 x , , x , x K , 27
  • 29. , K : x x , , x , x F i n 1 i i i n 2 1       ∈ α α = = ∑ = K isto é, todo o vector de F é combinação linear dos vectores . n 2 1 x , , x , x K Exercícios: 1. Considere os vectores do espaço vectorial real IR 3 ( ) 3 , 2 , 1 x1 = e ( ) 1 , 1 , 2 x2 − = . Escreva uma condição que caracterize o subespaço F de IR 3 gerado por . { } 2 1 x , x A = 2. No espaço vectorial IR 4 , considere os conjuntos ( ) (       − − − −       − − = 0 , 1 , 1 , 0 , 1 , 2 , 2 , 1 , 2 1 , 1 , 1 , 2 1 B ) e ( ) ( ) { } 0 , 1 , 1 , 0 , 2 , 0 , 0 , 2 C = . Mostre que B e C geram o mesmo subespaço vectorial de IR 4 . Exemplos: 1. No espaço dos vectores OP de um plano, dois vectores quaisquer desse plano não colineares são geradores do espaço. 2. Os vectores ( ) ( ) ( ) ( ) 1 , 1 , 1 e 1 , 0 , 0 , 0 , 1 , 0 , 0 , 0 , 1 são geradores de IR 3 . 3. Também geram IR ( ) ( ) ( 1 , 0 , 0 e 0 , 1 , 0 , 0 , 0 , 1 ) 3 . 4. Em geral, o espaço vectorial IR n é gerado pelos n vectores ( ) ( ) ( ) 1 , 0 , , 0 , 0 , 0 e 0 , 0 , , 0 , 1 , 0 e 0 , 0 , , 0 , 0 , 1 e n 2 1 K K K K K K K K K K = = = 5. IR é gerado por qualquer número real não nulo. 6. O espaço real C é gerado por { } i 1 , i , 1 + e também por { } i , 1 , pois a i b 1 a bi ⋅ + ⋅ = + . 7. O espaço complexo C é gerado por qualquer número complexo não nulo. Observem-se os exemplos 2. e 3.. Repare-se que o número de vectores no exemplo 3. é o menor número de vectores que geram o espaço. O mesmo já não acontece no exemplo 2. porque ( ) ( ) ( ) ( ) 1 , 0 , 0 1 0 , 1 , 0 1 0 , 0 , 1 1 1 , 1 , 1 ⋅ + ⋅ + ⋅ = . Diremos por isso, como vamos ver, que os quatro vectores são linearmente dependentes. Definição 3.6: Os vectores x dizem-se linearmente dependentes se existem escalares não todos nulos tais que n 2 1 x , , x , K n 2 1 , , , α α α K 0 x x n n 1 1 = α + + α L . Esses vectores dizem-se linearmente independentes se a combinação linear nula só acontece quando todos os escalares são nulos, isto é, 28
  • 30. 0 0 x x n 2 1 n n 1 1 = α = = α = α ⇒ = α + + α L L . Proposição 3.7: Os vectores são linearmente dependentes se, e somente se, algum deles é combinação linear dos restantes. n 2 1 x , , x , x K Demonstração: Exercício. Exercícios: 1. Verifique se os vectores ( ), 1 , 1 , 0 , 1 ( ) 0 , 1 , 3 , 2 , ( ) 1 , 1 , 1 , 2 − e ( ) 0 , 0 , 0 , 1 são linearmente inde- pendentes. 2. Verifique se os elementos do espaço vectorial real P3(x) (conjunto dos polinómios reais de grau menor ou igual a 3) 1, , 2 x 2 x − 3 2 x x + , 3 x 2 x + são linearmente independentes. Propriedades: 1. Se os vectores são linearmente dependentes, então qualquer conjunto finito de vectores que os contenha é um conjunto de vectores linearmente dependentes. n 2 1 x , , x , x K 2. Dados n vectores, se um deles é o vector nulo, então os n vectores são linearmente dependentes. Pois, 1 0 x 0 x 0 0 1 n 1 = ⋅ + + ⋅ + ⋅ − L . 3. Qualquer subconjunto de um conjunto de n vectores linearmente independentes, é formado por vectores linearmente independentes. n 2 1 x , , x , x K 4. A dependência ou independência linear de n vectores não se altera por qualquer troca na ordem pela qual estes vectores são indicados. n 2 1 x , , x , x K 5. A dependência ou independência linear de n vectores não se altera quando a um deles se adiciona uma combinação linear de qualquer número dos restantes. Depois destas considerações, podemos afirmar que os geradores ( ) ( ) ( ) 1 , 0 , 0 , 0 , 1 , 0 , 0 , 0 , 1 de IR 3 são linearmente independentes, mas os geradores ( ) ( ) ( ) ( ) 1,1,1 , 1 , 0 , 0 , 0 , 1 , 0 , 0 , 0 , 1 são linearmente dependentes. Definição 3.8: Chama-se base do espaço vectorial E a um conjunto de geradores de E linearmente independentes. Obviamente, excluindo o caso em que { } 0 E = , os vectores de uma base são não nulos. Definição 3.9: Um espaço vectorial E sobre um corpo K diz-se finitamente gerado se admite um conjunto de geradores finito. Nota: Somente trabalharemos no contexto dos espaços vectoriais finitamente gerados. 29
  • 31. Teorema 3.10: Todo o espaço vectorial { } 0 E ≠ finitamente gerado admite uma base. Teorema 3.11: Todas as bases de um espaço vectorial E finitamente gerado têm o mesmo número de elementos. Definição 3.12: Seja E um espaço vectorial finitamente gerado sobre um corpo K. O número de elementos de qualquer base de E diz-se dimensão de E e designa-se por , ou apenas . Por convenção, ( ) E dimK ( ) E dim { } ( ) 0 0 dim = . Definição 3.13: Dado um espaço vectorial E sobre um corpo K e { } n 2 1 x , , x , x K E x uma base de E, chamam-se componentes ou coordenadas de um vector ∈ relativamente à base considerada aos escalares n 2 1 , , , α α α K que surgem na combinação linear ∑ = α = n 1 i i ix x . Teorema 3.14: Um conjunto de vectores { } n 2 1 x , , x , x K é uma base de um espaço vectorial E se, e somente se, cada vector x se exprime de forma única como combinação linear dos vectores x , isto é, E ∈ n 2 1 x , , x , K ∑ = α = n 1 i i ix x , com únicos. n 2 1 , , , α α α K Demonstração: Exercício. Exemplos: 1. Em IR 2 são bases ( ) ( ) { } 1 , 0 , 0 , 1 , ( ) ( ) 1 , 1 , 0 , 1 { }, etc. 2. No espaço K n sobre o corpo K, chama-se base canónica à base ( ) ( ) ( ) { } 1 , 0 , , 0 , 0 , , 0 , 0 , , 1 , 0 , 0 , 0 , , 0 , 1 K K K K . 3. No espaço real C , { é uma base: tem dimensão 2. O espaço complexo C tem dimensão 1. } } } } } i , 1 Teorema 3.15: Sejam E um espaço vectorial sobre um corpo K de dimensão igual a n e um conjunto de n vectores de E. Então, as seguintes afirmações são equivalentes: { n 2 1 e , , e , e K a) é uma base de E; { n 2 1 e , , e , e K b) é um conjunto de geradores de E; { n 2 1 e , , e , e K c) é um conjunto de vectores linearmente independentes de E. { n 2 1 e , , e , e K Demonstração: Exercício. 30
  • 32. Exercícios: 1. Indique a condição a que deve satisfazer λ de modo a que os vectores ( ), ( ) e constituam uma base de IR 1 , 0 , 1 0 , , 0 λ ( λ , 0 , 1 ) 3 . 2. Considere o seguinte subespaço vectorial do espaço vectorial IR 4 : ( ) { ∈ = t , z , y , x A IR 4 : } 0 t z y x = + − − . Determine uma base e a dimensão do subespaço A. Pelo que vimos anteriormente, fixada uma base { } n 2 1 e , , e , e K no espaço E, cada vector de E fica bem definido pelas suas coordenadas, isto é, pelos escalares que aparecem em: ( ) n 2 1 , , , α α α K ou [ ] n 2 1 α α α L ou em .             α α α n 2 1 M Exemplo: No espaço dos polinómios de grau não superior a 3, { } 3 2 x , x , x , 1 é uma base. Nesta base, as coordenadas do polinómio são 3 2 x 5 x 4 x 2 − + + − [ ] 5 4 1 2 − − . Aplicações Lineares Definição 3.16: Sejam E e F dois espaços vectoriais definidos sobre o mesmo corpo K e ϕ uma aplicação de E em F. Se é tal que ϕ ( ) ( ) ( ) y x y x , E y , x ϕ + ϕ = + ϕ ∈ ∀ ( ) ( ) x x , E x , K αϕ = α ϕ ∈ ∀ ∈ α ∀ então diz-se que é uma aplicação linear, um homomorfismo ou uma transformação linear de E em F. ϕ Uma aplicação linear de E em E diz-se um endomorfismo. Um aplicação linear bijectiva diz-se também um isomorfismo de E em F. Caso exista esse isomorfismo diz-se que E e F são espaços isomorfos. Um isomorfismo de E em E denomina-se automorfismo. Observação: Pode mostrar-se que as duas proposições da definição de aplicação linear são equivalentes à proposição: ( ) ( ) (y x y x , E y , x , K , ) βϕ + αϕ = β + α ϕ ∈ ∀ ∈ β α ∀ . Exemplos: 31
  • 33. 1. A aplicação f de IR 3 em IR 2 definida por ( ) ( ) z y x , x z , y , x f + + = . 2. Homotetia (em IR 3 ): . ( ) ( z 2 , y 2 , x 2 z , y , x a ) 3. Rotação (em IR 2 ): ( ) ( x , y y , x − a ) (rotação de 2 π ) ou ( ) ( ) ( )         + − 2 y x 2 , 2 y x 2 y , x a (rotação de 4 π ) Exercício: Verifique se a seguinte aplicação é linear: : f IR 3 → IR 2 ( ) ( ) z y , y x z , y , x − − a . Representaremos por L o conjunto de todas as aplicações lineares de E em F, com E e F espaços vectoriais sobre um mesmo corpo K. ( F , E ) Observação: Prova-se que o conjunto L ( ) F , E é um espaço vectorial sobre K, para as operações: Adição: ∈ ψ ϕ, ∀ L , ( ) F , E ( )( ) ( ) ( ) x x x ψ + ϕ = ψ + ϕ . Multiplicação Escalar: ∈ ϕ ∀ ∈ α ∀ , K L ( ) F , E , ( )( ) ( ) [ ] x x ϕ α = αϕ . Propriedades das Aplicações Lineares: Sejam ∈ ϕ L ( ) F , E e ψ L ∈ ( ) G , F , com E, F e G espaços vectoriais sobre o mesmo corpo K. 1. ( ) . 0 0 = ϕ 2. é uma aplicação linear de E em G. ϕ ψ o 3. é um subespaço vectorial de F. ( ) E ϕ 4. , denominado núcleo da aplicação linear ϕ , é um subespaço vectorial de E. { } ( ) ( ) { 0 x : E x 0 N 1 = ϕ ∈ = ϕ = − ϕ } 5. ( ) ( ) ( ) ( ) E dim N dim E dim ϕ + = ϕ . 6. A aplicação é injectiva se, e somente se, ϕ { } 0 N = ϕ . Exercício: Considere a aplicação linear : f IR 3 → IR 2 ( ) ( ) z y , y x z , y , x − − a . a) Determine . A aplicação f é injectiva? f N b) Determine dim (f (IR 3 )). Teorema 3.17: Sejam E e F dois espaços vectoriais sobre o mesmo corpo K, { } uma base de E e uma aplicação linear de E em F. Sejam f respectivamente, as imagens por dos vectores da base de E, isto é, n 2 1 e , , e , e K ϕ , f , , f , n 2 1 K ϕ n 2 1 e , , e , e K 32
  • 34. ( ) i i f e = ϕ ( ) n , , 2 , 1 i K = Então podemos afirmar que: a) é injectiva se, e somente se, f são linearmente independentes. ϕ n 2 1 f , , f , K b) é sobrejectiva se, e somente se, f geram F. ϕ n 2 1 f , , f , K c) é bijectiva se, e somente se, f constituem uma base de F. ϕ n 2 1 f , , f , K Demonstração: Exercício. Definição 3.18: Sejam E e F dois espaços vectoriais (de dimensão finita) sobre um mesmo corpo K. Chama-se característica de uma aplicação linear ϕ de E em F, à dimensão do subespaço ϕ . ( ) E Matriz de uma Aplicação Linear Sejam E e F dois espaços vectoriais (de dimensão finita) sobre um mesmo corpo K, uma base de E, { uma base de F e { n 2 1 e , , e , e K } } m 2 1 f , , f , f K ∈ ϕ L ( ) F , E . Os vectores ( ) j e ϕ , com pertencem ao espaço F e como é uma base de F, então os vectores , n , , 2 , 1 j K = { } m 2 1 f , , f , f K ( ) j e ϕ podem representar-se de maneira única como combinação linear desses vectores, ( ) ∑ = = ϕ m 1 i i ij j f a e ( ), n , , 2 , 1 j K = onde cada designa a coordenada do vector K aij ∈ ( ) j e ϕ , relativamente ao vector da base de F. Isto é, tem-se i f ( ) ( ) ( ) m mn 2 n 2 1 n 1 n m 2 m 2 22 1 12 2 m 1 m 2 21 1 11 1 f a f a f a e f a f a f a e f a f a f a e + + + = ϕ + + + = ϕ + + + = ϕ L K K K K K K K K K K K K K L L Desta forma, podemos escrever as coordenadas de cada vector ( ) j e ϕ na forma matricial             = mn 2 m 1 m n 2 22 21 n 1 12 11 a a a a a a a a a A K K K K K K K sendo A a matriz, em que cada coluna j ( ) n , , 2 , 1 j K = é constituída pelas coordenadas do vector ( ) j e ϕ 1 e relativamente à base { , a matriz da aplicação linear em relação às bases { } e{ . Designa-se, em geral, A por } m f , } 2 1 , f , f K m f , ϕ n 2 e , , e , K 2 1 , f , f K ( ) } f { }, , M i ϕ e { j ou, apenas, por . ( ) ϕ M Observe-se agora o seguinte: seja E x ∈ e suponhamos que pretendemos determinar a imagem de x pela aplicação linear ϕ . Como { } n 2 1 e , , e , e K é uma base de E, podemos escrever 33
  • 35. n n 2 2 1 1 e e e x α + + α + α = L . Logo, atendendo a que ϕ é uma aplicação linear, podemos obter sucessivamente o seguinte: ( ) ( ) ( ) ( ) ( ) , f a f a f a f a f a e e e e e e x m 1 i i n 1 j j ij n 1 j m 1 i i ij j m 1 i i in n m 1 i i 2 i 2 m 1 i i 1 i 1 n n 2 2 1 1 n n 2 2 1 1 ∑ ∑ ∑ ∑ ∑ ∑ ∑ = = = = = = =         α = α = α + + α + α = ϕ α + + ϕ α + ϕ α = = α + + α + α ϕ = ϕ L L L Mas e, portanto, representa-se de maneira única como combinação linear dos vectores f da base de F, ( ) F x ∈ ϕ 2 1 , f , m f , K ( ) ∑ = β = β + + β + β = ϕ m 1 i i i m m 2 2 1 1 f f f f x L . Consequentemente, tem-se ∑ = α = β n 1 j j ij i a ( ) m , , 2 , 1 i K = e podemos escrever             α α α             =             β β β n 2 1 mn 2 m 1 m n 2 22 21 n 1 12 11 m 2 1 a a a a a a a a a M K K K K K K K M Observação: Pelo que vimos anteriormente, fixadas as bases em E e F, a aplicação linear ϕ fica bem definida pela matriz . ( ) ϕ M Teorema 3.19: Sejam E e F espaços vectoriais, de dimensões n e m, respectivamente, sobre um corpo K. A aplicação que associa a toda a aplicação Ψ ∈ ϕ L a matriz correspondente é uma aplicação bijectiva do espaço vectorial L no espaço vectorial , isto é, L ( F , E ( ) F , E ) ( ) ϕ M ( ) n , m MK : Ψ ( ) F , E → ( ) n , m MK , tal que ( ) ( ) ϕ = ϕ Ψ M , é bijectiva. Deste teorema podemos concluir que a cada aplicação linear está associada uma matriz e a cada matriz está associada uma aplicação linear. Assim, a característica de uma aplicação linear é igual à característica da matriz que lhe está associada. Mais, a característica de uma matriz é igual à dimensão do subespaço vectorial ( ) E ϕ , sendo ϕ a aplicação linear que lhe está associada. Exercício: Seja f IR : 3 → IR 2 tal que ( ) ( ) z y , y x z , y , x f − − = , uma aplicação linear. a) Determine a matriz de f relativamente às bases canónicas de IR 3 e IR 2 . 34
  • 36. b) A aplicação f tem inversa? Justifique. c) Calcule , usando: ( 3 , 2 , 1 f ) i) a definição de f; ii) a matriz de f. Matrizes de Mudança de Base Seja E um espaço vectorial sobre um corpo K. Suponhamos que E é de dimensão n e sejam { } n 2 1 e , , e , e K e { } n 2 1 e , , e , e ′ ′ ′ K duas bases de E. Como todo o vector de E se pode representar como combinação linear única dos vectores da base, podemos escrever ( ), n , 1,2, j e t e t e t e t e n 1 i i ij n nj 2 j 2 1 j 1 j K L = = + + + = ′ ∑ = e obter a matriz             = nn 2 n 1 n n 2 22 21 n 1 12 11 t t t t t t t t t T L L L L L L L , cuja coluna j é formada pelas coordenadas de ej ′ em relação à base { } n 2 1 e , , e , e K . Esta matriz denomina-se de matriz de transformação, matriz de mudança de base ou matriz de passagem da base para a base { n 2 1 e , , e , e K } { } n 2 e , , e , 1 e ′ ′ ′ K . Pode considerar-se T como a matriz da aplicação identidade em E relativamente às bases e { } n 2 1 e , , e , e ′ ′ ′ K { } n 2 1 e , , e , e K , isto é, ( ) } e { }, e { , id M T i j E ′ = . Seja x um vector de E. Então podemos escrever ∑ = α = α + + α + α = n 1 i i i n n 2 2 1 1 e e e e x L e ∑ = ′ β = ′ β + + ′ β + ′ β = n 1 j j j n n 2 2 1 1 e e e e x L . Logo, ∑ ∑ ∑ ∑ ∑ = = = = =         β = β = ′ β = n 1 i i n 1 j j ij n 1 j n 1 i i ij j n 1 j j j e t e t e x . Consequentemente, devido à unicidade das coordenadas do vector x relativamente à base , tem-se { } n 2 1 e , , e , e K 35
  • 37. ∑ = β = α n 1 j j ij i t ou β = α T , onde designa a matriz coluna e α [ T n 1 α α L ] β a matriz coluna [ ]T n 1 β β L . Analogamente, se T designar a matriz quadrada de ordem n cuja coluna j é formada pelas coordenadas de e relativamente à base ′ j { } n 2 1 e , , e , e ′ ′ ′ K , isto é, se T é a matriz de passagem da base { ′ } n 1 e , e ′ 2 , e , ′ ′ K para a base { } n 2 e , , e K 1, e , tem-se α ′ = β T . Combinando estas duas relações, tem-se             α α α ′ ⋅ =             β β β =             α α α n 2 1 n 2 1 n 2 1 T T T M M M e também             β β β ⋅ ′ =             α α α ′ =             β β β n 2 1 n 2 1 n 2 1 T T T M M M . Então , isto é, é a matriz inversa de T, ou seja T n I T T T T = ⋅ ′ = ′ ⋅ T′ 1 T− = ′ . Considere-se agora uma aplicação linear ∈ ϕ L ( ) F , E e vejamos que alterações ocorrem na matriz de ϕ quando se mudam as bases de E e F. Teorema 3.20: Sejam e { } n 2 1 e , , e , e K { } n 2 1 e , , e , e ′ ′ ′ K duas bases de E e T a matriz de passagem da base { } n 2 1 e , , e , K e para a base { } n 2 e , , e 1, e ′ ′ ′ K . Sejam { } e duas bases de F e S a matriz de passagem da base m 2 1 f , , f , f K { m 2 1 f , , f , f ′ ′ ′ K } { } m f , 2 1 , f , f K para a base . Seja A= { } m 2 1 f , , f , f ′ ′ ′ K ( ) } f { }, e { , i j ϕ M e A′ = ( ) } f { i }, e { , j M ′ ′ ϕ . Então podemos afirmar que T A S A 1 ⋅ ⋅ = ′ − . As matrizes A e , do tipo A′ n m× , por satisfazerem à relação ou à relação equivalente , com S e T matrizes regulares, de ordem m e n respectivamente, dizem-se matrizes equivalentes. T A S A 1 ⋅ ⋅ = ′ − 1 T A A − ⋅ ′ S⋅ = É óbvio que A e têm a mesma característica. No caso particular em que A′ , F E = isto é, no caso em que ∈ ϕ L , tem-se ( E , E ) T A T A 1 ⋅ ⋅ = ′ − , 36
  • 38. em que T é a matriz de passagem da base { } n 2 1 e , , e , e K para a base { } n 2 1 e , , e , e ′ ′ ′ K . As matrizes A e satisfazendo à relação A A′ T A T 1 ⋅ ⋅ = ′ − ou à equivalente em que T é regular, dizem-se matrizes semelhantes. , T A T A 1 − ⋅ ′ ⋅ = Exercício: Sejam E e F dois espaços vectoriais reais e { } 3 2 1 1 e , e , e B = e bases de E e F, respectivamente. Seja a aplicação linear tal que { 2 1 1 f , f B = ′ } ) F E : f → ( )       = ′ 0 1 1 1 0 1 B , B , f M 1 1 . Determine ( 2 2 B , B , f M ′ , onde { } 3 2 1 2 1 2 1 2 e e e , e e , e e B + + + − = e { } 2 2 1 2 f , f 2 f B − + = ′ são bases em E e F, respectivamente. Valores Próprios e Vectores Próprios Definição 3.21: Seja E um espaço vectorial sobre um corpo K e ϕ um endomorfismo de E. Um escalar λ é dito valor próprio de ϕ se existe algum vector em E tal que . Chama-se vector próprio de 0 x ≠ ( ) x x λ = ϕ ϕ associado ao valor próprio λ a todo o vector não nulo tal que . E x ∈ ( ) x x λ = ϕ Definição 3.22: Seja A uma matriz quadrada de ordem n. Um escalar λ é dito valor próprio de A se existe alguma matriz coluna X 0 ≠ , ( ) 1 , n M X K ∈ , tal que . Chama-se vector próprio de A associado ao valor próprio X AX λ = λ a toda a matriz não nula tal que . ( 1 , n MK ) X ∈ X AX λ = Evidentemente, a definição anterior é um caso particular da definição 3.21. Pois, a cada aplicação linear está associada uma matriz e basta designar ( ) 1 , n MK por E para que seja linear. AX X a Exemplos: 1. Se       = 2 1 0 2 A , 2 = λ e , temos       = 1 0 X X AX λ = . 2. Sejam ,           − − = 5 2 1 12 4 3 4 0 2 A 0 1 = λ , 1 2 = λ , 2 3 = λ ,          − = 1 2 3 2 X1 , e , com . Então           α α − = 0 4 X2      β β 0 IR , ∈ β α      = 2 X3 i i X i AX λ = , para i 3 , 2 , 1 = . Teorema 3.23: O conjunto dos vectores próprios de ∈ ϕ L ( ) E , E I λ − ϕ associado a um mesmo valor próprio acrescido do vector nulo é o subespaço de E (chamado subespaço K ∈ λ N 37
  • 39. próprio de associado a e à sua dimensão chama-se multiplicidade geométrica do valor próprio λ ). ϕ λ 1, λ Demonstração: Exercício. Teorema 3.24: Se os vectores próprios de um endomorfismo estão associados a distintos valores próprios , então os vectores são linearmente independentes. n 1 x , , x K n ,λ K Demonstração: Exercício. Corolário 3.25: Um endomorfismo de um espaço vectorial de dimensão n tem, no máximo, n valores próprios distintos. 38
  • 40. 4 DETERMINANTES Antes de iniciarmos o estudo da teoria dos determinantes, estudaremos alguns conceitos relacionados com permutações, essenciais à compreensão da dita teoria. Definição 4.1: Sejam n um número natural e { } n , , 2 , 1 A K = . Chama-se permutação de A a qualquer aplicação bijectiva de A em A. Observações: 1. O número de permutações de n elementos é igual a . ! n 2. Designaremos por o conjunto de todas as permutações de n elementos. (Veja a observação da página 2). n S Exemplos: 1. As permutações que pertencem a S são: 4         4 3 2 1 4 3 2 1         1 3 2 4 4 3 2 1 , , , , , , etc.         3 4 2 1 4 3 2 1         4 2 3 1 4 3 2 1         4 3 1 2 4 3 2 1         2 3 4 1 4 3 2 1 2. As permutações         4 2 1 5 3 6 6 5 4 3 2 1 e         4 6 3 1 2 5 6 5 4 3 2 1 pertencem a S . 6 É vulgar escrever-se ( em vez de , tornando a escrita mais simplificada. Repare-se que a escrita simplificada de uma permutação não é de forma alguma ambígua. ) ) ) 1 , 3 , 2         1 3 2 3 2 1 Teorema 4.2: ( é um grupo, onde o é a operação binária composição de aplicações. o , Sn Obs.: O grupo não é necessariamente comutativo. ( o , Sn Exemplo: Em S , 3         =                 2 1 3 3 2 1 3 1 2 3 2 1 2 3 1 3 2 1 o e 39
  • 41.         =                 1 3 2 3 2 1 2 3 1 3 2 1 3 1 2 3 2 1 o Definição 4.3: Uma transposição é uma permutação σ de S tal que n ( ) j i = σ e , para , e σ , ( ) i j = σ j i ≠ ( ) k k = j , i k ≠ ∀ . Exemplo: 1. A permutação    pode simplesmente escrever-se na forma , isto é,      2 4 3 5 1 5 4 3 2 1 ( 5 , 2 ) ) ( ) 5 , 2 2 4 3 5 1 5 4 3 2 1 =         . 2. Analogamente, podemos escrever ( )( )( ) ( )( 5 , 2 4 , 3 , 1 2 1 4 5 3 5 4 3 2 1 3 , 4 1 , 3 5 , 2 =         = Nota: Uma transposição é inversa de si própria. Teorema 4.4: Qualquer permutação de S ( ) é composição de transposições, isto é, se é um permutação, então n 2 n ≥ k σ 2 1 τ τ τ = σ o o o L , com , k , , 1 i , i K = τ transposições. Exemplos: 1. Em S , 2 ( 2 , 1 1 2 2 1 =         ) e ( )( ) 1 , 2 2 , 1 2 1 2 1 =         2. Em S , 5 ( ) ( )( )( ) 3 , 4 2 , 3 1 , 2 4 , 3 , 2 , 1 5 1 4 3 2 5 4 3 2 1 = =         . Definição 4.5: Diz-se que uma permutação é par se é decomponível num número par de transposições e ímpar se é decomponível num número ímpar de transposições. Observação: Embora a decomposição de uma permutação em composição de transposições não seja única, a paridade do número de transposições em cada decomposição é sempre a mesma. Isto é, se uma permutação σ é tal que k 2 1 τ τ τ = σ o L o o e m 2 1 π π π = σ o L o o , então ou k e m são números pares ou k e m são números ímpares. 40
  • 42. Exemplo: A permutação    é par já que, por exemplo,    .      1 4 2 3 4 3 2 1 ( )( 3 , 1 4 , 1 1 4 2 3 4 3 2 1 =      ) Teorema 4.6: Uma permutação não pode ser simultaneamente par e ímpar. Além da definição, existe um outro método, mais prático, para a determinação da paridade de uma permutação. Esse método é descrito no teorema que se segue. Antes, defina- -se para uma permutação , tal que n S ∈ σ r 2 1 τ τ τ = σ o L o o 1 , o seu sinal como ε . Se é par, ; se é ímpar, ( ) ( )r 1 − = σ σ ( ) 1 = σ ε σ ( ) − = σ ε . Teorema 4.7: Para qualquer permutação n S ∈ σ , tem-se ( ) ( ) ( ) , em que ν é o número de pares ( tais que 1 σ ν − = σ ε 1 ( ) σ ) j , i n j i ≤ ≤ e ( ) ( ) j i σ σ . Dizemos que o número ν (definido no teorema anterior) é o número de inversões de σ . ( ) σ Observação: É óbvio que uma permutação é par ou ímpar se o seu número de inversões é, respectivamente, par ou ímpar. Exercício: Determine a paridade das seguintes permutações a partir do teorema anterior: a) b)            3 1 2 4 4 3 2 1      5 6 2 1 4 3 6 5 4 3 2 1 Teorema 4.8: Para , tem-se: 2 n ≥ 1. Se é uma transposição, então n S ∈ τ ( ) 1 − = τ ε ; 2. ( ) ( ) (θ ε σ ε ) = θ σ ε ∈ θ σ ∀ o , S , n . Corolário 4.9: Se σ , então n S ∈ ( ) ( ) σ ε = σ ε −1 . Exercício: Determine a inversa da permutação         = σ 6 5 3 2 1 4 6 5 4 3 2 1 e verifique que ( ) ( ) σ ε = σ ε −1 . 41
  • 43. Funções Multilineares Definição 4.10: Seja K um corpo e n n n K K K × × × L o espaço vectorial constituído pelo produto cartesiano de n factores n K . Chama-se função n-linear ( ou multilinear) sobre n K a uma aplicação K K K K : f n n n → × × × L tal que ( ) ( ) ( ) n i 1 n i 1 n i i 1 x , , y , , x f x , , x , , x f x , , y x , , x f K K K K K K β + α = β + α , para , , isto é, f é linear em relação a cada um dos n argumentos. n i 1 ≤ ≤ n n 1 K x , , x , K , ∈ ∀ ∈ β α ∀ K Observação: A condição ( ) ( ) ( ) n i 1 n i 1 n i i 1 x , , y , , x f x , , x , , x f x , , y x , , x f K K K K K K β + α = β + α é equivalente a: ( ) ( ) ( ) n i 1 n i 1 n i i 1 x , , y , , x f x , , x , , x f x , , y x , , x f K K K K K K + = + e ( ) ( ) n i 1 n i 1 x , , x , , x f x , , x , , x f K K K K α = α . Exemplos: 1. IR : f 2 × IR 2 → IR, tal que, ( ) ( ) ( ) bd ac d , c , b , a f + = é bilinear. 2. IR : f 2 IR × 2 → IR , tal que, ( ) ( ) ( ) bc ad d , c , b , a f − = é bilinear. Pode provar-se que ( ) ( ) ( ) , c , b f d , a é a área do paralelogramo definido pelos vectores ( ) b , a e . ( ) d , c Pode facilmente verificar-se que aplicação bilinear do exemplo 2. satisfaz as propriedades: ( ) ( ) ( ) 0 b , a , b , a f = e ( ) ( ) ( ) ( ) ( ) ( ) b , a , d , c f d , c , b , a f − = , ao contrário da aplicação bilinear do exemplo 1.. Estas propriedades sugerem a seguinte definição: Definição 4.11: Uma função n-linear f diz-se alternada se para , x x j i = com , j i ≠ ( ) 0 x , , x , , x , , x f n j i 1 = K K K , isto é, anula-se sempre que dois dos vectores sejam iguais. Uma função n-linear f diz-se anti-simétrica se ( ) ( ) n i j 1 n j i 1 x , , x , , x , , x f x , , x , , x , , x f K K K K K K − = , isto é, uma troca de sinal corresponde a uma troca de posição de dois vectores. Teorema 4.12: Sejam K um corpo de característica diferente de 2 (isto é, um corpo que satisfaça a propriedade: 0 x 0 x x = ⇒ = + ) e uma função n-linear. Então as seguintes afirmações são equivalentes: K K K K : f n n n → × × × L a) f é anti-simétrica. b) f é alternada. c) Se e são linearmente dependentes, então i x j x ( ) 0 x , , x , , x , , x f n j i 1 = K K K . 42
  • 44. Observação: Se uma função n-linear é anti-simétrica e σ é uma permutação de S , então n ( ) ( ) ( ) ( ) ( ) ( ) n 2 1 n 2 1 x , , x , x f x , , x , x f K K σ ε = σ σ σ . A partir de agora consideraremos sempre um corpo K de característica diferente 2. O corpo dos reais ou dos complexos são considerados corpos de característica zero (ou infinita). Seja A uma matriz quadrada de ordem n sobre K, isto é,             = nn 2 n 1 n n 2 22 21 n 1 12 11 a a a a a a a a a A L L L L L L L . É evidente que uma matriz pode identificar-se com um elemento de n n n K K K × × × L n , bastando identificar cada uma das suas linhas, L como elementos de , L , , L , n 2 1 K K . Assim, no contexto de podemos definir a seguinte função n-linear: ( n , n MK ) Definição 4.13: Chama-se determinante de ( ) n , n M A K ∈ à função n-linear alternada das linhas de A definida por: [ ] ( ) ( ) ( ) ( ) ∑ ∈ σ σ σ σ ⋅ σ ε = = = n S n n 2 2 1 1 ij a a a A A det a A L a . Observação: O determinante de uma matriz quadrada não é mais do que a soma de todos os produtos de n elementos da matriz, correspondentes a cada uma das permutações de S , afectados pelo sinal da permutação correspondente. Assim, o número de parcelas é igual a n . n ! ] A partir da definição, podemos facilmente constatar que: - Se A , então . [ 11 a = 11 a A det = - Se A , então det       = 22 21 12 11 a a a a 21 12 22 11 a a a a A − = , já que S , sendo a permutação par e a permutação ímpar.                       = 1 2 2 1 , 2 1 2 1 2         2 1 2 1         1 2 2 1 Assim, o determinante de uma matriz quadrada de ordem 2 é igual à diferença entre o produto dos elementos principais e o produto dos elementos da diagonal secundária. - Se A , então           = 33 32 31 23 22 21 13 12 11 a a a a a a a a a 43
  • 45. 32 23 11 33 21 12 31 22 13 32 21 13 31 23 12 33 22 11 33 32 31 23 22 21 13 12 11 a a a a a a a a a a a a a a a a a a a a a a a a a a a − − − + + = , já que as permutações de S são: 3         3 2 1 3 2 1 , , , , , .         1 3 2 3 2 1         2 1 3 3 2 1         1 2 3 3 2 1         3 1 2 3 2 1         2 3 1 3 2 1 Em termos práticos, o cálculo do determinante de uma matriz quadrada de ordem 3 pode ser efectuado usando a Regra de Sarrus: as parcelas de sinal positivo do determinante são referentes ao produto dos elementos principais e aos produtos dos elementos que se dispõem nos vértices dos dois triângulos cuja base é paralela à diagonal principal, e as parcelas de sinal negativo do determinante são referentes ao produto dos elementos da diagonal secundária e aos produtos dos elementos que se dispõem nos vértices dos dois triângulos cuja base é paralela à diagonal secundária. Observe o esquema: 33 32 31 23 22 21 13 12 11 a a a a a a a a a Exercício: Calcule o determinante das seguintes matrizes: a) b) c)      − 1 3 5 2           − − − 3 3 1 1 2 1 4 0 2           − − − 1 2 3 2 4 2 1 2 1 No cálculo do determinante de uma matriz de ordem superior ou igual a 4 não é usual aplicar-se a definição de determinante, pois torna-se um cálculo fastidioso. No entanto, iremos estudar propriedades que facilitam esses cálculos. Antes dessas propriedades, estudemos agora as propriedades básicas dos determinantes. Propriedades dos Determinantes: Seja A uma matriz quadrada de ordem n. 1. (n-linear) Se uma fila de A se decompuser numa soma de filas, o determinante de A é igual à soma dos determinantes de duas matrizes em que nessa fila se usa uma parcela de cada vez, mantendo-se as restantes. Isto é, [ ] [ ] [ ] n i 1 n i 1 n i i 1 F , , F , , F det F , , F , , F det F , , F F , , F det K K K K K K ′ + = ′ + . 2. (n-linear) Se multiplicarmos uma fila de A por um escalar α , então o determinante vem multiplicado por , isto é, α [ ] [ ] n i 1 n i 1 F , , F , , F det F , , F , , F det K K K K α = α . 44
  • 46. Assim, também temos que A A n α = α . 3. (Anti-simetria) Ao trocarmos entre si duas filas paralelas de A, o determinante troca de sinal, isto é, [ ] [ ] n i j 1 n j i 1 F , , F , , F , , F det F , , F , , F , , F det K K K K K K − = . 4. (Função alternada) Se as filas de A são linearmente dependentes, então o determinante de A é igual a zero. 5. Não se altera o determinante de A quando a uma fila se adiciona uma combinação linear de outras filas paralelas. Basta observar que: [ ] [ ] [ ] n j j 1 n i 1 n j i 1 F , , F , , F , , F det F , , F , , F det F , , F F , , F det K K K K K K K α + = α + . 6. . Pois, representando a por a , cada parcela de det é da forma A det A det T = ji T ij T A ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) n n 1 1 1 n n 1 1 n n 1 1 T n n T 1 1 1 1 1 1 a a a a a a a a − − − − σ σ − σ σ σ σ σ σ σ ε = σ ε = σ ε = σ ε L L L L , isto é, corresponde a outro termo de , com o mesmo sinal. A det 7. ∗ = = A det A det A det . 8. Se A é uma matriz triangular, então nn 22 11 a a a A det L = . Em particular, . 1 I det = 9. A característica da matriz A é inferior à ordem se, e somente se, , isto é, A é uma matriz singular se, e somente se, det 0 A det = 0 A = . Evidentemente, A é regular se, e somente se, . 0 A det ≠ 10. B A B A ⋅ = ⋅ . 11. Se A é regular, então A 1 A 1 = − . 12. A característica da matriz A é igual à mais alta ordem das submatrizes quadradas de A com determinante não nulo. Exercício: Sejam A e B duas matrizes quadradas de ordem 2 tais que . Calcule B det 2 A det − = = ( ) ( ) [ ] T 1 AB 2 det − . Complementos Algébricos Definição 4.14: Seja A uma matriz quadrada de ordem n. Chama-se menor de ordem m de A ao determinante de qualquer submatriz de A de ordem m ( n m ). Dois menores dizem-se complementares se num deles estão representadas exactamente as linhas e colunas de A que não figuram no outro. Um menor diz-se principal se a sua diagonal tem somente elementos principais da matriz inicial. Um menor de A diz-se par ou ímpar conforme é par ou ímpar a soma dos índices das linhas e das colunas de A nele representadas. 45
  • 47. Dado um menor de A, o seu complemento algébrico é o produto do seu menor complementar pelo respectivo sinal ( )ω −1 , onde ω é a soma dos índices que determinam a paridade do menor. Notação: Sendo um elemento de A, representaremos por o complemento algébrico do menor ij a ij A ij a . Exemplo: Seja . Um seu menor é                 − − − = 1 2 5 3 4 2 0 1 0 1 1 3 4 1 0 0 2 1 0 0 4 5 0 3 1 A 2 3 4 0 0 1 2 0 0 − e é par, porque 18 4 2 1 5 4 2 = + + + + + = ω . O seu menor complementar é 1 4 4 0 − e o complemento algébrico é ( ) 1 4 4 0 1 4 4 0 − = − ω 1 − . Exercício: Determine o complemento algébrico do menor 12 a , sendo a elemento da matriz A do exemplo anterior. 12 Propriedades: a) Um menor principal é sempre par. b) Um menor e o seu complementar têm a mesma paridade. Depois destes conceitos, estamos em condições de estudar um teorema muito importante que permite calcular mais facilmente o determinante de uma matriz de ordem superior ou igual a quatro. Teorema 4.15: (Teorema de Laplace) Um determinante de uma matriz é igual à soma dos produtos dos elementos de uma fila pelos respectivos complementos algébricos. Exercício: Seja A . Utilize o teorema de Laplace para calcular             − − − − − = 1 2 4 3 1 3 2 1 0 4 2 0 2 1 1 2 A . Nota: Na aplicação do teorema de Laplace convém escolher uma das filas com mais zeros (se existirem). No entanto, podemos sempre fazer surgir zeros através da utilização de operações elementares que não alterem o valor do determinante. 46
  • 48. Teorema 4.16: A soma dos produtos dos elementos de uma fila pelos complementos algébricos dos elementos homólogos de outra fila paralela é nula, isto é, hn in 2 h 2 i 1 h 1 i A a A a A a 0 + + + = L (i h ≠ ) ou nk nj k 2 j 2 k 1 j 1 A a A a A a 0 + + + = L ( k j ≠ ). Demonstração: Essa soma é igual ao determinante da matriz obtida substituindo a linha i pela linha h (ou coluna j pela coluna k). Desta forma, a matriz fica com duas filas iguais e portanto o determinante é nulo. Este teorema e o teorema de Laplace permitem escrever: ∑ ∑ = = = = n 1 i ij ij n 1 j ij ij A a A a A e 0 , ) h i e k j ( A a A a n 1 i ik ij n 1 j hj ij ≠ ≠ = = ∑ ∑ = = isto é, usando o símbolo de Kronecker, A A a ih n 1 j hj ij δ = ∑ = ou A A a jk n 1 i ik ij δ = = ∑ . Teorema 4.17: (Teorema de Laplace Generalizado) Um determinante de uma matriz é igual à soma dos produtos dos menores de ordem m contidos em m filas paralelas pelos respectivos complementos algébricos. Exercício: Seja . Utilize o teorema de Laplace generalizado para calcular                 − − − = 1 2 5 3 4 2 0 1 0 1 1 3 4 1 0 0 2 1 0 0 4 5 0 3 1 A A . Definição 4.18: Seja A uma matriz quadrada. Chama-se adjunta de A à matriz que desta se obtém substituindo cada elemento pelo seu complemento algébrico e transpondo a matriz resultante. Notação: A adjunta de uma matriz A é representada por adj A ou . Â De acordo com a definição anterior, se [ ] ij a A = , então a matriz adjunta de A é tal que adjA . [ ] [ ji T ij A A = = ] Exercício: Determine a matriz adjunta da matriz .           − − = 0 1 1 0 0 1 2 1 0 A 47
  • 49. Teorema 4.19: Seja A uma matriz quadrada de ordem n regular. Então I A adjA A ⋅ = ⋅ e 1 n A adjA − = . Demonstração: Basta observar que multiplicando A e , obtemos: adjA [ ] , b adjA A ij = ⋅ com ∑ δ = = k ij jk ik ij A A a b e [ ] , c A ij = ⋅ adjA com ∑ δ = = k ij kj ki ij A a A c . Assim, podemos concluir que I A A ⋅ = ⋅ adjA adjA A = ⋅ . E desta fórmula, usando as propriedades dos determinantes e o facto de A ser regular, temos que 1 n n A adjA A adjA A I A adjA A − = ⇔ = ⋅ ⇔ ⋅ = ⋅ Corolário 4.20: Se A é uma matriz quadrada regular, então adjA A 1 A 1 ⋅ = − . Demonstração: Usando-se o teorema 4.19, resulta de imediato que I A adjA A 1 adjA A 1 A = ⋅         ⋅ =         ⋅ ⋅ . Este corolário dá-nos assim um novo processo para calcular a inversa de uma matriz regular. Exercício: Utilizando a última propriedade, determine, caso exista, a matriz inversa da matriz           − − = 0 1 1 0 0 1 2 1 0 A . Resolução de Sistemas de Equações Lineares Usando a Teoria dos Determinantes Seja      = + + + = + + + m n mn 2 2 m 1 1 m 1 n n 1 2 12 1 11 b x a x a x a b x a x a x a L M L , um sistema de m equações lineares com n incógnitas, sobre um corpo K. Já sabemos que este sistema é equivalente à equação matricial AX B = , com 48
  • 50.           = mn 1 m n 1 11 a a a a A L L L L L , e .           = n 1 x x X M           = m 1 b b B M 1º Caso: Se , então o sistema é possível e determinado e a matriz A é quadrada. Assim, a matriz A é invertível o que implica que o seu determinante é não nulo. Logo, pelo Corolário 4.20, (A car n m = = ) ( ) B adjA A 1 X B A X B A AX A B AX 1 1 1 ⋅ = ⇔ = ⇔ = ⇔ = − − − , isto é,           ⋅           ⋅ =           n 1 nn n 1 1 n 11 n 1 b b A A A A A 1 x x M L L L L L M , e portanto, ( ) A a b a a b a b A b A b A A 1 x nn n 1 n n 1 1 11 n ni 2 i 2 1 i 1 i L L M L M L M L L L = + + + = , onde os termos independentes aparecem na coluna i, com n , , 2 , 1 i K = . Regra de Cramer: Um sistema de n equações com n incógnitas com o determinante da matriz dos coeficientes não nulo é possível e determinado e o valor de cada incógnita é o inverso do determinante da matriz dos coeficientes multiplicado pelo determinante da matriz que se obtém a partir da matriz dos coeficientes substituindo os coeficientes dessa incógnita pelos correspondentes termos independentes. Os sistemas deste primeiro caso são usualmente denominados por sistemas de Cramer. Exercício: Resolva, se possível, o seguinte sistema usando a regra de Cramer:      = + = − = + + 0 y x 2 z x 1 z y x . 2º Caso: Se , então o sistema ( ) n m A car =      = + + + = + + + m n mn 2 2 m 1 1 m 1 n n 1 2 12 1 11 b x a x a x a b x a x a x a L M L é possível indeterminado e é equivalente a 49
  • 51.      − − − = + + + − − − = + + + + + + n mn 1 m 1 m , m m m mm 2 2 m 1 1 m n n 1 1 m 1 m 1 1 m m 1 1 11 x a x a b x a x a x a x a x a b x a x a L L M L L Este último sistema pode resolver-se pela regra de Cramer, pois, relativamente às incógnitas principais, podemos considerar que estamos na presença de um sistema de Cramer. Sendo o número de incógnitas principais igual a ( ) m A Car = (as não principais são ), chama-se determinante principal do sistema ao determinante dos coeficien- tes das incógnitas (escolhidas para) principais. É óbvio que ( ) A car n − ∆ ∆ é não nulo, de ordem ( ) A Car . 3º Caso: . Por condensação, a matriz ampliada do sistema transforma-se em ( ) m r A Car =              β β − − − − − − β α β α β α              − − − − − − − − α α α α α α + m 1 r r rn 2 n 2 1 n 1 rr r 2 22 r 1 12 11 | 0 0 | | | | 0 0 | | | | | | | | | | | 0 0 0 0 0 0 0 L L M L L L L L M L L L L L L L L L L L L L L O O L L L Assim, para este caso temos que considerar r incógnitas e equações principais, que definem um determinante principal, não nulo, e r n − incógnitas não principais e r m − equações não principais. Nestas circunstâncias, sabemos que o sistema é possível se, e somente se, . 0 m 2 r 1 r = β = = β = β + + L Seja o determinante da matriz obtida a partir da matriz de determinante s ∆ ∆ acrescentando-lhe uma última linha, constituída pelos coeficientes das incógnitas principais da equação de ordem s não principal, e uma última coluna constituída pelos termos independentes dessas 1 r + equações, isto é, s r 1 sr 1 s rr 1 r r 1 11 s b | | b | | b | a a a a a a − − − − − − − − = ∆ M L L L L L L . Chama-se a determinante característico. s ∆ Como as operações elementares não alteram o determinante de uma matriz caso este seja nulo, então 0 | | | | | 0 0 0 0 b | | b | | b | a a a a a a s r 1 rr r 1 11 s r 1 sr 1 s rr 1 r r 1 11 s = β − − β β − − − − − − α α α = − − − − − − − − = ∆ M L L O L L M L L L L L L se, e somente se, , isto é, se, e somente se, cada determinante característico é nulo. Em conclusão: 0 s = β 50
  • 52. Teorema 4.21: (Teorema de Rouché) Um sistema de equações lineares é possível se, e somente se, ou não existem determinantes característicos ou, existindo, são todos nulos. Exemplos: 1. Considere o seguinte sistema:      = + + = + + − = − + 3 z y 3 x 2 1 z 2 y x 2 z y 2 x 3 . Verifique que 0 1 3 2 2 1 1 1 2 3 = − − . Um determinante principal é, por exemplo, 0 5 1 1 2 3 ≠ = − = ∆ . Um outro é, por exemplo, 0 5 2 1 1 2 ≠ = − . Neste caso, existe um determinante característico: 3 3 2 1 1 1 2 2 3 3 − = ∆ e . Logo, o sistema é possível e indeterminado. 0 3 = ∆ 2. Considere o seguinte sistema:        = + − − = + − = + − = + 2 z y x 3 1 z y 2 x 0 z 2 y 3 x 4 1 y x 2 . A matriz dos coeficientes é:             − − − 1 1 3 1 2 1 2 3 4 0 1 2 . Observe, por exemplo, que: 1. 0 2 ≠ ; 2. 0 10 3 4 1 2 ≠ − = − ; 51
  • 53. 3. 0 1 2 1 2 3 4 0 1 2 = − − . 4. 0 1 1 3 2 3 4 0 1 2 = − − Logo, a característica da matriz dos coeficientes é 2 e um determinante principal é 3 4 1 2 − = ∆ . Como, , 0 5 1 2 1 0 3 4 1 1 2 3 ≠ = − − − = ∆ então o sistema é impossível. Neste último exemplo foi usado o seguinte resultado: Teorema 4.22: A característica de uma matriz é r se, e somente se, contém um menor de ordem r não nulo e todos os de ordem 1 r + que dele se obtêm juntando uma linha e uma coluna da matriz são nulos. Sistemas Homogéneos Dado que um sistema homogéneo AX 0 = é sempre possível, tendo sempre a solução , então, quando a matriz dos coeficientes é quadrada, o sistema é determinado se, e somente se, 0 X = 0 A ≠ . Será indeterminado se, e somente se, 0 A = . Cálculo de Valores Próprios Recordemos que o escalar é valor próprio de um endomorfismo de um espaço vectorial se existe um vector tal que λ 0 ϕ x ≠ ( ) x x λ = ϕ . Equivalentemente, se A é a matriz da aplicação linear , em relação a certa base previamente fixada no espaço vectorial, temos a equação matricial AX ϕ X λ = ou ( ) 0 X I A = λ − , isto é, um sistema homogéneo que deve ter outras soluções além da nula, ou seja, deve ser indeterminado. Logo, a matriz I A λ − é singular (não regular), o que é equivalente a 0 I A = λ − . À equação 0 I A λ − = , cujas raízes são os valores próprios de A, chama-se equação característica. Chama-se polinómio característico ao polinómio I A λ − em λ de grau igual à ordem de A. Para este polinómio é válido o seguinte teorema: 52
  • 54. Teorema 4.23: Um polinómio característico não depende da matriz que representa o endomorfismo de um espaço vectorial. ϕ Demonstração: Sejam e { } ( ) i e , M A ϕ = { } ( ) i e , M B ′ ϕ = , com { } i e e { } i e′ bases do espaço vectorial. Sabemos que , em que P é a matriz de passagem de { para { P A P B 1 ⋅ ⋅ = − } i e } i e′ . Vamos mostrar que I A I B λ − = λ − . Ora, I A P I A P P I P P A P I B 1 1 1 λ − = λ − = ⋅ ⋅ λ − ⋅ ⋅ = λ − − − − . Exercício: Determine os valores próprios da matriz           − 1 1 1 0 4 3 0 1 0 Teorema 4.24: Um endomorfismo ϕ de E, espaço vectorial de dimensão n, pode ser representado por uma matriz diagonal, isto é, é diagonalizável, se, e somente se, E admite uma base formada por vectores próprios de ϕ . Neste caso, os elementos principais dessa matriz diagonal são os valores próprios de ϕ e cada matriz de ϕ é semelhante a essa matriz. Demonstração: Basta observar que { } n 1 e , , e K é base de vectores próprios com ( ) i i i e e λ = ϕ , , se, e somente se, n , , 1 i K =             λ λ λ n 2 1 0 0 0 0 0 0 L L L L L L L é a matriz de em relação a essa base. ϕ Corolário 4.25: Se tem n valores próprios distintos, então ϕ ϕ pode ser representada por uma matriz diagonal. Demonstração: A n valores próprios distintos correspondem n vectores próprios linearmente independentes. Logo, porque n vectores linearmente independentes formam uma base, E admite uma base formada por vectores próprios de ϕ . Exercício: Seja o endomorfismo de IR ϕ 3 representado, em relação à base { de IR } 3 2 1 e , e , e 3 , pela matriz           = 1 2 0 0 0 1 0 2 1 A . a) Determine os valores próprios de ϕ . b) Determine o subespaço próprio associado a um dos valores próprios de . ϕ c) Diga, justificando, se a matriz A é, ou não, semelhante a uma matriz diagonal, isto é, se A é diagonalizável. 53
  • 55. 5 Espaços Euclidianos e Espaços Unitários Neste capítulo consideraremos sempre um espaço vectorial E sobre K, com K = IRou K = C / . Definição 5.1: Uma aplicação do produto cartesiano E E× em K tal que ( ) ( v u v , u a ) diz-se um produto interno (ou escalar) em E se satisfaz as seguintes propriedades: P1: ( ) . E 0 u u ≥ ( ) 0 u u = se, e somente se, 0 u = ; P2: ( ) ( ) ( ) w v w u w v u β + α = β + α ; P3: Se K = IR, ( ) ( v u u v = ); Se K = C / , ( ) ( ) v u u v = . Chama-se espaço euclidiano (ou unitário) a um espaço vectorial real (ou complexo) de dimensão finita com produto interno. Observações: 1. Independentemente do corpo ser o real ou o complexo, ( )∈ u u IR. 2. Se K = IR , ( ) ( ) ( ) v w u w v u w β + α = β + α , logo o produto interno é bilinear. 3. Se K = C / , ( ) ( ) ( ) v w u w v u w β + α = β + α . Exemplos: 1. Em IR n (que é um espaço vectorial real), se ∈ y , x IR n , usando as coordenadas dos vectores na base canónica, e ( ) n 1 x , , x x K = ( ) n y , K 1, y y = , podemos definir um produto interno do seguinte modo: ( ) ∑ = = n 1 i i i y x y x . Para , 3 n = ( ) 3 3 2 2 1 1 y x y x y x y x + + = . 2. Em C / n podemos definir um produto interno do seguinte modo: ( ) ∑ = = n 1 i i i y x y x . Propriedades do Produto Interno: 1. ( ) ( ) . 0 x 0 0 x = = Pois, basta observar que ( ) ( ) ( ) ( ) 0 x x x x x x x 0 x = − = − = . 2. Se ( ) , E y , 0 y x ∈ ∀ = então . E, se 0 x = ( ) , E y , 0 x y ∈ ∀ = então 0 x = . 3. (Desigualdade de Cauchy-Schwarz) Se E é espaço euclidiano e , E y , x ∈ então ( ) ( )( ) y y x x y x 2 ≤ . 54
  • 56. Definição 5.2: Num espaço E com produto interno chama-se norma do vector ao escalar real E x ∈ x definido por: ( ) x x x = . Exemplo: Em IR n , ( ) ∑ = = + + + = n 1 i 2 i 2 n 2 2 2 1 n 2 1 x x x x x , , x , x L K é uma norma denominada euclidiana. Em C / n , ( ) ∑ = = + + + = = n 1 i 2 i 2 n 2 2 2 1 n 2 1 x x x x x , , x , x x L K . Propriedades da Norma: 1. 0 x = se, e somente se, e 0 x = 0 x ≥ , para todo E x ∈ . 2. x x ⋅ α = α , para quaisquer α e K ∈ E x ∈ . 3. (Desigualdade Triangular) y x y x + ≤ + , para quaisquer E y , x ∈ . Observação: A desigualdade triangular é consequência da desigualdade de Cauchy-Schwarz: ( ) y x y x ⋅ ≤ . Definição 5.3: Dois vectores x e y, de um espaço vectorial E, com produto interno, dizem-se ortogonais se ( ) 0 y x = . Neste caso escreve-se y x⊥ . Chama-se complemento ortogonal de um conjunto S ao conjunto E ⊂ { } S x , x y : E y S ∈ ⊥ ∈ = ⊥ . Uma base é dita ortonormada (o.n.) se os vectores são ortogonais dois a dois e têm norma 1, isto é, a base { é ortonormada se } n 2 1 e , , e , e K ( ) 0 e e j i = , para , e j i ≠ 1 ei = , para . n , , 2 , 1 i K = Exemplos: 1. e . { } E 0 = ⊥ { } 0 E = ⊥ 2. Em IR 3 , com o produto interno já referido, são ortonormadas as bases: ( ) ( ) ( ) { } 1 , 0 , 0 , 0 , 1 , 0 , 0 , 0 , 1 e ( )                   −         01 , 0 , 0 , 2 2 , 2 2 , 0 , 2 2 , 2 2 . 55
  • 57. Teorema 5.4: Um espaço euclidiano (ou unitário) admite sempre uma base ortonormada. Demonstração: Este teorema é consequência do facto de qualquer espaço vectorial, de dimensão finita, ter uma base e uma base poder transformar-se numa base o.n. usando-se o processo de ortonormalização de Gram-Schmidt. Vejamos em que consiste este processo num espaço vectorial de dimensão 3. Seja E um espaço euclidiano (ou unitário) de dimensão 3 e { } 3 2 1 e , e , e uma sua base. Definam-se os vectores e por: 2 1 u , u 3 u 1 1 1 e e u = ; , u u u 2 2 2 ′ ′ = com ( ) 1 1 2 2 2 u u e e u − = ′ ; , u u u 3 3 3 ′ ′ = com ( ) ( ) 1 1 3 2 2 3 3 3 u u e u u e e u − − = ′ . É imediato verificar que estes vectores têm norma 1. Vejamos que u e são ortogonais: 1 2 u ( ) ( ) ( ) ( ) ( ) ( )( ) ( ) ( ) ( ) ( ) . 0 u e u e u 1 u u u e u e u 1 u u u e e u 1 u u 1 2 1 2 2 1 1 1 2 1 2 2 1 1 1 2 2 2 1 2 = − ′ = − ′ = − ′ = De modo semelhante pode mostrar-se que os restantes pares de vectores possíveis são também ortogonais. Mostrando que { constituem uma base de E (exercício!), conclui-se que é uma base o.n. de E. } } 3 2 1 u , u , u { 3 2 1 u , u , u Em geral, se E é um espaço vectorial de dimensão n e { } n 2 1 e , , e , e K é uma base de E, então constituem uma base ortonormada de E se: { n 2 1 u , , u , u K } 1 1 1 e e u = , , u u u k k k ′ ′ = com ( ) ∑ − = − = ′ 1 k 1 i i i k k k u u e e u , para k n , , 2 K = . (Ortonormalização de Gram-Schmidt) 56
  • 58. Definição 5.5: Sejam E um espaço euclidiano e { } 0 E y , x ∈ . Define-se ângulo formado pelos vectores x e y por meio da igualdade θ ( ) y x y x cos ⋅ = θ , π ≤ θ ≤ 0 . Observações: 1. Da definição anterior conclui-se que ( ) θ ⋅ ⋅ = cos y x y x . 2. O ângulo θ já que, pela desigualdade de Cauchy-Schwarz, [ π ∈ , 0 ] ( ) ( ) ( ) 1 y x y x 1 1 y x y x y x y x ≤ ⋅ ≤ − ⇔ ≤ ⋅ ⇔ ⋅ ≤ e a função cos(x) é uma bijecção de [ ] π , 0 em [ ] 1 , 1 − . Cálculo do Produto Interno de Dois Vectores Sejam { uma base do espaço unitário E e } n 2 1 e , , e , e K E y , x ∈ . Então, existem , K , i i ∈ β α tais que , n , , 1 i K = n n 2 2 1 1 e e e x α + + α + α = L e n n 2 2 1 1 e e e y β + + β + β = L . Assim, podemos escrever: ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ∑∑ = = β α = β α + + β α + β α + + β α + + β α + β α = β + + β α + + α = n 1 i n 1 j j i j i n n n n 2 n 2 n 1 n 1 n n 1 n 1 2 1 2 1 1 1 1 1 n n 1 1 n n 1 1 e e e e e e e e e e e e e e e e e e y x L L L L L (1) Se representarmos ( ) j i e e por a , podemos obter a matriz ij [ ] ij a = A e deste modo, a expressão (1) para o produto interno de x por y pode escrever-se na forma matricial: ( ) Y A X y x T ⋅ ⋅ = , (2) em que           α α = n 1 X M , e           β β = n 1 Y M [ ] ij a A = . 57
  • 59. Observe-se que a matriz A é hermítica, pois ( ) ( ) i j j i e e e e = , no caso complexo, ou simétrica no caso real, já que ( ) ( ) i j j i e e e e = . Em particular, se a base { } n 2 1 e , , e , e K é o.n., então ( ) ij j i e e δ = , para quaisquer ou seja, . Consequentemente, as fórmulas (1) e (2) resumem-se a: , n , , 1 j , i K = n I A = ( ) Y X y x T n 1 i i i ⋅ = β α = ∑ = (no caso complexo) ou ( ) Y X y x T n 1 i i i ⋅ = β α = ∑ = (no caso real). No caso dos espaços vectoriais IR n e C / n , temos as seguintes expressões para a norma de um vector: - No caso geral: X A X x T ⋅ ⋅ = ; - Com bases o.n.: ∑ = α = ⋅ = n 1 i 2 i T X X x . Matriz de Passagem de uma Base O.N. para outra Base O.N. Sejam { } e { n 2 1 e , , e , e K } n 2 1 e , , e , e ′ ′ ′ K duas bases o.n. de E, espaço vectorial real ou complexo, e seja P a matriz de passagem da segunda base para a primeira base. Então, para , E y , x ∈ PX X = ′ e Y PY = ′ , em que X e Y são matrizes coluna das coordenadas de x e y na primeira base e e X′ Y′ são as matrizes coluna das coordenadas de x e y na segunda base. Suponhamos que E é um espaço euclidiano. Então, neste caso, ( ) , Y P P X Y X Y X y x T T T T ⋅ ⋅ ⋅ = ′ ⋅ ′ = ⋅ = isto é, , que equivale a afirmar que P é ortogonal. I P PT = ⋅ Suponhamos agora que E é um espaço unitário. Então, neste caso, ( ) , Y P P X Y X Y X y x T T T T ⋅ ⋅ ⋅ = ′ ⋅ ′ = ⋅ = isto é, I P PT = ⋅ , que equivale a afirmar que P é unitária. Em conclusão, uma matriz de passagem de uma base o.n. para outra base o.n. é ortogonal (se o espaço é real) ou unitária (se o espaço é complexo). Nota: 1. P ortogonal 1 P 1 P I P P 2 T ± = ⇒ = ⇒ = ⋅ ⇔ . 2. P unitária θ = ⇔ = ⇒ = ⋅ ⇒ = ⋅ ⇔ cis P det 1 P det 1 P P I P PT , [ [ π ∈ θ 2 , 0 . 58
  • 60. Se E é um espaço real e det 1 P = , então dizemos que as duas bases o.n. têm a mesma orientação e obtém-se uma a partir da outra por uma rotação. Exemplos: As bases { } e ( ) ( ) ( ) 1 , 0 , 0 , 0 , 1 , 0 , 0 , 0 , 1 ( ) ( ) ( ) { } 0 , 1 , 0 , 1 , 0 , 0 , 0 , 0 , 1 não têm a mesma orientação, pois 1 0 1 0 1 0 0 0 0 1 P det − = = . Uma rotação em IR 2 é uma aplicação linear que pode ser representada pela matriz ortogonal:       θ θ θ − θ = cos sen sen cos P . Produto Vectorial e Misto em IR 3 Definição 5.14: Sejam x e y dois vectores de IR 3 (com o produto escalar usual). Define-se produto vectorial (ou externo) de x por y, que denotamos por y x ∧ , do seguinte modo: - Se x e y são linearmente dependentes, 0 y x = ∧ . - Se x e y são linearmente independentes, y x ∧ é tal que 1. é ortogonal a x e a y. y x ∧ 2. é uma base directa (ou positiva) (isto é, a matriz de passagem da base para esta base tem determinante positivo). ( y x , y , x ∧ ( ) ( , 1 , 0 , 0 , 0 , 1 ) )) ( ) ( 1 , 0 , 0 , 0 3. θ ⋅ ⋅ = ∧ sen y x y x , com [ ] π ∈ θ , 0 , o ângulo formado pelos vectores x e y. Observação: A partir de agora consideraremos sempre a base canónica de IR 3 , inclusivé na Geometria Analítica, representada por três segmentos de recta de origem O e tal que um observador com a cabeça no sentido de , vê e à sua direita e e à sua esquerda (isto é, rodando no sentido directo um ângulo de 3 e 1 2 1 e 2 π obtém-se ). Fixando esta base como positiva, diremos que a base com orientação contrária (isto é, obtida por uma mudança de base cuja matriz tem determinante negativo) é inversa (ou negativa). Por isto, utiliza-se a notação em lugar de { } 2 e ( 3 2 1 e , e , e ) ) 3 2 1 e , e , e . Cálculo do produto vectorial: Se ( é uma base de IR 3 2 1 e , e , e 3 o.n. directa e 3 3 2 2 1 1 e x e x e x x + + = , 3 3 2 2 1 1 e y e y e y y + + = , então ( ) ( ) ( ) 3 1 2 2 1 2 1 3 3 1 1 2 3 3 2 e y x y x e y x y x e y x y x y x − + − − − = ∧ . 59