1. UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE
U.F.R. SEGMI Année universitaire 2013 – 2014
Master d’économie Cours de M. Desgraupes
MATHS/STATS
Document 2 : Solution des exercices d’algèbre linéaire
Table des matières
1 Espaces Vectoriels 1
2 Applications linéaires 4
3 Représentation matricielle 9
4 Diagonalisation 15
5 Décompositions matricielles 23
1 Espaces Vectoriels
Corrigé ex. 1 : Espaces définis par paramètres
On considère les deux ensembles suivants :
E1 = f(a; 2b; b a) j a; b 2 Rg
E2 = f(c; c + d; d) j c; d 2 Rg
1-1) Montrons que E1 est stable par addition et par multiplication par un scalaire.
Si x = (a; 2b; b a) et x0 = (a0; 2b0; b0 a0) alors on a
x + x0 = (a; 2b; b a) + (a0; 2b0; b0 a0)
= (a + a0; 2b + 2b0; b a + b0 a0)
= (a + a0; 2(b + b0); (b + b0) (a + a0))
= (A; 2B; B A)
avec A = a + a0 et B = b + b0. Le vecteur x + x0 est bien de la forme voulue et
appartient donc à E1. Pour la multiplication par un scalaire, calculons x :
x = (a; 2b; b a)
= (a; 2b; (b a))
= (a; 2b; b a)
= (A; 2B; B A)
avec A = a et B = b.
1
2. On procède de manière analogue pour l’ensemble E2. Ce sont donc des sous-espaces
vectoriels de R3.
1-2) Soit !x
= (x1; x2; x3) 2 E1. On va trouver l’équation vérifiée par x1, x2
et x3 en éliminant les paramètres a et b entre les équations :
8
:
x1 = a
x2 = 2b
x3 = b a
On a
x3 = b a = 1=2x2 x1
d’où
2x1 x2 + 2x3 = 0
Il s’agit d’un plan passant par l’origine.
Dans le cas de E2, on obtient de façon analogue :
x1 x2 + x3 = 0
1-3) L’intersection E1 E2 est une droite vérifiant les deux équations précé-dentes
:
2x1 x2 + 2x3 = 0
x1 x2 + x3 = 0
qui conduisent à x1 = x3 et x2 = 0. C’est la droite passant par l’origine et de vecteur
directeur (1; 0;1).
Corrigé ex. 2 : Espaces définis par équations linéaires
Dans R3, on considère les sous-ensembles suivants :
P = f(x1; x2; x3) j x1 2x2 + x3 = 0g
D = f(x1; x2; x3) j x1 + x2 + x3 = 0 et x2 x3 = 0g
2-1) Pour montrer que P et D sont des sous-espaces vectoriels de R3, il suffit de
monter qu’ils sont stables par addition et par multiplication par un scalaire.
Si x = (x1; x2; x3) et x0 = (x0
1; x0
3) sont des vecteurs de P, ils vérifient
2; x0
respectivement les équations
x1 2x2 + x3 = 0
x0
1 2x0
2 + x0
3 = 0
En additionnant les deux lignes, on voit que leur somme vérifie elle aussi l’équation
et donc x + x0 2 P. De même, on montre que le vecteur x vérifie l’équation en la
multipliant par .
On procède de manière analogue pour D.
2-2) P est un plan car il est défini par une seule équation dans R3. Il est donc
de dimension 2 et il suffit de trouver deux vecteurs indépendants vérifiant son équation
pour former une base. Par exemple, les deux vecteurs suivants : (2; 1; 0) et (0; 1; 2).
On peut aussi raisonner au moyen d’applications linéaires. P est l’ensemble des
vecteurs qui annulent la fonction f de R3 dans R définie par
f(x1; x2; x3) = x1 2x2 + x3
2
3. On a donc P = Kerf. L’espace image est R qui est de dimension 1, donc par le
théorème des dimensions on obtient :
dim Ker f = dim E dim Im f = 3 1 = 2
ce qui confirme que le noyau est un plan.
L’espace D est de dimension 1 car il est défini par l’annulation de deux équations
linéaires indépendantes, d’où :
dim D = 3 2 = 1
Un vecteur directeur de cette droite est un vecteur qui vérifie les deux équations défi-nissant
D :
x1 + x2 + x3 = 0
x2 x3 = 0
On en déduit x2 = x3 et x1 = 2x3. Un vecteur directeur possible est donc (2; 1; 1).
Corrigé ex. 3 : Rang d’une famille de vecteurs
Le rang de la famille des trois vecteurs
a = (1; m; m) b = (m; 1; m) c = (m; m; 1)
est aussi le rang de la matrice
M =
0
@
1 m m
m 1 m
m m 1
1
A
Son déterminant vaut
det M = 2m3 3m2 + 1 = (m 1)2(2m + 1)
Si m est différent de 1 et de -1/2, le déterminant n’est pas nul et la matrice est donc de
rang maximal 3.
Si m = 1=2, la matrice sera de rang 2. On note que, dans ce cas, la somme des
trois lignes de la matrice est nulle mais que les deux premières sont indépendantes, ce
qui est une autre façon de voir que le rang est 2.
Enfin, si m = 1, les trois lignes de la matrice sont identiques, ce qui signifie qu’elle
est de rang 1.
Corrigé ex. 4 : Sous-espace dépendant d’un paramètre
Fm est le sous-espace vectoriel de R3 défini par
Fm = f(x1; x2; x3) j x2 2x3 = 0 et mx2 + 3x3 = 0g
Les deux équations sont indépendantes si et seulement si les deux lignes de la
matrice
M =
1 2
m 3
3
4. sont indépendantes, ce qui a lieu lorsque le déterminant est non nul. On calcule :
det M = 3 + 2m.
Si m6= 3=2, les deux équations sont indépendantes et ne peuvent être vérifiées
simultanément que si x2 = x3 = 0. L’espace Fm est alors l’ensemble des vecteurs de
la forme (x1; 0; 0), c’est-à-dire l’axe des x1 qui a pour vecteur directeur (1; 0; 0).
Si m = 3=2, l’ensemble Fm est le plan d’équation x2 2x3 = 0. Il est donc de
dimension 2. Pour constituer une base, il suffit de prendre deux vecteurs indépendants
vérifiant cette équation. Par exemple, les vecteurs (1; 0; 0) et (0; 2; 1).
Corrigé ex. 5 : Base d’un sous-espace
Dans R4, si on a les égalités x1 = x2 = x3 = x4, tout vecteur s’écrit
!x
= (x1; x2; x3; x4)
= (x1; x1; x1; x1)
= x1(1; 1; 1; 1)
Le sous-espace est donc l’ensemble des multiples du vecteur (1; 1; 1; 1). Il est donc de
dimension 1 : c’est la droite passant par l’origine et de vecteur directeur (1; 1; 1; 1).
2 Applications linéaires
Corrigé ex. 6 : Dimensions des espaces de départ et d’arrivée
Si f est une application linéaire de R3 dans R2, l’espace de départ est de dimension
strictement plus grande que l’espace d’arrivée. On en déduit que :
1. f ne peut pas être injective car, si c’était le cas, l’espace de départ serait “injecté”
dans l’espace d’arrivée. Ce dernier devrait donc être de dimension au moins 3.
2. f pourrait être surjective.
3. f ne peut pas être bijective. Pour cela, il faudrait déjà que les deux espaces aient
la même dimension.
Si f est une application linéaire de R2 dans R3, l’espace de départ est de dimension
strictement plus petite que l’espace d’arrivée. On en déduit que
1. f pourrait être injective.
2. f ne peut pas être surjective car l’espace image sera au mieux de dimension 2 et
ne pourra donc jamais remplir l’espace d’arrivée.
3. f ne peut pas être bijective. Pour cela, il faudrait déjà que les deux espaces aient
la même dimension.
Enfin, si f est une application linéaire de R2 dans R2, elle peut tout à fait être
injective, surjective ou bijective. Les espaces de départ et d’arrivée ayant même dimen-sion,
on peut même dire que si elle est injective elle sera automatiquement surjective,
et vice-versa.
4
5. Corrigé ex. 7 : Noyau et image en fonction d’un paramètre
u est l’endomorphisme de R3 défini par
u
0
@
x1
x2
x3
1
A =
0
@
x1 + x2 + x3
x1 + x2 + x3
x1 + x2
1
A
Pour déterminer son noyau, on pose les équations suivantes :
8
:
x1 + x2 + x3 = 0
x1 + x2 + x3 = 0
x1 + x2 = 0
Par soustraction des deux dernières équations, on obtient x3 = 0.
Supposons que 6= 0. On en déduit que x3 = 0, ce qui conduit à
x1 + x2 = 0
x1 + x2 = 0
Si 6= 1, ces deux équations sont indépendantes et donnent x1 = 0 et x2 = 0. On
trouve alors que le noyau ne contient que le vecteur nul !0
. Si au contraire = 1, il
reste l’équation x1 + x2 = 0 (et toujours x3 = 0). Le noyau est alors la droite passant
par l’origine et de vecteur directeur (1;1; 0).
Il reste à examiner le cas où = 0. Le système initial se ramène alors simplement
à :
x1 + x2 + x3 = 0
x1 = 0
Le noyau est cette fois la droite de vecteur directeur (0; 1;1).
Déterminons maintenant l’image dans les trois cas précédents. Si 6= 0 et 6= 1,
le noyau est réduit à !0
et l’application est donc injective. Il en résulte qu’elle est
aussi surjective puisque l’espace de départ et l’espace d’arrivée ont même dimension.
L’espace image est donc l’espace d’arrivée R3 tout entier. Le rang est 3.
Si = 1, l’image de l’application est définie par
8
:
X = x1 + x2 + x3
Y = x1 + x2 + x3
Z = x1 + x2
où X, Y et Z sont les coordonnées dans l’espace d’arrivée. On voit ici que X = Y ,
autrement dit que X Y = 0. C’est l’équation d’un plan dans R3. Une base possible
est formée des vecteurs (0; 0; 1) et (1; 1; 0). Le rang est 2.
Si = 0, l’image de l’application est définie par
8
:
X = x1 + x2 + x3
Y = x1
Z = x1
On voit que Y = Z, autrement dit que Y Z = 0. C’est l’équation d’un plan dans R3.
Une base possible est formée des vecteurs (0; 1; 1) et (1; 0; 0). Le rang est 2.
5
6. Corrigé ex. 8 : Matrice de permutation
Soit u l’application de R3 dans R3 définie par
u
0
@
x1
x2
x3
1
A =
0
@
x3
x1
x2
1
A
8-1) u est linéaire car elle est définie par des combinaisons linéaires des variables
x1, x2 et x3.
8-2) La matrice associée à u dans la base canonique est
M =
0
@
0 1 0
0 0 1
1 0 0
1
A
C’est une matrice de permutation. L’application u opère une permutation circulaire des
variables x1, x2 et x3.
8-3) On calcule
M2 =
0
@
1
A M3 =
0 0 1
1 0 0
0 1 0
0
@
1
A
1 0 0
0 1 0
0 0 1
On voit donc que M3 = I, ce qui peut s’écrire MM2 = M2M = I et montre que
M2 est l’inverse de M. On a donc M1 = M2.
8-4) Calculons les puissances successives de la matrice M.
Puisque M3 = I, on a M4 = M, M5 = M2, M6 = I, etc.
De même, puisque M1 = M2, on calcule M2 = M4 = M, et ensuite M3 =
I, M4 = M2, M5 = M, M6 = I, etc.
Corrigé ex. 9 : Base d’un noyau
On considère l’application u de R4 dans R2 définie par
u :
0
BB@
x1
x2
x3
x4
1
CCA
!
x1 + 2x2 + 3x3 + x4
x1 + x2 + 3x3 + x4
Il s’agit de déterminer une base du noyau de cette application. Puisque les deux
expressions sont indépendantes, l’espace image sera de dimension 2. On en déduit
que le noyau est de dimension 4 2 = 2. Il suffit donc de trouver deux vecteurs
indépendants vérifiant les équations données. Si on soustrait les deux équations, on
trouve :
2x1 + x2 = 0
On peut prendre, par exemple, les vecteurs (1; 2; 0; 0) et (0; 0; 1;3).
6
7. Corrigé ex. 10 : Application définie sur les vecteurs d’une base
f est l’application linéaire de R2 dans R3 définie par
f(1; 1) = (4; 2; 0) et f(1;1) = (2; 0; 6):
10-1) Pour trouver les images par f des vecteurs de la base canonique de R2, il
suffit d’exprimer ces vecteurs en fonction des vecteurs (1; 1) et (1;1) dont on nous
donne les images par f. On trouve facilement que e1 = (1; 0) = 1=2((1; 1)+(1;1)).
D’où, par linéarité,
f(1; 1) + f(1;1)
f(e1) = f(1; 0) = 1=2
(4; 2; 0) + (2; 0; 6)
= 1=2
= (3; 1; 3)
De même, e2 = (0; 1) = 1=2((1; 1) (1;1)) d’où :
f(1; 1) f(1;1)
f(e2) = f(0; 1) = 1=2
(4; 2; 0) (2; 0; 6)
= 1=2
= (1; 1; 3)
10-2) L’image par f d’un vecteur quelconque de R2 s’écrit
f(x1; x2) = f(x1e1 + x2e2)
= x1f(e1) + x2f(e2)
= x1(3; 1; 3) + x2(1; 1; 3)
= (3x1 + x2; x1 + x2; 3x1 3x2)
10-3) Le noyau de f est défini par les équations
8
:
3x1 + x2 = 0
x1 + x2 = 0
3x1 3x2 = 0
qui donnent x1 = x2 = 0. Le noyau est donc réduit au vecteur !0
et l’application f est
injective. Par le théorème des dimensions, on en déduit que l’image est de dimension
2 0 = 2 L’application n’est donc pas surjective (puisque 2 3). Par élimination
entre les équations suivantes
8
:
y1 = 3x1 + x2
y2 = x1 + x2
y3 = 3x1 3x2
on obtient la relation :
3y1 6y2 y3 = 0
C’est l’équation de l’image. Il s’agit d’un plan dans l’espace d’arrivée R3.
Le rang de f est la dimension de l’espace image, c’est-à-dire 2.
7
8. 10-4) La droite de R2 d’équation x1 + x2 a pour vecteur directeur (1;1). Son
image est donc la droite de vecteur directeur f(1;1) = (2; 0; 6). C’est un sous-espace
vectoriel de dimension 1 de R3.
10-5) Dans l’équation du plan y1 +y2 +y3 = 0, on remplace y1, y2, y3 par leurs
valeurs en fonction de x1, x2, x3. On obtient donc
(3x1 + x2) + (x1 + x2) + (3x1 3x2) = 0
et par conséquent
7x1 x2 = 0
C’est l’équation d’une droite passant par l’origine dans R2. C’est donc un sous-espace
vectoriel de dimension 1 de R2.
Corrigé ex. 11 : Noyau et image sans calculs
f(x1; x2; x3; x4) =
2x1 x2 + x3
x1 + 2x2 x4
11-1) L’application f est linéaire car les deux expressions qui définissent le vec-teur
image sont homogènes de degré 1 (linéaires).
11-2) L’application f n’est pas injective car la dimension de l’espace départ est
strictement supérieure à la dimension de l’espace d’arrivée.
11-3) Pour déterminer le noyau de f, on doit résoudre les équations
2x1 x2 + x3 = 0
x1 + 2x2 x4 = 0
On peut facilement exprimer toutes les variables en fonction de x1 et x2 comme ceci :
0
x1
x2
x3
x4
BB@
1
CCA
=
0
BB@
x1
x2
2x1 + x2
x1 + 2x2
1
CCA
= x1
0
1
0
2
1
BB@
1
CCA
+ x2
0
0
1
1
2
BB@
1
CCA
Les deux vecteurs V1 =
0
1
0
2
1
BB@
1
CCA
et V2 =
0
BB@
1
0
1
1
2
CCA
sont indépendants et constituent
une base du noyau. Celui-ci est donc un sous-espace de dimension deux (un plan) dans
R4.
11-4) On vérifie facilement que f(V ) = 0 et donc que le vecteur V appartient
au noyau de f. Pour trouver les coordonnées de V dans la base (V1; V2) trouvée à la
question précédente, il faut déterminer 1 et 2 tels que :
V = 1V1 + 2V2
On trouve 1 = 2 et 2 = 1, donc V = 2V1 + V2.
11-5) Le théorème des dimensions stipule que, pour toute application linéaire
f : E ! F, on a
Dim Ker(f) + Dim Im(f) = DimE
où E est l’espace de départ. Puisque la dimension du noyau est 2 et que la dimension
de l’espace de départ est 4, on en déduit que la dimension de l’image est 2. L’image est
donc l’espace d’arrivée tout entier.
8
9. 3 Représentation matricielle
Corrigé ex. 12 : Images de la base canonique
On considère l’endomorphisme u de R3 défini par les relations :
8
:
u(!e
1) = !e
1 + !e
2 + !e
3
u(!e
2) = !e
1 + !e
2
u(!e
3) = 2u(!e
1) u(!e
2)
La dernière relation conduit, par substitution, à
u(!e
3) = !e
1 + !e
2 + 2!e
3
Les images des vecteurs de base ont respectivement pour coordonnées (1; 1; 1), (1; 1; 0)
et (1; 1; 2). La matrice de l’application dans la base canonique est donc
M =
0
@
1 1 1
1 1 1
1 0 2
1
A
On voit immédiatement que les deux premières lignes de cette matrice sont identiques
tandis que la troisième est indépendante. La matrice est donc de rang 2.
Le noyau est défini par les équations
x1 + x2 + x3 = 0
x1 + 0x2 + 2x3 = 0
On en tire x1 = 2x3 puis x2 = x3. C’est la droite passant par l’origine et de vecteur
directeur (2; 1; 1). Le noyau est de dimension 1.
L’image est l’ensemble des vecteurs vérifiant
8
:
y1 = x1 + x2 + x3
y2 = x1 + x2 + x3
y3 = x1 + 2x3
ce qui conduit à y1 = y2 et y3 quelconque. L’image est donc un plan et a pour dimen-sion
2.
Le théorème des dimensions se vérifie puisque la somme de la dimension du noyau
et de celle de l’image est égale à celle de l’espace lui-même : 1 + 2 = 3.
Enfin l’endomorphisme u n’est ni injectif (noyau non réduit à 0), ni surjectif (image
différente de l’espace d’arrivée).
Corrigé ex. 13 : Composition d’applications
On considère les fonctions f : (x; y) ! (3x + y; y) et g : (x; y) ! (y; 2x) de
R2 dans R2.
13-1) On calcule
f g(x; y) = f
g(x; y)
= f(y; 2x) = (3y + 2x; 2x)
9
10. De même on trouve
g f(x; y) = g
f(x; y)
= g(3x + y; y) = (y; 6x + 2y)
Ces deux applications sont bien linéaires puisqu’elles sont définies par des combi-naisons
linéaires des variables.
13-2) Les matrices représentant les applications f, g, f g et g f dans la base
canonique sont respectivement :
Mf =
3 1
0 1
Mg =
0 1
2 0
Mfg =
2 3
2 0
Mgf =
0 1
6 2
On vérifie facilement les relations Mfg = MfMg et Mgf = MgMf .
Corrigé ex. 14 : Matrice dans des bases données
On considère l’application u : R47! R3 définie par les relations suivantes dans
!f
1;
les bases canoniques B4 = f!e
1; !e
2; !e
3; !e
4g et B3 = f
!f
2;
!f
3g :
8
:
u(!e
1) =
!f
1
!f
2
u(!e
2) =
!f
2 + 2
!f
3
u(!e
3) =
!f
1 +
!f
2 +
!f
3
u(!e
!f
1 +
4) = 2
!f
2 + 3
!f
3
14-1) La matrice associée à u dans ces bases est faite en colonnes des images
des vecteurs de la base de départ, exprimées dans la base d’arrivée. On obtient donc à
partir des relations précédentes :
M =
0
@
1
A
1 0 1 2
1 1 1 1
0 2 1 3
C’est une matrice 3 4.
14-2) On montre facilement que les lignes de cette matrice sont indépendantes
(le bloc des trois premières colonnes, par exemple, est de déterminant non nul). Le rang
de u (qui est aussi le rang de la matrice) est donc 3.
14-3) Les coordonnées de l’image d’un vecteur !x
= (x1; x2; x3; x4) s’ob-tiennent
en multipliant la matrice M par le vecteur x (en colonne) :
u(x) = Mx =
0
@
1
A
1 0 1 2
1 1 1 1
0 2 1 3
0
BB@
x1
x2
x3
x4
1
CCA
=
0
@
x1 + x3 + 2x4
x1 + x2 + x3 + x4
2x2 + x3 + 3x4
1
A
Corrigé ex. 15 : Changement de base
La matrice
M =
0
@
1
A
0 0 0
1 1 0
1 1 2
10
11. représente un endomorphisme u de R3 dans une base B = f!e
1; !e
2; !e
3g.
15-1) Les vecteurs
!e
0
1,
!e
0
2 et
!e
0
3 sont définis dans la base canonique au moyen des
relations suivantes : 8
:
!e
0
1 = !e
1 + !e
2 + !e
3
!e
0
2 = !e
2 + !e
3
!e
0
= 3 3
!e
Ils ont donc respectivement pour coordonnées (1; 1; 1), (0; 1; 1) et (0; 0; 1) dans la base
canonique.
Leurs images (toujours dans la base canonique) sont obtenues en les multipliant à
gauche par la matrice M. On trouve
f(e0
1) = Me0
1 =
0
@
1
A
0
0
0
2) = Me0
f(e0
2 =
0
@
1
A
0
1
1
3) = Me0
f(e0
3 =
0
@
1
A
0
0
2
On constate donc les relations suivantes f(e0
1) = 0, f(e0
2) = e0
2 et f(e0
3) = 2e0
3.
La matrice M0 associée à u dans la base B0 est faite en colonnes des images des
vecteurs de B0 exprimées elles aussi dans la base B0. On a donc :
M0 =
0
@
1
A
0 0 0
0 1 0
0 0 2
15-2) La matrice M0 étant diagonale, on obtient :
(M0)n =
0
@
0 0 0
0 1 0
0 0 2n
1
A
On en déduit Mn en faisant le changement de base en sens inverse. La matrice de
passage P de la base B à la base B0 est
P =
0
@
1
A
1 0 0
1 1 0
1 1 1
La relation de changement de base est M0 = P1MP. Par conséquent M =
PM0P1 et donc Mn = P(M0)nP1. On calcule
P1 =
0
@
1
A
1 0 0
1 1 0
0 1 1
11
12. et on trouve, tous calculs faits, que
Mn =
0
@
0 0 0
1 1 0
1 1 2n 2n
1
A
Corrigé ex. 16 : Indépendance dans l’image
On considère l’application linéaire h de R3 dans R3 définie par
f : (a; b; c) ! (a + b; b + c; a c):
16-1) Calculons les images des vecteurs de base :
f(e1) = f(1; 0; 0) = (1; 0; 1)
f(e2) = f(0; 1; 0) = (1; 1; 0)
f(e3) = f(0; 0; 1) = (0; 1;1)
16-2) Cherchons une relation de dépendance entre les vecteurs f(e1), f(e2),
f(e3). Cela revient à chercher trois coefficients a1, a2, a3 non tous nuls tels que :
a1f(e1) + a2f(e2) + a3f(e3) = 0
On a donc :
a1(1; 0; 1) + a2(1; 1; 0) + a3(0; 1;1)
D’où les équations : 8
:
a1 + a2 = 0
a2 + a3 = 0
a1 a3 = 0
qui donnent a1 = a2 = a3 et donc, par exemple, a1 = 1, a2 = 1 et a3 = 1. La
combinaison recherchée est finalement :
f(e2) = f(e1) + f(e3)
16-3) Les vecteurs f(e1), f(e2), f(e3) sont liés mais ils sont deux à deux indé-pendants
: l’application f est donc de rang 2.
16-4) Par le théorème des dimensions, on en déduit que le noyau de f est de
dimension 3 2 = 1. En posant que f(x) = 0, on obtient les mêmes expressions que
précédemment : 8
:
a + b = 0
b + c = 0
a c = 0
Les éléments du noyau sont donc de la forme (a;a; a). Ce sont tous les multiples
de (1;1; 1). Le noyau est ainsi la droite passant par l’origine et de vecteur directeur
(1;1; 1).
12
13. 16-5) Si f est une application linéaire de Rp dans Rq et que les vecteurs f(e1),. . . ,
f(ep) forment un système linéairement indépendant dans l’image f(Rp), on a
dim Im f = p
Par conséquent
dim Ker f = p p = 0
ce qui montre que f est injective.
La réciproque est vraie : si f est injective, les vecteurs f(e1),. . . , f(ep) sont linéai-rement
indépendants. Ils constituent une base de f(Rp).
Remarque : f(Rp) n’est pas forcément Rq tout entier (il faudrait en plus que p = q).
Corrigé ex. 17 : Systèmes dégénérés
Dans le système d’équations linéaires :
8
:
x1 + 3x2 x3 = 0
mx2 + 3x3 = 0
x2 + x3 = 0
le déterminant est égal à (m 3). Si m6= 3, le système a une solution unique qui est
(0; 0; 0). On aura donc des solutions autres que (0; 0; 0) seulement si m = 3.
Cela signifie que le noyau de l’application linéaire associée
u :
0
@
x1
x2
x3
1
A !
0
@
x1 + 3x2 x3
mx2 + 3x3
x2 + x3
1
A
n’est pas réduit à l’élément !0
et, par conséquent, que l’application n’est pas injective.
Corrigé ex. 18 : Matrices par blocs
M =
A B
0 C
où A et C sont des blocs carrés.
18-1) Cherchons l’inverse M1 sous la forme d’une matrice par blocs M1 =
E F
G H
. Il faut queM M1 = I etM1M = I. En développant ces deux égalités,
on obtient les équations suivantes :
8
: AE + BG = I EA = I
AF + BH = 0 EB + FC = 0
CG = 0 GA = 0
CH = I HC = I
Les deux dernières relations imposent que C soit inversible. Dans ce cas, la relation
CG = 0 impose que G = 0.
Les deux premières relations imposent alors que AE = EA = I, c’est-à-dire que
A soit inversible.
13
14. 18-2) Sous la condition que A et C sont inversibles, on peut alors résoudre les
équations précédentes pour obtenir l’inverse de M.
On trouve facilement : 8
E = A1
F = A1BC1
G = 0
H = C1
:
et donc finalement
M1 =
A1 A1BC1
0 C1
:
On vérifie a posteriori que M M1 = M1M = I.
Corrigé ex. 19 : Bloc identité
On a M =
A 0
I B
et on souhaite trouver un inverse de la même forme, c’est-à-dire
M1 =
C 0
I D
.
Il faut que M M1 = I et M1M = I. En développant la première égalité, on
obtient les équations suivantes :
8
:
AC = I
C + B = 0
BD = I
La deuxième égalité donne de même :
8
:
CA = I
A + D = 0
DB = I
Puisque les blocs sont tous carrés par hypothèse, les produits obtenus ne sont pos-sibles
que si ils ont tous la même taille. C’est une première condition.
Les relations AC = CA = I signifient que A doit être inversible et alors on a
C = A1. De la même manière, B doit être inversible et on a D = B1.
La condition A + D = 0 enfin impose que A = B1.
14
15. 4 Diagonalisation
Corrigé ex. 20 : Valeurs et vecteurs propres
Modèle de résolution
Prenons, à titre d’exemple, la matrice
0
@
1
A.
2 0 1
1 4 1
1 2 0
On commence par calculer son polynôme caractéristique :
P() = det
0
@
1
A
2 0 1
1 4 1
1 2
= 3 + 62 11 + 6
= ( 1)( 2)( 3)
Il y a donc trois valeurs propres : 1 = 1, 2 = 2 et 3 = 3.
Les vecteurs propres associés X sont solution de l’équation (A I)X = 0 pour
chacune des valeurs propres respectivement.
Valeur propre 1 : on pose le système (A I)X = 0, ce qui donne
8
:
x1 + 0x2 + x3 = 0
x1 + 3x2 x3 = 0
x1 + 2x2 x3 = 0
En faisant la différence entre la deuxième et la troisième équation, on obtient x2 = 0,
ce qui 0 donne ensuite x3 = x1. On peut donc choisir comme vecteur propre V1 =
@
1
A (ou n’importe quel multiple de ce vecteur).
1
0
1
Valeur propre 2 : le système (A 2I)X = 0 s’écrit
8
:
0x1 + 0x2 + x3 = 0
x1 + 2x2 x3 = 0
x1 + 2x2 2x3 = 0
La première équation donne x3 = 0, 0
ce 1
qui conduit ensuite à x1 = 2x2. On peut donc
choisir comme vecteur propre V2 =
@
A.
2
1
0
Valeur propre 3 : le système (A 3I)X = 0 s’écrit
8
:
x1 + 0x2 + x3 = 0
x1 + x2 x3 = 0
x1 + 2x2 3x3 = 0
15
16. La première équation donne x1 = x3. En reportant dans la deuxième, on obtient alors
x2 = 2x3. On peut donc choisir comme vecteur propre V3 =
0
@
1
2
1
1
A.
Finalement, la matrice de passage est la matrice formée en colonne des vecteurs
propres :
P =
0
@
1
A
1 2 1
0 1 2
1 0 1
et la matrice diagonalisée comporte les valeurs propres sur la diagonale :
D =
0
@
1
A
1 0 0
0 2 0
0 0 3
La relation entre A, P et D est :
D = P1 AP
Solution de tous les exemples
Pour tous les exemples de cet exercice, on donne le polynôme caractéristique et les
valeurs propres. Lorsque la matrice est diagonalisable, on indique aussi la matrice de
passage et la matrice diagonale, sinon on indique seulement les vecteurs propres.
Matrice
2 1
1 2
Polynôme caractéristique : P() = 2 4 + 3 = ( 1) ( 3).
Valeurs propres : 1 = 1, 2 = 3.
Matrice de passage : P =
1 1
1 1
.
Matrice diagonale : D =
1 0
0 3
.
Matrice
6=5 8=5
8=5 6=5
Polynôme caractéristique : P() = 2 4 = ( 2) ( + 2).
Valeurs propres : 1 = 2, 2 = 2.
Matrice de passage : P =
1 2
2 1
.
Matrice diagonale : D =
2 0
0 2
.
Matrice
1 1
1 1
Polynôme caractéristique : P() = 2 2 + 2.
Valeurs propres : 1 = 1 i, 2 = 1 + i.
Matrice de passage : P =
1 1
i i
.
Matrice diagonale : D =
1 i 0
.
0 1 + i
16
17. Matrice
2 1
1 2
Polynôme caractéristique : P() = 2 4 + 5.
Valeurs propres : 1 = 2
i, 2 = 2 + i.
Matrice de passage : P =
1 1
i i
.
Matrice diagonale : D =
2 i 0
.
0 2 + i
Matrice
0
@
1
A
2 0 1
1 4 1
1 2 0
Polynôme caractéristique : P() = 3+6 211 +6 = ( 1) ( 2) ( 3).
Valeurs propres : 1 = 1, 2 0
= 2, 3 = 1
3.
Matrice de passage : P =
@
A.
1 2 1
0 1 2
1 0 1
Matrice diagonale : D =
0
@
1
A.
1 0 0
0 2 0
0 0 3
Matrice
0
@
1
A
1 2 0
2 4 3
2=3 3 2
Polynôme caractéristique : P() = 3 2 + 5 3 = ( 1)2 ( + 3).
Valeurs propres : 1 = 3 simple, 2 = 1 double.
0
La valeur propre simple 1 = 3 a pour vecteur propre V1 =
@
1
2
4=3
1
A.
0 La valeur propre double 2 = 1 ne possède qu’un seul vecteur propre V2 =
@
1
A.
La matrice n’est donc pas diagonalisable.
1
0
2=3
Matrice
0
@
1
A
4 6 3
2 3 2
1 2 0
Polynôme caractéristique : P() = 3 + 2 + 1 = ( 1)2 ( + 1).
Valeurs propres : 1 = 1 double, 0
2 = 1
1 simple.
Matrice de passage : P =
@
A.
1 0 3
0 1 2
1 2 1
Matrice diagonale : D =
0
@
1
A.
1 0 0
0 1 0
0 0 1
17
18. Matrice
0
@
1
A
3 0 0
8 7 1
4 1 5
Polynôme caractéristique : P() = 3+15 272 +108 = ( 6)2 ( 3).
Valeurs propres : 1 = 3 simple, 2 = 6 double.
0
1
La valeur propre simple 1 = 3 a pour vecteur propre V1 =
@
A.
3
4
8
La valeur propre double 2 = 6 ne possède qu’un vecteur propre V2 =
0
@
1
A.
0
1
1
La matrice n’est donc pas diagonalisable.
Matrice
0
@
1
A
3 0 2
7 2 11
3 0 4
Polynôme caractéristique : P() = 3 + 2 + 8 12 = ( 2)2 ( + 3).
Valeurs propres : 1 = 3 simple, 2 = 2 double.
0
La valeur propre simple 1 = 3 a pour vecteur propre V1 =
@
5
26
15
1
A.
La valeur propre double 2 = 2 ne possède qu’un vecteur propre V2 =
0
@
1
A.
0
1
0
La matrice n’est donc pas diagonalisable.
Matrice
0
@
1
A
4=3 2=3 2=3
1 1 0
1=3 1=3 2=3
Polynôme caractéristique : P() = 3 3 2 2 = ( + 1) ( + 2).
Valeurs propres : 1 = 0, 2 0
= 1, 3 = 1
2.
Matrice de passage : P =
@
A.
1 0 1
1 1 1
1 1 0
Matrice diagonale : D =
0
@
0 0 0
0 1 0
0 0 2
1
A.
Matrice 1
2
0
BB@
5 3 3 3
1 3 1 1
1 1 5 1
1 1 1 7
1
CCA
Polynôme caractéristique : P() = 410 3+35 250 +24 = ( 1) ( 2) ( 3) ( 4).
Valeurs propres : 1 = 1, 2 = 2, 3 = 3, 4 = 4.
Matrice de passage : P =
0
1 0 0 1
1 1 0 0
0 1 1 0
0 0 1 1
BB@
1
CCA
.
18
19. Matrice diagonale : D =
0
BB@
1 0 0 0
0 2 0 0
0 0 3 0
0 0 0 4
1
CCA
.
Matrice
0
1 1 1 1
0 0 0 0
1 1 1 1
0 0 0 2
BB@
1
CCA
Polynôme caractéristique : P() = 4 4 3 + 4 2 = 2 ( 2)2.
Valeurs propres : 1 = 0 double, 2 = 2 double.
Matrice de passage : P =
0
1 0 0 1
1 1 0 0
0 1 1 0
0 0 1 1
BB@
1
CCA
.
Matrice diagonale : D =
0
0 0 0 0
0 0 0 0
0 0 2 0
0 0 0 2
BB@
1
CCA
.
Corrigé ex. 21 : Matrice paramétrique
On considère la matrice A =
m 2 m
1 m 2
où m est un paramètre réel.
21-1) Pour que A ait une valeur propre nulle, il faut et il suffit que son déterminant
soit nul (puisque le déterminant est le produit des valeurs propres). On calcule :
det(A) = (m 2)2 m = m2 5m + 4 = (m 1)(m 4):
Cela se produit donc lorsque m = 1 ou m = 4.
On détermine la seconde valeur propre en utilisant la trace de la matrice. On a :
Tr(A) = 2m 4 = 1 + 2 = 0 + 2:
Par conséquent, 2 = 2m 4 =
(
2 si m = 1
4 si m = 4
21-2) Le vecteur propre V correspondant à la valeur propre 0 doit vérifier l’équa-tion
AV = 0V = 0.
Dans le cas où m = 1, l’équation AV = 0 a pour solution le vecteur V1 =
1
1
.
Dans le cas où m = 4, l’équation AV = 0 a pour solution le vecteur V2 =
.
2
1
19
20. Corrigé ex. 22 : Trace et déterminant
M =
0
@
1 1 2
1 2 1
2 1 1
1
A
22-1) Si on additionne les colonnes de la matrice M, on trouve le vecteur
0
@
1
A.
2
2
2
Or additionner les colonnes, revient à multiplier la matrice à droite par le vecteur
0
@
1
A.
1
1
1
On a donc la relation :
M
0
@
1
A =
1
1
1
0
@
1
A = 2
2
2
2
0
@
1
A:
1
1
1
Cela signifie que le vecteur
0
@
1
A est un vecteur propre de valeur propre 1 = 2.
1
1
1
22-2) On note 1, 2 et 3 les valeurs propres de M.
La trace de la matrice est :
Tr(A) = 1 + 2 1 = 2 = 1 + 2 + 3 = 2 + 2 + 3:
On en déduit que
2 + 3 = 0:
22-3) Le déterminant de la matrice est :
det(A) = 14 = 123 = 223:
On en déduit que
23 = 7:
22-4) Des deux questions précédentes, on déduit que 2 =
p
7 et 3 =
p
7.
Corrigé ex. 23 : Matrices symétriques
les matrices symétriques possèdent les propriétés suivantes :
– toute matrice symétrique est diagonalisable ;
– les valeurs propres sont toujours réelles (autrement dit, jamais complexes) et les
vecteurs propres de même ;
– des vecteurs propres correspondant à des valeurs propres distinctes sont ortho-gonaux
entre eux ;
– on peut choisir les vecteurs propres de manière à former une base orthonormée
(c’est-à-dire constituée de vecteurs unitaires orthogonaux entre eux).
20
21. Pour tous les exemples de cet exercice, on donne le polynôme caractéristique, les
valeurs propres, la matrice de passage P et la matrice diagonale D. La matrice de
passage est formée en colonnes de vecteurs orthonormés : cela en fait une matrice dite
orthogonale qui vérifie la propriété P1 = tP.
Matrice
0 2
2 0
Polynôme caractéristique : P() = 2 4 = ( 2) ( + 2).
Valeurs propres : 1 = 2, 2 = 2.
Matrice de passage : P =
0
B@
1
p
2
1
p
2
1
p
2
1
p
2
1
CA
.
Matrice diagonale : D =
.
2 0
0 2
Matrice
3 2
2 3
Polynôme caractéristique : P() = 2 6 + 5 = ( 1) ( 5).
Valeurs propres : 1 = 1, 2 = 5.
Matrice de passage : P =
0
B@
1
p
2
1
p
2
1
p
2
1
p
2
1
CA
.
Matrice diagonale : D =
1 0
0 5
.
Matrice
3 6
6 12
Polynôme caractéristique : P() = 2 15.
Valeurs propres : 1 = 0, 2 = 15.
Matrice de passage : P =
0
B@
2
p
5
1
p
5
1
p
2
2
p
5
1
CA
.
Matrice diagonale : D =
0 0
0 15
.
Matrice
0
@
1
A
1 2 2
2 1=2 1=2
2 1=2 1=2
Polynôme caractéristique : P() = 3 + 9 = ( 3) ( + 3).
Valeurs propres : 1 = 3, 2 = 3, 3 = 0.
Matrice de passage : P =
0
BBBBB@
2
p
6
1
p
3
0
1
p
6
1
p
3
1
p
2
1
p
6
1
p
3
1
p
2
1
CCCCCA
.
21
22. Matrice diagonale : D =
0
@
1
A.
3 0 0
0 3 0
0 0 0
Matrice
0
@
1
A
8 1 2
1 8 2
2 2 5
Polynôme caractéristique : P() = 3+21 2135 +243 = ( 9)2 ( 3).
Valeurs propres : 1 = 3 simple, 2 = 9 double.
Matrice de passage : P =
0
BBBBB@
1
p
6
2
p
5
1
p
30
1
p
6
0
5
p
30
2
p
6
1
p
5
2
p
30
1
CCCCCA
.
Matrice diagonale : D =
0
@
1
A.
3 0 0
0 9 0
0 0 9
Matrice
0
@
1
A
0 1 1
1 0 1
1 1 0
Polynôme caractéristique : P() = 3 + 3 + 2 = ( 2) ( + 1)2.
Valeurs propres : 1 = 2 simple, 2 = 1 double.
Matrice de passage : P =
0
BBBBB@
1
p
3
1
p
2
1
p
6
1
p
3
0
2
p
6
1
p
3
1
p
2
1
p
6
1
CCCCCA
.
Matrice diagonale : D =
0
@
2 0 0
0 1 0
0 0 1
1
A.
Matrice 1
3
0
@
1
A
7 2 2
2 1 4
2 4 1
Polynôme caractéristique : P() = 3+3 2+3 = ( 1) ( + 1) ( 3).
Valeurs propres : 1 = 1, 2 = 1, 3 = 3.
Matrice de passage : P =
0
BBBBB@
1
p
3
0
2
p
6
1
p
3
1
p
2
1
p
6
1
p
3
1
p
2
1
p
6
1
CCCCCA
.
Matrice diagonale : D =
0
@
1
A.
1 0 0
0 1 0
0 0 3
22
23. 5 Décompositions matricielles
Corrigé ex. 24 : Décomposition en valeurs singulières
Définitions et propriétés
On considère une matrice A de taille mn (donc pas nécessairement carrée) et on
note r son rang. On a donc r min(m; n).
Il est facile de vérifier que la matrice tAA est carrée de taille n n et symétrique
de rang r. Puisqu’elle est symétrique, elle est diagonalisable et ses valeurs propres sont
réelles. On montre que ses valeurs propres sont même positives ou nulles.
Traditionnellement, les valeurs propres non nulles de tAA sont notées 2
1; 2
2; : : : ; 2
r
et sont rangées dans l’ordre décroissant, comme ceci :
2
1 2
2 2
r 0:
Les nombres 1; 2; : : : ; r sont appelés les valeurs singulières de la matrice A.
Autrement dit, les valeurs singulières de A sont les racines carrées des valeurs propres
non nulles de tAA. Il y a r valeurs singulières (compte-tenu de l’ordre de multiplicité)
et, puisque tAA est de taille n, la valeur propre 0 est de multiplicité n r.
On montre qu’il est possible de trouver des matrices orthogonales U et V telles que
la matrice A s’écrive sous la forme du produit
A = V tU (1)
où est une matrice de la même taille que la matrice A ayant les valeurs singulières sur
sa diagonale et des 0 partout ailleurs. La matrice est dite parfois pseudo-diagonale.
Elle a la forme suivante :
=
0
BBBBBBBB@
1
1 0 0 0
0
. . . 0 0
CCCCCCCCA
0 0 r 0
0 0 0 0
...
...
...
...
0 0 0 0
Le produit matriciel de la relation (1) implique que la matrice V est carrée de taille m,
la matrice U est carrée de taille n. La matrice est de taille mn comme A. Puisque
U et V sont orthogonales, on peut inversement exprimer en fonction de A par la
relation suivante :
= tV AU (2)
La relation (1) s’appelle décomposition en valeurs singulières de la matrice A.
Cette décomposition est toujours possible mais n’est pas unique. Il est cependant facile
de déterminer des matrices orthogonales U et V . Il se trouve en effet qu’on peut prendre
pour la matrice U la matrice des vecteurs propres singuliers, c’est-à-dire la matrice
23
24. de passage dans la diagonalisation de la matrice symétrique tAA. Si on appelle U1,
U2,. . .,Un ces vecteurs propres, on définit alors r vecteurs V1, V2,. . .,Vr en posant
Vi =
1
i
AUi pour 1 i r:
Si r m, on complète ensuite les Vi obtenus afin de former une base orthonormée.
Les Vi constituent les colonnes de la matrice V .
Modèle de résolution
À titre d’exemple, prenons la matrice A =
.
3 1 1
1 3 1
On commence par calculer la matrice M = tAA :
M = tAA = =
0
@
10 0 2
0 10 4
2 4 2
1
A
Le polynôme caractéristique de M est :
P() = 3 + 22 2 120 = ( 12) ( 10)
Les valeurs propres sont donc 1 = 12, 2 = 10 et 3 = 0. Les valeurs singulières
sont les racines carrées des valeurs propres non nulles, donc 1 =
p
12 et 2 =
p
10.
La matrice sera la matrice pseudo-diagonale de même taille que A :
=
p
12 0 0
0
p
10 0
La diagonalisation de la matrice M = tAA conduit aux vecteurs propres suivants
(qui forment une base orthonormée) :
U1 =
0
BBBBBB@
1
p
6
2
p
6
1
p
6
1
CCCCCCA
U2 =
0
2
p
5
BBBB@
1
p
5
0
1
CCCCA
U3 =
0
1
p
30
2
p
30
BBBBBB@
5
p
30
1
CCCCCCA
On obtient donc la matrice orthogonale U :
U =
0
BBBBBB@
1
p
6
2
p
5
1
p
30
2
p
6
1
p
5
2
p
30
1
p
6
0
5
p
30
1
CCCCCCA
Il ne reste plus qu’à calculer les vecteurs V1 et V2 par la formule Vi = 1
i
AUi. On
trouve :
V1 =
1
1
AU1 =
1
p
12
3 1 1
1 3 1
0
BBBBBB@
1
p
6
2
p
6
1
p
6
1
CCCCCCA
=
0
BB@
p
2
2
p
2
2
1
CCA
24
25. puis
V2 =
1
2
AU2 =
1
p
10
3 1 1
1 3 1
0
2
p
5
BBBB@
1
p
5
0
1
CCCCA
=
0
BB@
p
2
2
p
2
2
1
CCA
Les vecteurs V1 et V2 constituent les colonnes de la matrice V :
V =
0
BB@
p
2
2
p
2
2
p
2
2
p
2
2
1
CCA
On peut vérifier a posteriori que le produit V tU redonne bien la matrice A de
départ :
V tU =
0
BB@
p
2
2
p
2
2
p
2
2
p
2
2
1
CCA
p
12 0 0
0
p
10 0
0
BBBBBB@
1
p
6
2
p
6
1
p
6
2
p
5
1
p
5
0
1
p
30
2
p
30
5
p
30
1
CCCCCCA
=
p
6
p
p p
5 0
6
5 0
0
BBBBBB@
1
p
6
2
p
6
1
p
6
2
p
5
1
p
5
0
1
p
30
2
p
30
5
p
30
1
CCCCCCA
=
:
3 1 1
1 3 1
Solution de tous les exemples
Matrice
3 1 1
1 3 1
V =
0
BB@
p
2
2
p
2
2
p
2
2
p
2
2
1
CCA =
0
@
p
12 0 0
0
p
10 0
1
A U =
0
BBBBBB@
1
p
6
2
p
5
1
p
30
2
p
6
1
p
5
2
p
30
1
p
6
0
5
p
30
1
CCCCCCA
25
26. Matrice
0
@
1
A
1 1
1 0
1 1
V =
0
BBBBBB@
1
p
3
1
p
2
1
p
6
1
p
3
0
2
p
6
1
p
3
1
p
2
1
p
6
1
CCCCCCA
=
0
p
3 0
BBB@
0
p
2
0 0
1
CCCA
U =
1 0
0 1
Matrice
0
1 1 0
1 1 0
1 0 1
1 0 1
BB@
1
CCA
V =
0
BBBBBBBBBBB@
1
2
1
2
p
2
2
0
1
2
1
2
p
2
2
0
1
2
1
2
0
p
2
2
1
2
1
2
0
p
2
2
1
CCCCCCCCCCCA
=
0
BBBBBB@
p
6 0 0
0
1
CCCCCCA
p
2 0
0 0 0
0 0 0
U =
0
BBBBBB@
1
p
3
0
2
p
6
1
p
3
1
p
2
1
p
6
1
p
3
1
p
2
1
p
6
1
CCCCCCA
Matrice
0
BBBB@
p
3=2
p
3=2
p
3=2 1
p
3=2 1
p
3=2 + 1
p
3=2 + 1
1
CCCCA
V =
0
BBBBBB@
1
p
3
0
2
p
6
1
p
3
1
p
2
1
p
6
1
p
3
1
p
2
1
p
6
1
CCCCCCA
=
0
@
1
A U =
3 0
0 2
0 0
0
BB@
1
p
2
1
p
2
1
p
2
1
p
2
1
CCA
26
27. Corrigé ex. 25 : Décomposition LU
Modèle de résolution
Prenons, à titre d’exemple, la matrice A =
0
@
1
A.
2 4 1
6 14 6
4 10 3
On doit trouver une matrice triangulaire inférieure L et une matrice triangulaire
supérieure U dont le produit est égal à la matrice donnée.
La condition nécessaire et suffisante pour que cette décomposition soit possible
est que les mineurs principaux “nord-ouest” (situés en haut à gauche de la matrice)
soient non nuls. Si de plus le déterminant de la matrice elle-même est non nul alors la
décomposition est unique.
On vérifie ici que :
det(2) = 26= 0
det
2 4
6 14
= 46= 0
det
0
@
2 4 1
6 14 6
4 10 3
1
A = 86= 0
On applique une méthode du pivot qui construira la matrice U et on remplit au fur
et à mesure les éléments de la matrice L.
Au départ la matrice L est égale à
0
@
1 0 0
: 1 0
: : 1
1
A.
Première étape
On prend la première ligne comme ligne pivot et on cherche à faire apparaître des 0
dans la première colonne sous le terme pivot (ici 2). On fait pour cela des combinaisons
linéaires avec la ligne pivot L1.
On remplace la deuxième ligne L2 par L2 3L1. On obtient la matrice :
0
@
1
A
2 4 1
0 2 3
4 10 3
Le coefficient
a21
a11
= 3 (qui a servi à faire la combinaison) devient le terme d’indice
(2; 1) de la matrice L.
De même, on remplace la troisième ligne L3 par L3 + 2L1. On obtient maintenant
la matrice :
A0 =
0
@
1
A
2 4 1
0 2 3
0 2 1
Le coefficient
a31
a11
= 2 (qui a servi à faire la combinaison) devient le terme d’indice
(3; 1) de la matrice L.
27
28. À ce stade, la matrice L est égale à
0
@
1
A.
1 0 0
3 1 0
2 : 1
Deuxième étape
La première ligne et la première colonne ont été traitées. On recommence mainte-nant
la même procédure sur le sous-bloc suivant :
0
2 4 1
0
0
B@
2 3
2 1
1
CA
Dans ce sous-bloc
, la première ligne va servir de ligne pivot et il faut
2 3
2 1
faire apparaître un 0 dans la première colonne sous le terme pivot 2.
Pour cela, on remplace la troisième ligne L3 de la matrice A0 par L3 + L2 et on
obtient maintenant la matrice :
A00 =
0
@
1
A
2 4 1
0 2 3
0 0 2
Le coefficient
a0
32
a0
22
= 1 (qui a servi à faire la combinaison) devient le terme d’indice
(3; 2) de la matrice L.
À ce stade, la matrice L est égale à
0
@
1
A.
1 0 0
3 1 0
2 1 1
La procédure est complète. La matrice A00 obtenue est triangulaire supérieure : c’est
la matrice U recherchée.
On peut vérifier effectivement que :
0
@
1
A
1 0 0
3 1 0
2 1 1
0
@
2 4 1
0 2 3
0 0 2
1
A =
0
@
2 4 1
6 14 6
4 10 3
1
A:
Solution de tous les exemples
25-1) Tous les exemples de cette question peuvent être factorisés. On donne ci-dessous
les deux matrices triangulaires L et U dont le produit L U est égal à la
matrice initiale.
Matrice
2 3
2 1
L =
1 0
1 1
U =
2 3
0 4
28
29. Matrice
3 2
6 5
L =
1 0
2 1
U =
3 2
0 1
Matrice
b c
a b a c + b
L =
1 0
a 1
U =
b c
0 b
Matrice
0
@
1
A
3 4 1
6 7 4
3 6 2
L =
0
@
1
A U =
1 0 0
2 1 0
1 2 1
0
@
1
A
3 4 1
0 1 2
0 0 1
Matrice
0
@
1
A
2 4 1
6 14 6
4 10 3
L =
0
@
1
A U =
1 0 0
3 1 0
2 1 1
0
@
2 4 1
0 2 3
0 0 2
1
A
Matrice
0
@
1
A
2 5 1
8 24 1
2 7 19
L =
0
@
1
A U =
1 0 0
4 1 0
1 3 1
0
@
1
A
2 5 1
0 4 5
0 0 3
Matrice
0
4 2 3 1
4 4 5 4
8 10 11 15
4 4 3 15
BB@
1
CCA
L =
0
BB@
1
1 0 0 0
1 1 0 0
2 3 1 0
1 1 2 1
CCA
U =
0
4 2 3 1
0 2 2 3
0 0 1 4
0 0 0 3
BB@
1
CCA
29
30. Matrice
0
3 0 4 1 1
15 1 22 5 8
9 2 15 6 11
12 2 12 7 4
3 5 12 4 21
BBBB@
1
CCCCA
L =
0
1 0 0 0 0
5 1 0 0 0
3 2 1 0 0
4 2 0 1 0
1 5 2 1 1
BBBB@
1
CCCCA
U =
0
3 0 4 1 1
0 1 2 0 3
0 0 1 3 2
0 0 0 3 2
0 0 0 0 1
BBBB@
1
CCCCA
25-2) La matrice A =
0
@
1 2 3
2 4 5
1 3 2
1
A ne vérifie pas le critère indiqué précé-demment
concernant les mineurs principaux “nord-ouest”. En effet, le déterminant du
mineur de taille 2 est nul : det
1 2
2 4
= 0.
Cette matrice n’admet donc pas de décomposition LU.
On transpose les lignes et les colonnes d’indices 2 et 3. On obtient alors la matrice
suivante :
A0 =
0
@
1
A
1 3 2
1 2 3
2 5 4
La matrice A0 vérifie le critère. En appliquant l’algorithme, on obtient :
L =
0
@
1
A U =
1 0 0
1 1 0
2 1 1
0
@
1 3 2
0 1 5
0 0 5
1
A
La matrice qui effectue la permutation des lignes et colonnes d’indices 2 et 3 est :
P =
0
@
1
A
1 0 0
0 0 1
0 1 0
On a donc la relation A = P L U.
Corrigé ex. 26 : Décomposition de Cholesky
Toutes les matrices de cet exercice sont des matrices symétriques définies positives.
On peut le vérifier en calculant leurs mineurs principaux “nord-ouest” qui sont tous
strictement positifs.
Par exemple, dans le cas de la matrice A =
0
@
1 2 1
2 8 2
1 2 14
1
A, on vérifie que
30
31. det(1) = 1 0
det
1 2
2 8
= 4 0
det
0
@
1
A = 36 0
1 2 1
2 8 2
1 2 14
On peut donc rechercher une décomposition de Cholesky, c’est-à-dire une matrice
triangulaire inférieure L telle que la matrice A s’écrive sous la forme A = LtL.
Modèle de résolution
Prenons, à titre d’exemple, la matrice A A =
0
@
1
A précédente.
1 2 1
2 8 2
1 2 14
Si on écrit la matrice A donnée et la matrice L recherchée sous forme de matrices
par blocs, elles ont la forme suivante :
A =
11 B
a21 A22
L =
11 0
l21 L22
où 11 et 11 sont des nombres, a21 et l21 sont des vecteurs colonnes et A22 et L22
sont des sous-blocs carrés.
On effectue le produit LtL et on l’identifie avec A. On obtient les relations sui-vantes
: 8
:
11 = 2
11
a21 = 11l21
A22 = l21
tl21 + L22
tL22
On en déduit que 8
:
11 =
p
11
l21 = a21=11
A22 l21
tl21 = L22
tL22
Les deux premières égalités permettent de calculer la première colonne de L et la troi-sième
signifie qu’il suffit de calculer la quantité A22 l21
tl21 (qui est un bloc de taille
2) et de lui appliquer à nouveau la même procédure.
On a donc ici : 8
: 11 =
p
1 = 1
l21 = a21=1 =
!
2
1
et d’autre part :
A22 l21
tl21 =
8 2
2 14
2
1
2 1
=
8 2
2 14
4 2
2 1
=
4 4
4 13
31
32. On a pour l’instant trouvé la première colonne de la matrice L. On arrive à la
matrice suivante : 0
1 0 0
2
1
B@
4 4
4 13
1
CA
On recommence la procédure avec la sous-matrice de taille 2 encadrée :
4 4
4 13
.
Cette fois on obtient :
(
11 =
p
4 = 2
l21 = a21=2 = 4=2 = 2
A22 l21
tl21 = 13 2 2 = 9:
On arrive à la matrice suivante:0
1 0 0
2 2 0
1 2 9
@
1
A
On termine en appliquant à nouveau la procédure au sous-bloc de taille 1 encadré :
11 =
p
9 = 3:
Finalement la matrice recherchée est
L =
0
@
1
A
1 0 0
2 2 0
1 2 3
On peut vérifier facilement que
LtL =
0
@
1
A
1 0 0
2 2 0
1 2 3
0
@
1 2 1
0 2 2
0 0 3
1
A =
0
@
1
A = A
1 2 1
2 8 2
1 2 14
Solution de tous les exemples
Pour tous les exemples de l’exercice, on indique ci-dessous la matrice triangulaire
inférieure L telle que le produit LtL soit égal à la matrice donnée.
Matrice
1 1
1 2
L =
1 0
1 1
Matrice
1 1
1 5
L =
1 0
1 2
32
33. Matrice
4 6
6 10
L =
2 0
3 1
Matrice
1 a
a a2 + 1
L =
1 0
a 1
Matrice
a2 a2
a2 2 a2
L =
a 0
a a
Matrice
0
@
1
A
1 2 1
2 8 2
1 2 14
L =
0
@
1
A
1 0 0
2 2 0
1 2 3
Matrice
0
@
1
A
1 2 1
2 5 0
1 0 6
L =
0
@
1
A
1 0 0
2 1 0
1 2 1
Matrice
0
@
16 4 4
4 5 3
4 3 11
1
A
L =
0
@
1
A
4 0 0
1 2 0
1 1 3
Matrice
0
1 1 1 1
1 2 4 2
1 4 11 7
1 2 7 20
BB@
1
CCA
L =
0
1 0 0 0
1 1 0 0
1 3 1 0
1 1 3 3
BB@
1
CCA
33