SlideShare una empresa de Scribd logo
1 de 39
Descargar para leer sin conexión
CAPÍTULO 3 
Valores propios y vectores propios� Diagonalización 
Este capítulo consta de cuatro secciones. Con el fin de dar una idea de lo que se hará en las dos primeras 
secciones, se considerará un espacio vectorial U y una transformación lineal T : U → U. Ahora; si existe 
una base ordenada � = {u1� u2� . . . � un} de U tal que [T] 
es una matriz diagonal, es decir, 
�� 
[T] 
�� 
= D = 
2 
6664 
λ1 0 · · · 0 
0 λ2 · · · 0 
... 
... 
. . . 
... 
0 0 · · · λn 
3 
7775 
� 
entonces 
T�ui) = λiui; i = 1� 2� . . . � n � 
esto es, T�ui) es un múltiplo escalar de ui. Este hecho da información inmediata acerca de la transformación 
lineal T. Por ejemplo, la imagen de T es el espacio generado por los vectores ui para los cuales λi�= 0� 
y el núcleo de T es el espacio generado por los restantes vectores ui. En la sección 3.2 se responderán las 
preguntas: ¿Para qué transformaciones lineales T existe una tal base �? y si existe, ¿Cómo encontrarla?. 
Las respuestas a estas preguntas están directamente ligadas a los conceptos de valor propio y vector propio, 
los cuales serán abordados en la sección 3.1. Se verá en esta sección, de que el cálculo de los valores propios y 
los vectores propios de una transformación lineal T se reduce al cálculo de los valores propios y los vectores 
propios de una cierta matriz A. Por otro lado, en las secciones 3.3 y 3.4 se consideraran los conceptos de valor 
propio, vector propio y diagonalización de matrices simétricas, los cuales son particularmente importantes 
en la teoría y en aplicaciones del álgebra lineal. 
3.1. Valores propios y vectores propios 
Un problema que se presenta con frecuencia en el álgebra lineal y sus aplicaciones es el siguiente: Dado un 
espacio vectorial U y dada una transformación lineal T : U → U, encontrar valores de un escalar λ para 
los cuales existan vectores u�= 0 tales que T�u) = λu. Tal problema se denomina un problema de valores 
propios (la figura 3.1 ilustra las posibles situaciones). En esta sección se verá cómo resolver dicho problema. 
3.1. Definición. Sean U un espacio vectorial y T : U → U una transformación lineal. Se dice que el escalar 
λ es un valor propio de T, si existe un vector u�= 0 de U tal que T�u) = λu. A dicho vector no nulo u se 
le llama un vector propio de T correspondiente al valor propio λ, o se dice que es λ-vector de T. 
Nota. Los valores propios se denominan también eigenvalores o valores característicos y los vectores propios 
se denominan también eigenvectores. 
3�
3.1. Valores propios y vectores propios Diagonalización de matrices 
u 
T(u)= λ 
u u 
0<λ<1 
u u 
T(u)= 0 
λ 
T(u)= u 
λ 
T(u)= u 
λ>1 λ<0 λ=0 
Figura 3�1� Interpretación geométrica de vector propio 
3.2. Ejemplo. Calcule los valores propios de la transformación lineal T : R2 → R2, dada por T �x� y) = 
�2x� x + 3y). 
De acuerdo con la definición anterior; el escalar λ es un vector propio T sii existe un vector u = �x� y)�= 0 
de R2 tal que T [�x� y)] = �2x� x + 3y) = λ�x� y)� lo que equivale a que exista un vector u = �x� y)�= 0 de 
R2 que satisfaga el sistema 
2x = λx 
x + 3y = λy . 
Ahora, si x�= 0, entonces se tiene que λ = 2 y por lo tanto y = −x. Esto quiere decir que todos los vectores 
de la forma 
u = �x� y) = �x�−x); x ∈ R� x�= 0 
son 2-vectores propios de T. En efecto: 
T [�x�−x)] = �2x� −2x) = 2�x�−x) . 
De otro lado, si x = 0 y y�= 0 entonces λ = 3. Esto quiere decir que todos los vectores de la forma 
u = �x� y) = �0� y); y ∈ R� y�= 0 
son 3-vectores propios de T. En efecto: 
T [�0� y)] = �0� 3y) = 3�0� y) . � 
La figura 3.2 ilustra el ejemplo anterior. 
En el ejemplo anterior observamos que a cada vector propio de T le corresponde un número infinito de 
vectores propios (todo un subespacio de U ⊂ R2� sin el vector nulo). Esto es válido en general, tal como se 
establece en la proposición siguiente. 
3.3. Proposición. Sean U un espacio vectorial, T : U → U una transformación lineal y λ un valor propio 
de T. El conjunto S�λ) de todos los λ-vectores propios de T junto con el vector �, es un subespacio de U. 
Demostración� De acuerdo con la definición de transformación lineal, así como de vector y valor 
propio se tiene: 
1. Si u1 ∈ S�λ) y u2 ∈ S�λ) entonces 
T�u1 + u2) = T�u1) + T�u2) = λ�u1 + u2) . 
Esto es, u1 + u2 ∈ S�λ). 
32
Diagonalización de matrices 3.1. Valores propios y vectores propios 
y 
T(u ) =3 (0, y) 
u = (x, −x) 
T(u) =2 (x, −x) 
x 
, 
, 
u = (0, y) 
Figura 3�2� Vectores propios de T�x� y) = �2x� x + 3y) 
2. Si u ∈ S�λ) y α ∈ R entonces 
T�αu) = αT�u) = λ�α · u) . 
Esto es, αu ∈ S�λ). 
De acuerdo con el teorema 1.15, S�λ) es un subespacio vectorial de U. � 
3.4. Definición. Sean U un espacio vectorial, T : U → U una transformación lineal y λ un valor propio de 
T. 
1. El subespacio de U� S�λ)� mencionado en el teorema anterior, se denomina espacio propio asociado 
al valor propio λ. 
2. La dimensión de S�λ) se denomina multiplicidad geométrica del valor propio λ. 
3.5. Nota. Sean U un espacio vectorial, T : U → U una transformación lineal, � una base ordenada 
para U y A = [T] 
�� 
� la matriz de la transformación T referida a la base �. Entonces para cada u ∈ U 
se tiene [T�u)] 
� 
= A[u] 
� 
�ver teorema 1.42). En particular, u es un λ-vector propio de T si y sólo si 
u�= 0 y A[u] 
� 
= [T�u)] 
� 
= [λu] 
� 
= λ [u] 
� 
. Esto es, u es un λ-vector propio de T si y sólo si u�= 0 
y A[u] 
� 
= λ [u] 
� 
. Por esta razón, y porque resulta en otros contextos, consideramos a continuación los 
conceptos particulares de valor propio y vector propio de una matriz cuadrada A. 
3.6. Definición. Sea A una matriz cuadrada de orden n. 
1. Se dice que el escalar λ es un valor propio de A, si existe un vector n×1, x�= 0 tal que Ax = λx. 
2. Si λ es un valor propio de A y si el vector n × 1, x�= 0 es tal que Ax = λx. Entonces se dice que 
x es un vector propio de A correspondiente al valor propio λ, o que x es un λ-vector de A. 
En el caso especial de la transformación lineal; A : Rn → Rn; x → y = Ax� esta la definición anterior 
concuerda con la definición 3.1 (véase la sección 1.3). De otro lado, según la definición anterior y la nota 
3.5, se puede entonces enunciar el siguiente teorema. 
3.7. Teorema. Sean U un espacio vectorial, T : U → U una transformación lineal, B una base ordenada 
para U y A = [T] 
�� 
. 
1. λ es un valor propio de T sii λ es un valor propio de A. 
33
3.1. Valores propios y vectores propios Diagonalización de matrices 
2. u ∈ U es un λ-vector propio de T sii x = [u]BB es un λ-vector propio de A. 
Dicho teorema garatiza entonces, que el cálculo de los valores y vectores propios de una transformación 
lineal se reduce al cálculo de los valores y vectores propios de una cierta matriz A. En lo que sigue, se verá 
cómo calcular los valores y vectores propios de una matriz. 
Sea A una matriz n×n. Por definición, el escalar λ es un valor propio de A sii existe un vector n×1� x�= 0 
tal que Ax = λx� lo cual equivale a que el sistema homogéneo de ecuaciones lineales �A − λI)x = 0 tenga 
una solución no trivial x�= 0. Ahora por el teorema 1.56 del capítulo 1, el sistema de ecuaciones lineales 
�A − λI)x = 0 tiene una solución x�= 0 sii |A − λI| = 0. En consecuencia, el escalar λ es un valor propio 
de A sii 
pA�λ) = |A − λI| = 
˛˛˛˛˛˛˛˛˛˛˛ 
a11 − λ a12 a13 · · · a1n 
a21 a22 − λ a23 · · · a2n 
a31 a32 a33 − λ · · · a3n 
... 
... 
... 
. . . 
... 
an1 an2 an3 · · · ann − λ 
˛˛˛˛˛˛˛˛˛˛˛ 
= 0 
La expresión pA�λ) = |A − λI| es un polinomio en λ de grado n (ejercicio 15), el cual se puede escribir en 
la forma: 
pA�λ) = |A − λI| = a0 + a1λ + a2λ2 + · · · + an−1λn−1 + �−1)nλn. 
En el caso particular de matrices 3 × 3 se tiene además (ejercicio 16), de que el polinomio característico 
está dado por 
pA�λ) = |A − λI| = −λ3 + Tr�A)λ2 − �m11 + m22 + m33)λ + det�A)� 
siendo mii, (i = 1� 2� 3) los menores principales de la matriz A (definición ??). 
3.8. Definición. Sea A una matriz cuadrada 
1. El polinomio característico de A está dado por pA�λ) = |A − λI|. 
2. La ecuación característica de A está dada por pA�λ) = |A − λI| = 0. 
El siguiente teorema resume buena parte de la discusión anterior. 
3.9. Teorema. Sea A una matriz cuadrada de orden n 
1. El escalar λ es un valor propio de A sii λ es una solución (real)� de la ecuación característica de 
A. 
2. A tiene a lo más n valores propios (reales)2.[?] 
3.10. Definición. Sea A una matriz cuadrada y λ un valor propio de A. La multiplicidad algebraica de λ 
es k� si λ es una raíz del polinomio característico de A de multiplicidad k. 
El siguiente algoritmo, recoge entonces un esquema para calcular los valores propios y los vectores propios 
de una matriz A. 
Paso 1 Se determina el polinomio característico pA�λ) = |A − λI| . 
Paso 2 Se resuelve la ecuación característica pA�λ) = |A − λI| = 0. Las soluciones (reales) de ésta, son 
los valores propios de A. 
�Aunque uno puede estudiar espacios vectoriales donde los escalares son números complejos, en estas notas sólo consid-eramos 
los valores propios de � como escalares reales, salvo que se exprese lo contrario. No sobra mencionar, que en cursos 
avanzados de espacios vectoriales, la única restricción para los escalares es que sean elementos de un sistema matemático 
llamado cuerpo o campo. 
2El teorema fundamental del álgebra establece que toda ecuación polinómica de grado n, con coeficientes complejos, 
tiene exactamente n raí ces complejas, contadas con sus multiplicidades. 
34
Diagonalización de matrices 3.1. Valores propios y vectores propios 
Paso 3 Para cada valor propio λ∗ de la matriz A, se resuelve el sistema de ecuaciones �A − λ∗I)x = 0. 
Las soluciones no nulas de este sistema son los λ∗−vectores propios de A. 
3.11. Ejemplo. Determine los valores propios y vectores propios de la matriz 
A = 
2 
4 
1 1 −1 
−1 3 −1 
−1 2 0 
3 
5 . 
Se determina inicialmente, el polinomio característico de A� pA�λ) = |A − λI| . Para ello se desarrolla el 
determinante |A − λI| por cofactores por la primera fila (véase el teorema 1.3) 
pA�λ) = |A − λI| = 
˛˛˛˛˛˛ 
1 − λ 1 −1 
−1 3 − λ −1 
−1 2 −λ 
˛˛˛˛˛˛ 
= �1 − λ) 
˛˛˛˛ 
3 − λ −1 
2 −λ 
˛˛˛˛ 
− 1 
˛˛˛˛ 
−1 −1 
−1 −λ 
˛˛˛˛ 
− 1 
˛˛˛˛ 
−1 3 − λ 
−1 2 
˛˛˛˛ 
= �1 − λ)�λ2 − 3λ + 2) − �1 − λ) − �−λ + 1) 
= �1 − λ)�λ2 − 3λ + 2) = −�1 − λ)2�λ − 2). 
De aquí se tiene, que λ = 1 ó λ = 2 son las soluciones de la ecuación característica pA�λ) = |A − λI| = 0. λ = 
1 y λ = 2 so pues los valores propios de A� con multiplicidades algebraicas k = 2 y k = 1 respectivamente. 
Ahora se calculan los vectores propios de A. Los 1−vectores propios de A son las soluciones no nulas del 
sistema de ecuaciones lineales �A − 1 · I)x = 0. Dicho sistema se resuelve usando el método de eliminación 
de Gauss-Jordan (véase el teorema 1.55 ). 
A − 1 · I = 
2 
4 
0 1 −1 
−1 2 −1 
−1 2 −1 
3 
5 ≈ 
2 
4 
1 0 −1 
0 1 −1 
0 0 0 
3 
5 = R 
Donde R es la forma escalonada reducida de la matriz A − 1 · I (Teorema 1.8). 
Las soluciones del sistema �A − 1 · I)x = 0 son, por lo tanto, los vectores de la forma: 
x = 
2 
4 
x1 
x2 
x3 
3 
5 = 
2 
4 
x3 
x3 
x3 
3 
5 = x3 
2 
4 
1 
1 
1 
3 
5 � x3 ∈ R. 
En consecuencia, 
Uλ� = U1 = 
8< 
2 
4 
: 
1 
1 
1 
3 
5 
9= 
; 
es una base para S�λ1) = S�1) y la multiplicidad geométrica del valor propio λ1 = 1 es 1. 
De otro lado, los 2−vectores propios de A son las soluciones no nulas del sistema de ecuaciones lineales 
�A − 2 · I)x = 0. Procediendo como en el cálculo anterior, se tiene: 
A − 2 · I = 
2 
4 −1 1 −1 
−1 1 −1 
−1 2 −2 
3 
5 ≈ 
2 
4 
1 0 0 
0 1 −1 
0 0 0 
3 
5 = R 
Donde R es la forma escalonada reducida de la matriz A−2 · I. Las soluciones del sistema �A−2 · I)x = 0 
35
3.1. Valores propios y vectores propios Diagonalización de matrices 
son los vectores de la forma: 
x = 
2 
4 
x1 
x2 
x3 
3 
5 = 
2 
4 
0 
x3 
x3 
3 
5 = x3 
2 
4 
0 
1 
1 
3 
5 � x3 ∈ R. 
En consecuencia, 
Uλ2 = U2 = 
8< 
2 
4 
: 
0 
1 
1 
3 
5 
9= 
; 
es una base para S�λ2) = S�2) y la multiplicidad geométrica del valor propio λ2 = 2 es 1. 
En el ejemplo anterior, la multiplicidad geométrica del valor propio λ1 = 1 es menor que su correspondiente 
multiplicidad algebraica y la multiplicidad geométrica del valor propio λ2 = 2 es igual que su correspondiente 
multiplicidad algebraica (ver el ejercicio 3.3 de la sección de ejercicios 3.3). 
3.12. Ejemplo. Calcule los valores y vectores propios de la matriz 
A = 
» 
0 1 
−1 0 
– 
. 
Para ello se encuentra el polinomio característico de A� pA�λ) = |A − λI| . 
pA�λ) = |A − λI| = 
˛˛˛˛ 
−λ 1 
−1 −λ 
˛˛˛˛ 
= λ2 + 1 � 
y se resuelve la ecuación característica de A� pA�λ) = |A − λI| = 0 
pA�λ) = λ2 + 1 = �λ + i)�λ − i) sii λ = i ó λ = −i. 
Puesto que las soluciones de la ecuación característica de A no son reales, entonces A no tiene valores 
propios y por lo tanto no tiene vectores propios, en el sentido considerado en este texto. 
3.13. Ejemplo. Sea T : P2 → P2 la transformación lineal definida por: 
T 
ˆ 
a + bx + cx2˜ 
= �a + b − c) + �−a + 3b − c)x + �−a + 2b)x2 
Determine los valores y los vectores propios de la transformación. 
Sea � = 
˘ 
1� x� x2¯ 
la base canónica de P2, se tiene entonces que: 
[T] 
�� 
= A = 
2 
4 
1 1 −1 
−1 3 −1 
−1 2 0 
3 
5 . 
De acuerdo con el teorema 3.7(1); los valores propios de la transformación lineal T son los valores propios 
de la matriz A� los cuales son, según el ejemplo 3.11 λ1 = 1 y λ2 = 2. 
De otro lado, del ejemplo 3.11 se sabe que Uλ� = {x1} es una base de S�λ1) y que Uλ2 = {x2} es 
una base de S�λ2), donde 
x1 = 
2 
4 
1 
1 
1 
3 
5 y x2 = 
2 
4 
0 
1 
1 
3 
5 . 
Como se estableció en el teorema 3.7(2), estos son respectivamente, los vectores de coordenadas respecto a 
la base � (véase apartado 1.2.2) de los vectores de P2; 
u1 = 1 + x + x2 y u2 = x + x2 . 
36
Diagonalización de matrices 3.1. Valores propios y vectores propios 
En consecuencia; U� 
λ� = {u1} = 
˘ 
1 + x + x2¯ 
es una base del espacio de vectores propios de T correspon-dientes 
al valor propio λ1 = 1 y U� 
λ2 = {u2} = 
˘ 
x + x2¯ 
es una base del espacio de vectores propios de T 
correspondientes al valor propio λ2 = 2. 
Terminamos esta sección con dos resultados que involucran matrices semejantes. El primero de ellos relaciona 
los polimomios característicos de matrices semenjantes y el segundo relaciona los vectores propios de dichas 
matrices. 
3.14. Teorema. Si A y B son matrices semejantes, entonces los polinomios caracterí sticos de A y B son 
iguales, y por consiguiente, las matrices A y B tienen los mismos valores propios. 
Demostración� Si A y B son matrices semejantes, entonces existe una matriz invertible P tal que 
B = P−1AP. De aquí: 
pB�λ) = |B − λI| 
= 
˛˛ 
P−1AP − λP−1P 
˛˛ 
= 
˛˛ 
P−1�A − λI)P 
˛˛ 
= |P−1| |A − λI| |P| 
= |P−1| |P| |A − λI| 
= |A − λI| 
= pA�λ). 
� 
3.15. Nota. El converso del teorema anterior no es cierto; o sea, si A y B son matrices con el mismo poli-nomio 
característico, no necesariamente A y B son matrices semejantes. Para mostrar esto, basta considerar 
el siguiente ejemplo. 
3.16. Ejemplo. Las matrices 
A = 
» 
1 0 
0 1 
– 
y B = 
» 
1 0 
3 1 
– 
tienen el mismo polinomio característico; explí citamente se tiene que pA�λ) = pB�λ) = �λ − 1)2. Sin 
embargo, A y B no son matrices semejantes, pues para cualquier matriz invertible P de orden 2 se tiene 
que: 
P−1AP = P−1IP = P−1P = I�= B. 
3.17. Proposición. Si A y B = P−1AP son matrices semejantes, entonces x es un λ−vector propio de A 
sii P−1x es un λ−vector propio de B. 
Demostración� Por definición se tiene 
Ax = λx ⇐⇒ AIx = λx 
⇐⇒ APP−1x = λx 
⇐⇒ P−1APP−1x = λP−1x 
Tomando B = P−1AP se tiene entonces que: x�= � es un λ-vector propio de A si y sólo si P−1x�= � es un 
λ-vector propio de B = P−1AP. � 
37
3.1. Valores propios y vectores propios Diagonalización de matrices 
3�1 Ejercicios 
En los ejercicios 1 al 1, responda verdadero o falso, justificando su respuesta: 
1. El Polinomio p�λ) = 3+2λ−λ2+4λ3 puede ser el polinomio característico de una matriz A ∈ �3×3. 
2. Si p�λ) = −λ3 + 4λ2 − 5λ + 2 es el polinomio característico de una matriz A ∈ �3×3, entonces 
|A| = 2 
2. 
3. x = 
4 
1 
1 
0 
3 
5 es un vector propio de M = 
2 
4 −3 1 −1 
−7 5 −1 
−6 6 −2 
3 
5 
4. λ = 1 es un valor propio de la matriz M anterior. 
5. Sea A una matriz cuadrada de orden n. Si C es una matriz cuadrada de orden n invertible, entonces 
las matrices A� C−1AC y CAC−1� tienen el mismo polinomio característico. 
6. Si la matriz A satisface la igualdad: A2 = 3A − 2I� entonces los posibles valores propios de A son 
λ1 = 1, λ2 = 2. 
En los ejercicios 7 al 15 demuestre la afirmación correspondiente. 
7. Si λ es un valor propio de A, entonces λn es un valor propio de An� n = 1� 2� 3� . . .. 
8. Si x es un vector propio de A, entonces x es un vector propio de An� n = 1� 2� 3� . . .. 
9. λ = 0 es un valor propio de una matriz A sii |A| = 0. 
10. Si A es una matriz invertible y λ es un valor propio de A, entonces λ−1 es un valor propio de A−1. 
11. Si A y C son matrices cuadradas de orden n y si C es invertible entonces las matrices A� AT � C−1AC, 
CAC−1� C−1ATC y CATC−1 tienen el mismo polinomio característico. 
12. Si T es una matriz triangular superior, entonces los valores propios de T son los elementos de la 
diagonal principal de T. 
13. Si A y B son matrices cuadradas del mismo orden, entonces AB y BA tienen los mismos valores 
propios (sugerencia: Analice los casos λ = 0 es un valor propio de AB y λ�= 0 es un valor propio 
de AB). 
14. Sean λ1� λ2� . . . � λn los diferentes valores propios de una matriz A y sean β1� β2� . . . � βm son los 
diferentes valores propios de una matriz B, entonces los diferentes valores propios de una matriz 
de la forma 
M = 
» 
A C 
� B 
– 
son λ1� λ2� . . . � λn, β1� β2� . . . � βm. 
15. Si A es una matriz cuadrada de orden n, entonces pA�λ) = |A − λI| es un polinomio de grado n 
en la variable λ que tiene la forma: 
pA�λ) = a0 + a1λ + a2λ2 + · · · + �−1)nλn. 
(Sugerencia: usar inducción sobre n). 
16. Si A es una matriz cuadrada de orden 3, entonces el polinomio característico de A, pA�λ) = |A − λI|, 
tiene la forma 
pA�λ) = |A − λI| 
= −λ3 + Tr�A)λ2 − �m11 + m22 + m33)λ + det�A)� 
siendo mii (i = 1� 2� 3) los menores principales de la matriz A. (Sugerencia: plantee una matriz 
general A = �aij)3×3 y use las definiciones correspondientes). 
17. Para cada una de las siguientes matrices: encuentre el polinomio característico, los varolres propios 
y los correspondientes espacios propios asociados. 
38
Diagonalización de matrices 3.2. Diagonalización 
�i) M = 
» 
1 2 
2 1 
– 
�ii) M = 
» 
1 0 
2 2 
– 
�iii) M = 
» 
1 1 
0 1 
– 
�iv) M = 
» 
0 2 
−2 0 
– 
�v) M = 
2 
4 
1 −3 3 
3 −5 3 
6 −6 4 
3 
5 �vi) M = 
2 
4 −3 1 −1 
−7 5 −1 
−6 6 −2 
3 
5 
�vii) M = 
2 
4 
3 1 −1 
1 3 −1 
3 1 −1 
3 
5 �viii) M = 
2 
4 
2 1 0 
0 1 −1 
0 2 4 
3 
5 
�ix) M = 
2 
664 
2 4 0 0 
5 3 0 0 
0 0 1 2 
0 0 2 −2 
3 
775 
�x) M = 
2 
664 
0 2 0 0 
2 1 0 0 
0 0 1 1 
0 0 −2 4 
3 
775 
3.2. Diagonalización 
En esta sección se responderan las preguntas siguientes: Dado un espacio vectorial U y dada una transfor-mación 
lineal T : U → U ¿Existe una base � de U tal que [T] 
�� 
es una matriz diagonal? y si existe ¿cómo 
encontrar una tal base? 
Como se estableció en el teorema 1.48(2), si T : U → U es una transformación lineal, �1 y �2 son bases 
ordenadas de U� A = [T] 
���� y P = [I] 
�2�� , entonces D = [T] 
�2�2 = P−1AP� esto es, las matrices A y D 
son semejantes. 
Esta consideración permite formular las preguntas anteriores en términos de matrices, así: Dada una matriz 
cuadrada A, ¿Existe una matriz diagonal D semejante a la matriz?, en otros términos, ¿existirá una matriz 
invertible P tal que P−1AP = D sea una matriz diagonal? y si existe ¿cómo encontrar una tal matriz P ? 
3.18. Definición. Sea A una matriz cuadrada. Se dice que A es diagonalizable si A es semejante a una 
matriz diagonal. 
3.19. Teorema. Sea A una matriz cuadrada de orden n. Si existen n vectores propios de A linealmente 
independientes, entonces A es diagonalizable; esto es, existe una matriz invertible P tal que P−1AP = D 
es una matriz diagonal. Además, los vectores columna de P son los vectores propios de A y los elementos 
de la diagonal de D son los correspondientes valores propios de A. 
Demostración� Sean λ1� λ2� . . . �λn� los n valores propios de A� los cuales no son necesariamente 
diferentes y sean x1� x2� . . . � xn, vectores propios de A linealmente independientes, correspondientes respec-tivamente 
a cada uno de dichos valores propios. 
Sea ahora P la matriz cuya j−ésima columna es el vector propio xj � j = 1� 2� . . . � n, la cual particionamos 
como sigue: 
P = 
ˆ 
x1 x2 · · · xn 
˜ 
. 
Puesto que las columnas de P son linealmente independientes, entonces P es invertible (teorema 1.56). 
39
3.2. Diagonalización Diagonalización de matrices 
Ahora, 
AP = A 
ˆ 
x1 x2 · · · xn 
˜ 
= 
ˆ 
Ax1 Ax2 · · · Axn 
˜ 
= 
ˆ 
λ1x1 λ2x2 · · · λnxn 
˜ 
= 
ˆ 
x1 x2 · · · xn 
˜ 
2 
6664 
λ1 0 · · · 0 
0 λ2 · · · 0 
... 
... 
. . . 
... 
0 0 · · · λ3 
3 
7775 
= PD 
Donde D es la matriz diagonal indicada arriba. Por lo tanto, P−1AP = D� y el teorema queda demostrado. 
� 
El recí proco de este resultado también es válido y está dado por el siguiente teorema. La demostración se 
deja como ejercicio. 
3.20. Teorema. Sea A una matriz cuadrada de orden n. Si A es diagonalizable, es decir, si existe una 
matriz invertible P tal que P−1AP = D es una matriz diagonal, entonces existen n vectores propios de A 
linealmente independientes. Además, los vectores columna de P son vectores propios de A y los elementos 
de la diagonal de D son los correspondientes valores propios de A. 
3.21. Ejemplo. Verifique que la matriz A = 
2 
4 
4 −1 2 
−6 5 −6 
−6 3 −4 
3 
5 es diagonalizable y encuentre una matriz 
invertible P tal que P−1AP = D sea una matriz diagonal. Para tal fin, veamos que A tiene 3 vectores 
propios linealmente independientes. En efecto: 
El polinomio característico de A� está dado por 
pA�λ) = |A − λI| = 
˛˛˛˛˛˛ 
4 − λ −1 2 
−6 5 − λ −6 
−6 3 −4 − λ 
˛˛˛˛˛˛ 
= −�λ − 2)2�λ − 1). 
La ecuación característica de A� pA�λ) = |A − λI| = 0 tiene entonces como solución a λ = 2 (de multiplici-dad 
2) y a λ = 1 (de multiplicidad 1). Estos escalares son pues, los valores propios de A. 
El paso siguiente es determinar los vectores propios asociados: 
Los 2-vectores propios de A son las soluciones no nulas del sistema de ecuaciones �A − 2I)x = 0� y los 
1-vectores propios de A son las soluciones no nulas del sistema de ecuaciones �A − 1I)x = 0. Es decir, se 
debe resolver sistemas homogéneos de ecuaciones cuyas matrices de coeficientes son respectivamente: 
A − 2I = 
2 
4 
2 −1 2 
−6 3 −6 
−6 3 −6 
3 
5 y A − 1I = 
2 
4 
3 −1 2 
−6 4 −6 
−6 3 −5 
3 
5 . 
Es fácil verificar que las soluciones del sistema homogéneo �A − 2I)x = 0 son los vectores de la forma 
x = 
2 
4 
x1 
x2 
x3 
3 
5 = 
2 
4 
1 
2x2 − x3 
x2 
x3 
3 
5 
= 
1 
2 
x2 
2 
4 
1 
2 
0 
3 
5 + x3 
2 
4 −1 
0 
1 
3 
5 � x2� x3 ∈ R� 
40
Diagonalización de matrices 3.2. Diagonalización 
en consecuencia, 
Uλ� = U2 = 
8< 
2 
4 
: 
1 
2 
0 
3 
5 � 
2 
4 −1 
0 
1 
3 
5 
9= 
; 
es una base para S�λ1) = S�2). 
De otra parte, se encuentra que las soluciones del sistema �A − 1I)x = 0 son los vectores de la forma 
x = 
2 
4 
x1 
x2 
x3 
3 
5 = 
2 
4 −1 
3x3 
x3 
x3 
3 
5 = 
1 
3 
x3 
2 
4 −1 
3 
3 
3 
5 � x3 ∈ R. 
En consecuencia, 
Uλ2 = U1 = 
8< 
2 
4 −1 
: 
3 
3 
3 
5 
9= 
; 
es una base para S�λ2) = S�1). 
Ahora, los vectores 
x1 = 
2 
4 
1 
2 
0 
3 
5 � x2 = 
2 
4 −1 
0 
1 
3 
5 y x3 = 
2 
4 −1 
3 
3 
3 
5 
son vectores propios de A correspondientes a los valores propios 2� 2 y 1, respectivamente, y son linealmente 
independientes como se comprueba fácilmente. 
De acuerdo con el teorema 3.19, la matriz A es diagonalizable. Por otro lado, según la demostración del 
teorema, la matriz 
P = 
ˆ 
x1 x2 x3 
˜ 
= 
2 
4 
1 −1 −1 
2 0 3 
0 1 3 
3 
5 
es invertible y es tal que: 
P−1AP = D = 
2 
4 
2 0 0 
0 2 0 
0 0 1 
3 
5 . 
3.22. Ejemplo. La matriz del ejemplo 3.11, 
A = 
2 
4 
1 1 −1 
−1 3 −1 
−1 2 0 
3 
5 
no es diagonalizable, pues vimos en dicho ejemplo, que la matriz A tiene dos valores propios: λ1 = 1 y 
λ2 = 2, y que 
U1 = 
8< 
2 
4 
: 
1 
1 
1 
3 
5 
9= 
; y U2 = 
8< 
2 
4 
: 
0 
1 
1 
3 
5 
9= 
; 
son bases para los espacios propios asociados, respectivamente. Así que A sólo tiene dos vectores propios 
linealmente independientes. 
3.23. Teorema. Si λ1� λ2� . . . � λk son los valores propios diferentes de una matriz A y si x1� x2� . . . � xk 
son vectores propios de A correspondientes a los valores propios λ1� λ2� . . . � λk, respectivamente, entonces 
C = {x1� � x2� . . . � xk} es un conjunto linealmente independiente. 
41
3.2. Diagonalización Diagonalización de matrices 
Demostración� La demostración se hará utilizando inducción sobre el número k de vectores del con-junto 
C. 
Si C = {x1}, entonces C es linealmente independiente, pues x1�= 0. 
El teorema es cierto para cuando k = 2. En efecto: Si 
(3.1) α1x1 + α2x2 = 0� 
premultiplicando (3.1) por el escalar λ2 se obtiene: 
(3.2) λ2α1x1 + λ2α2x2 = 0. 
De otra parte; premultiplicando (3.1) por la matriz A se llega a: 
(3.3) λ1α1x1 + λ2α2x2 = 0. 
Restando (3.3) de (3.2) se obtiene: 
�λ2 − λ1)α1x1 = 0. 
Puesto que x1�= 0� entonces �λ2−λ1)α1 = 0. Dado que λ1�= λ2 se tiene entonces que α1 = 0. Reemplazan-do 
este valor de α1 en (3.1) se llega a que α2x2 = 0� pero x2�= 0� entonces α2 = 0. 
Suponga ahora que el teorema es cierto para cuando k = j y verifique que el teorema es cierto para 
cuando k = j+1. Si 
(3.4) α1x1 + α2x2 + . . . + αjxj + αj+1xj+1 = 0� 
premultiplicando (3.4) por el escalar λj+1 se obtiene: 
(3.5) λj+1α1x1 + λj+1α2x2 + . . . + λj+1αjxj + λj+1αj+1xj+1 = 0� 
De otra parte; premultiplicando (3.4) por la matriz A se llega a: 
(3.6) λ1α1x1 + λ2α2x2 + . . . + λjαjxj + λj+1αj+1xj+1 = 0. 
Restando (3.6) de (3.5) se obtiene: 
�λj+1 − λ1)α1x1 + �λj+1 − λ2)α2x2 + . . . + �λj+1 − λj)αjxj = 0. 
Por hipótesis de inducción se tiene 
�λj+1 − λ1)α1 = �λj+1 − λ2)α2 = . . . = �λj+1 − λj)αj = 0 . 
De otro lado, por hipótesis del teorema los escalares λ1� . . . � λj � λj+1 son diferentes, entonces se obtiene que 
α1 = α2 = . . . = αj = 0. Reemplazando estos valores en 3.4 se llega a que αj+1xj+1 = 0� pero xj+1�= 0� 
entonces αj+1 = 0. El teorema queda entonces demostrado. � 
La prueba del siguiente corolario es consecuencia inmediata de los teoremas 3.23 y 3.19. 
3.24. Corolario. Sea A una matriz cuadrada de orden n. Si A posee n valores propios distintos, entonces 
A es diagonalizable. 
3.25. Ejemplo. La matriz 
A = 
2 
4 
1 2 3 
0 4 5 
0 0 6 
3 
5 
3×3 
es diagonalizable. En efecto, la ecuación característica de A es: 
pA�λ) = |A − λI| = �−1)3�λ − 1)�λ − 4)�λ − 6) = 0. 
De esto se sigue que A tiene tres valores propios distintos, a saber: λ1 = 1� λ2 = 4 y λ3 = 6. 
42
Diagonalización de matrices 3.2. Diagonalización 
De acuerdo con los teoremas 3.19 y 3.20, dada la matriz cuadrada A de orden n; existe una matriz invertible 
P tal que P−1AP = D es una matriz diagonal sii A tiene n vectores propios linealmente independientes. 
Además, si existe una tal matriz P, los vectores columna de P son vectores propios de A y los elementos de 
la diagonal de D son los valores propios de A. Quedan así contestadas las preguntas propuestas al comienzo 
de esta sección sobre la diagonalización de matrices. El siguiente teorema responde a las preguntas sobre 
diagonalización pero formuladas en el contexto de las transformaciones lineales. 
3.26. Teorema. Sea U un espacio de dimensión n y sea T : U → U una transformación lineal. Existe 
una base ordenada �2 de U tal que [T] 
�2�2 = D es una matriz diagonal sii T tiene n vectores propios 
linealmente independientes. Además, si �2 = {u1� u2� . . . � un} es una base ordenada de U tal que 
[T] 
�2�2 = D = 
2 
6664 
λ1 0 · · · 0 
0 λ2 · · · 0 
... 
... 
. . . 
... 
0 0 · · · λn 
3 
7775 
es una matriz diagonal, entonces ui es un λi-vector propio de T, o sea T�ui) = λiui� i = 1� 2� . . . � n. 
Demostración� Puesto que las matrices asociadas a transformaciones lineales y referidas a bases 
arbitrarias son semejantes, y puesto que el polinomio característico de matrices semejantes es el mismo (ver 
teorema 3.14), se puede considerar una base arbitraria �1 para U. 
Sea pues A = [T] 
���� � la matriz de la transformación T referida a dicha base �1, Existe una base ordenada 
�2 de U tal que D = [T] 
�2�2 = [I]−1 
�2�� A[I] 
�2�� es una matriz diagonal sii A es semejante a una matriz 
diagonal. Ahora por los teoremas 3.19 y 3.20; A es semejante a una matriz diagonal si y sólo si A tiene n 
vectores propios linealmente independientes, lo cual equivale a que T tenga n vectores propios linealmente 
independientes (ver el apartado 1.2.2) 
Además, si �2 = {u1� u2� . . . � un} es una base ordenada de U tal que 
[T] 
�2�2 = D = 
2 
6664 
λ1 0 · · · 0 
0 λ1 · · · 0 
... 
... 
. . . 
... 
0 0 · · · λ1 
3 
7775 
es una matriz diagonal, entonces, de acuerdo con la definición de la matriz [T] 
�2�2 � T�ui) = λiui ; o sea, 
ui es un λi-vector propio de T, i = 1� 2� . . . � n. � 
3.27. Ejemplo. Considere la transformación lineal T : P3 → P3 definida por: 
T 
ˆ 
a + bx + cx2˜ 
= �4a − b + 2c) + �−6a + 5b − 6c)x + �−6a + 3b − 4c)x2. 
Encuentre una base ordenada �2 de U = P2 tal que [T] 
�2�2 = D es una matriz diagonal. 
Sea �1 = {1� x� x²} la llamada base canónica de P2 entonces: 
A = [T] 
���� = 
2 
4 
4 −1 2 
−6 5 −6 
−6 3 −4 
3 
5 � 
que es la matriz del ejemplo 3.21. De dicho ejemplo se sabe que 
x1 = 
2 
4 
1 
2 
0 
3 
5 � x2 = 
2 
4 −1 
0 
1 
3 
5 y x3 = 
2 
4 −1 
3 
3 
3 
5 � 
43
3.2. Diagonalización Diagonalización de matrices 
son vectores propios linealmente independientes de A, correspondientes respectivamente a los valores propios 
2� 2 y 1. Tales vectores x1� x2 y x3 son los correspondientes vectores de coordenadas, respecto a la base �1, 
de los vectores u1� u2 y u3 de P2 para 
u1 = 1 + 2x; u2 = −1 + x2 y u3 = −1 + 3x + 3x2. 
Ahora, los valores propios de T son los valores propios de A (ver teorema 3.7), esto es, los diferentes 
valores propios de T son λ1 = 2 y λ2 = 1. De otro lado, por lo establecido en el apartado 1.2.2, u1� u2 y 
u3 son vectores propios de T linealmente independientes, correspondientes a los valores propios 2� 2 y 1, 
respectivamente. En consecuencia, de acuerdo con el teorema anterior, �2 = {u1� u2� u3} es una base para 
P2 tal que: 
[T] 
�2�2 = D = 
2 
4 
2 0 0 
0 2 0 
0 0 1 
3 
5 . 
Como se ha visto, dada una matriz cuadrada A de orden n� existe una matriz invertible P tal que P−1AP = 
D es una matriz diagonal sii existen n vectores propios de A linealmente independientes. En el caso en 
que A no posea n vectores propios linealmente independientes, es posible, bajo cierta condición, que A sea 
semejante a una matriz triangular superior T; es decir, que A sea semejante a una matriz T = [tij ]n×n para 
la cual tij = 0 si i > j. El siguiente teorema explicita esta afirmación. 
3.28. Teorema. Sea A una matriz cuadrada (real) de orden n. Todas las soluciones de la ecuación car-acterística 
de A son reales sii existe una matriz invertible P (real) tal que P−1AP = T es una matriz 
triangular superior. Además, si existe una tal matriz P, entonces los elementos de la diagonal de T son los 
valores propios de A. 
Demostración� �=⇒) La demostración en este sentido se hará, utilizando inducción sobre el orden 
n de la matriz A. Para cuando n = 2� la implicación es verdadera. En efecto, de la hipótesis se sigue que 
A tiene dos valores propios (reales) los cuales no son necesariamente distintos. Sea λ1 un valor propio de 
A. Existe por lo tanto un vector 2 × 1� x1�= 0 tal que Ax1 = λ1x1. Por el teorema1.21(3), existe un vector 
2 × 1� x2�= 0 tal que � = {x1� x2} es una base para �2×1. Ahora, la matriz P = [ x1 x2 ] es invertible; 
escribamos a P−1 particionada por filas así: 
P−1 = 
» 
y1 
y2 
– 
� y1� y2 ∈ �1×2 � 
entonces se tiene que 
P−1AP = 
» 
y1 
y2 
– 
A 
ˆ 
x1 x2 
˜ 
= 
» 
λ y1Ax2 
0 y2Ax2 
– 
= T 
es una matriz triangular superior. 
Supongamos ahora que la implicación es verdadera para cuando n = j − 1 y demostremos que ésta es 
verdadera cuando n = j� j ≥ 3. Sea A una matriz cuadrada de orden j para la cual todas las soluciones 
de su ecuación característica son reales. De ésto se sigue que A tiene j valores propios (reales) los cuales 
no son necesariamente distintos. Sea λ1 un valor propio de A. Existe por lo tanto un vector j × 1� x1�= 0 
tal que Ax1 = λ1x1. Por el teorema 1.21(3), existen j − 1 vectores x2� x3� . . . � xj de �j×1 tales que 
� = {x1� x2� x3� . . . � xj} es una base para �j×1. Ahora por el teorema 1.56, la matriz 
P1 = 
ˆ 
x1 x2 · · · xj 
˜ 
= 
ˆ 
x1 M 
˜ 
es invertible. Escribamos la inversa P−1 así: 
P−1 
1 = 
» 
y1 
N 
– 
� y1 ∈ �1×j � y N ∈ ��j−1)×j . 
44
Diagonalización de matrices 3.2. Diagonalización 
Entonces se tiene 
P−1 
1 AP1 = 
» 
y1 
N 
– 
A 
ˆ 
x1 M 
˜ 
= 
» 
λ1 y1AM 
0 NAM 
– 
= 
» 
λ1 B 
0 C 
– 
= T1 
es una matriz triangular superior por bloques. 
Ahora, las matrices A y T1 tienen el mismo polinomio característico (teorema 3.14): 
pA�λ) = p�� �λ) = �λ1 − λ) |C − λI| . 
De ésto se sigue, que todas las soluciones de la ecuación característica de la matriz cuadrada de orden j−1, 
C, son reales. Por hipótesis de inducción, existe una matriz invertible Q tal que Q−1CQ = T2 es una matriz 
triangular superior. Sea ahora: 
P2 = 
» 
1 � 
� Q 
– 
� 
entonces se tiene que la matriz invertible P = P1P2 es tal que 
P−1AP = P−1 
2 P−1 
1 AP1P2 = 
» 
1 � 
� Q−1 
– » 
λ1 B 
� C 
– » 
1 � 
� Q 
– 
= 
» 
λ1 BQ 
� Q−1CQ 
– 
= 
» 
λ1 BQ 
� T2 
– 
= T 
es una matriz triangular superior. 
La demostración de la otra implicación y de la segunda afirmación del teorema quedan como ejercicio 
para el lector. � 
3.29. Ejemplo. Todas las soluciones de la ecuación característica de la matriz del ejemplo 3.22 
A = 
2 
4 
1 1 −1 
−1 3 −1 
−1 2 0 
3 
5 
3×3 
son reales, pues: 
pA�λ) = −�λ − 1)2�λ − 2) = 0 sii λ1 = 1 ó λ2 = 2 . 
De otro lado, como lo establecimos en el ejemplo 3.22, la matriz A no es diagonalizable, pues A sólo posee 
dos vectores propios linealmente independientes. En particular: 
x1 = 
2 
4 
1 
1 
1 
3 
5 y x2 = 
2 
4 
0 
1 
1 
3 
5 
son vectores propios linealmente independientes correspondientes a los valores propios λ1 = 1 y λ2 = 2, 
respectivamente. 
Por el teorema anterior, existe una matriz invertible P tal que P−1AP = T es una matriz triangular 
superior. Para encontrar una tal matriz P, basta proporcionar un vector x3 tal que � = {x1� x2� x3} sea 
una base para �3×1; el vector 
x3 = 
2 
4 
0 
2 
3 
3 
5 
sirve para tal efecto. Ahora bien, la matriz 
P = 
ˆ 
x1 x2 x3 
˜ 
= 
2 
4 
1 0 0 
1 1 2 
1 1 3 
3 
5 
45
3.2. Diagonalización Diagonalización de matrices 
es invertible y es tal que 
P−1AP = T = 
2 
4 
1 0 −1 
0 2 2 
0 0 1 
3 
5 
es una matriz triangular superior. 
De acuerdo con el teorema anterior, si A es una matriz cuadrada (real) cuyos valores propios no son todos 
reales entonces, no puede existir una matriz invertible P (real) tal que P−1AP = T sea una matriz triangular 
superior. Ahora bien, como se ha mencionado se pueden estudiar espacios vectoriales donde los escalares 
sean números complejos (ver piés de página de la página 34) y se pueden obtener resultados más generales. 
En particular, se tiene que para toda matriz cuadrada A (real o compleja) existe una matriz invertible P 
(real o compleja) tal que P−1AP = T sea una matriz triangular superior. Este resultado se tiene, gracias 
a la propiedad importante del sistema de los números complejos que establece, que todo polinomio de 
grado n con coeficientes reales o complejos tiene exactamente n raíces reales o complejas, contadas sus 
multiplicidades. En el teorema siguiente se establece este resultado sin demostración. Quien desee estudiar 
sobre éste, puede consultar las secciones 5.5 y 5.6 de [1]. 
3.30. Teorema. Para toda matriz cuadrada A (real o compleja) existe una matriz invertible P (real o 
compleja) tal que P−1AP = T es una matriz triangular superior. Además, los elementos de la diagonal de 
T son las soluciones de la ecuación característica de A. 
3.31. Ejemplo. Considere la matriz (real) 
A = 
2 
4 
1 0 0 
0 0 1 
0 −1 0 
3 
5 . 
La ecuación característica de A es 
pA�λ) = |A − λI| = −�λ − 1)�λ2 + 1) 
= −�λ − 1)�λ − i)�λ + i) = 0 . 
De esto se sigue que A sólo tiene un valor propio real, a saber, λ1 = 1. 
En este caso no es posible que exista una matriz invertible P (real) tal que P−1AP = T sea una ma-triz 
triangular superior. Sin embargo, en el contexto de los espacios vectoriales donde los escalares son 
números complejos, se puede decir, que A tiene tres valores propios complejos λ1 = 1� λ2 = i y λ3 = −i . 
Efectuando, en este contexto, los cálculos pertinentes, se encuentra que 
x1 = 
2 
4 
1 
0 
0 
3 
5 � x2 = 
2 
4 
0 
−i 
1 
3 
5 y x3 = 
2 
4 
0 
i 
1 
3 
5 
son tres vectores propios complejos de A linealmente independientes correspondientes a los valores propios 
complejos λ1 = 1� λ2 = i y λ3 = −i respectivamente. Así que la matriz compleja: 
P = 
ˆ 
x1 x2 x3 
˜ 
= 
2 
4 
1 0 0 
0 −i i 
0 1 1 
3 
5 
46
Diagonalización de matrices 3.2. Diagonalización 
es invertible y es tal que 
P−1AP = 
2 
4 
1 0 0 
0 i/2 i/2 
0 −i/2 i/2 
3 
5 
2 
4 
1 0 0 
0 0 1 
0 −1 0 
3 
5 
2 
4 
1 0 0 
0 −i i 
0 1 1 
3 
5 
= 
2 
4 
1 0 0 
0 i 0 
0 0 −i 
3 
5 = D 
es una matriz diagonal, y por lo tanto, es una matriz triangular superior. 
3�2 Ejercicios 
En los ejercicios 1 al 1 responda verdadero o falso, justificando su respuesta: 
1. Si una matriz cuadrada A es diagonalizable, entonces existen infinitas matrices invertibles P tales 
que P−1AP = D es una matriz diagonal. 
2. Si A es una matriz 3×3con valores propios λ1 = −1� λ2 = 2 y λ3 = 3 entonces A es diagonalizable, 
detA = −6 y Tr�A) = 4. 
3. Si A es una matriz invertible y λ es un valor propio de A entonces λ�= 0 y �1/λ)es un valor propio 
de A−1. 
En los ejercicios 4 al 7 demuestre la afirmación correspondiente 
4. Sea A ∈ �n×n tal que pA�λ) = �−1)n�λ − λ1)�λ − λ2) · · · �λ − λn), Demuestre que: (i) |A| = 
λ1λ2 · · · λn y (ii) TrA = λ1 + λ2 + · · · + λn. 
5. Sea A una matriz cuadrada n × n tal que 
|aii| > 
Xn 
j�=i�j=1 
|aij |� 
para todo i = 1� 2� . . . n, entonces A es invertible. (Sugerencia: suponga que existe un vector x = 
[ x1 x2 · · · xn ]T�= 0 tal que Ax = 0 y que |xi| = m´ax{|x1|� |x2|� . . . |xn|}. Despeje aiixi en 
la i-ésima ecuación del sistema Ax = 0, tome valor absoluto y llegue a una contradicción). 
6. Sean A ∈ �n×n; B ∈ �m×m; C ∈ �n×m y M = 
» 
A C 
� B 
– 
. 
a) Describa el conjunto de valores propios de M en términos de los valores propios de A y de B. 
(Sugerencia: calcule pA�λ) = det�M − λI)). 
b) Demuestre que si x1 es un λ-vector propio de A entonces x = 
» 
x1 
� 
– 
es un λ-vector propio 
de M. 
7. Si A es una matriz n × n tal que A2 = mA� entonces 
TrA = mρ�A). 
(Sug.: considere (i) ρ�A) = 0� (ii) ρ�A) = n y (ii) 0 < ρ�A) < n, use el teorema 3.28) 
8. Considere cada una de las matrices M del problema 17 de la sección de ejercicios 3.1. Encuentre, 
si es posible, una matriz invertible P tal que P−1MP sea una matriz diagonal 
9. Sea T : P2 → P2 la transformación lineal definida por 
T[a + bx + cx2] = �a − b + 4c) + �3a + 2b − c)x + �2a + b − c)x2. 
a) Calcule los valores propios y los vectores propios. 
b) Dé, si existe, una base ordenada C de P2 tal que [T]CC sea una matriz diagonal. 
47
3.3. Matrices simétricas Diagonalización de matrices 
3.3. Diagonalización de matrices simétricas 
En esta sección se limitará el estudio de los conceptos de valor propio, vector propio y diagonalización a 
matrices simétricas. Dos resultados importantes que se verán en esta sección son los siguientes: (i) Todas 
las soluciones de la ecuación característica de toda matriz simétrica (real) son reales, y (ii) Toda matriz 
simétrica (real) es diagonalizable, y más aún, diagonalizable en una forma especial. 
Como se verá en el capítulo 4, los valores propios de una matriz simétrica se utilizan como criterio para 
decidir cuándo una forma cuadrática es positivamente (negativamente) definida (semidefinida) o indefinida. 
Como se estableció al final de la sección anterior, uno puede estudiar espacios vectoriales donde los es-calares 
son números complejos. únicamente en la demostración del teorema 3.32, se utilizarán los hechos 
siguientes que involucran números complejos. 
1. El conjugado del número complejo z = a + bi� a� b ∈ R, se denota por z y se define así: z = a − bi. 
2. Un número complejo z es real sii z = z. 
3. La matriz conjugada de la matriz compleja n × n, A, se de nota por A y cuyos componentes son 
�Aij� = �A�ij � i� j = 1� 2� . . . � n. 
4. Para todo vector complejo n × 1� x, se tiene: x T x = xT x y x T x = 0 sii x = 0. 
5. Para toda matriz cuadrada A con componentes complejas; |A| = 0 sii existe un vector x�= 0� con 
componentes complejas, tal que Ax = 0. 
3.32. Teorema. Sea A una matriz (real) cuadrada de orden n. Si A es una matriz simétrica, entonces 
todas las soluciones de la ecuación característica de A: pA�λ) = |A − λI| = 0� son reales. Esto es, A tiene 
n valores propios (reales) los cuales no son necesariamente diferentes. 
Demostración� Si pA�λ) = |A − λI| = 0� entonces por (5), existe un vector x�= 0 tal que: 
(3.1) Ax = λx 
de esto se sigue que, (ver (3) y (2)): 
(3.2) Ax = λx . 
Ahora, premultiplicando (3.1) por x T y (3.2) por xT se tiene 
(3.3) x TAx = λx T x y xTAx = λxT x � 
puesto que x TAx = �x TAx)T = xTAT x = xTAx� de (3.3) se sigue que: 
(3.4) λx T x = λxT x . 
De (4) se tiene que x T x = xT x� por lo tanto, de (3.4) se concluye que : 
�λ − λ)x T x = 0. 
Ya que x�= 0, de (4) se tiene que 
�λ − λ) = 0 o sea, λ = λ. 
en consecuencia, por (2), λ es un número real. � 
En lo que resta de estas notas, no se hará más referencia al sistema de números complejos. 
El teorema 3.23 establece que, para cada matriz cuadrada A, los vectores propios correspondientes a valores 
propios diferentes son linealmente independientes. Para matrices simétricas se tiene un resultado más fuerte. 
Este resultado se establece en el teorema siguiente. 
48
Diagonalización de matrices 3.3. Matrices simétricas 
3.33. Teorema. Si λ1� λ2� . . . � λk son los valores propios diferentes de una matriz simétrica A y si x1� x2� . . . � xk 
son vectores propios de A correspondientes a los valores propios λ1� λ2� . . . � λk, respectivamente, entonces 
el conjunto de vectores C = {x1� x2� . . . � xk} es ortogonal. 
Demostración� Se debe demostrar que �xi; xj� = xTi 
xj = 0 si i�= j� para i� j = 1� 2� . . . k 
Ti 
Tj 
Por la hipótesis se tiene que: 
(3.5) Axi = λixi � y 
(3.6) Axj = λjxj . 
Ahora, premultiplicando (3.5) por xy a (3.6) por x� se obtiene 
(3.7) xT 
j Axi = λixT 
j xi y xT 
i Axj = λjxT 
i xj � 
puesto que xTj 
Axi = �xTj 
Axi)T = xTi 
AT xj = xTi 
Axj � de (3.7) se sigue que: 
(3.8) λxT 
j xi = λjxT 
i xj . 
Ya que xTj 
xi = xTi 
xj de (3.8) se concluye que: 
�λi − λj)xT 
i xj = 0. 
Ahora bien, los valores propios son distintos, entonces xTi 
xj = 0, si i�= j� i� j = 1� 2� . . . k. � 
3.34. Definición. Se dice que una matriz cuadrada P es ortogonal, si P es invertible y P−1 = PT . 
3.35. Ejemplo. La matriz 
P = 
1 
3 
2 
4 
1 −2 2 
2 2 1 
2 −1 −2 
3 
5 
es ortogonal, pues: 
PPT = P = 
1 
3 
2 
4 
1 −2 2 
2 2 1 
2 −1 −2 
3 
5 1 
3 
2 
4 
1 2 2 
−2 2 −1 
2 1 −2 
3 
5 = 
2 
4 
1 0 0 
0 1 0 
0 0 1 
3 
5 = I. 
3.36. Proposición. Una matriz P = 
ˆ 
x1 x2 · · · xn 
˜ 
es ortogonal sii el conjunto � = {x1� x2� . . . � xn} 
constituye una base ortonormal de �n×1. 
Demostración� La matriz P = 
ˆ 
x1 x2 · · · xn 
˜ 
es ortogonal sii PTP = I. Ahora bien, 
PTP = 
2 
66666664 
xT1 
xT2 
... 
xT 
n 
3 
77777775 
[x1 x2 · · · xn] = 
2 
66666664 
xT1 
x1 xT1 
x2 · · · xT1 
xn 
xT2 
x1 xT2 
x2 · · · xT2 
xn 
...... 
. . . 
... 
xT 
nx1 xT 
nx2 · · · xT 
nxn 
3 
77777775 
Es fácil entonces observar, que PTP = I si y sólo si se cumple que: 
xT 
i xj = 
( 
1 si i�= j 
0 si i = j 
; i� j = 1� 2� . . . � n � 
lo cual equivale a que � = {x1� x2� . . . � xn} es una base ortonormal de �n×1 (ver sección 1.2.3). � 
49
3.3. Matrices simétricas Diagonalización de matrices 
3.37. Teorema. Si λ∗ es un valor propio de una matriz simétrica, entonces las multiplicidades algebraica 
y geométrica de λ∗ son iguales. 
Demostración� Sea A una matriz simétrica de orden n y sea λ∗ un valor propio de A. Supongamos que 
la multiplicidad geométrica de λ∗ es r. Por el teorema 1.33, existe una base ortonormal � = {x1� x2� . . . � xr} del espacio de vectores propios asociados a λ∗� S�λ∗). Si r = n� la matriz P = [ x1 x2 · · · xn] es 
ortogonal (proposición 3.36), y de acuerdo con el teorema 3.19, 
PTAP = P−1AP = D = λ∗I . 
Ahora, las matrices A y D tienen igual polinomio característico: 
pA�λ) = pD�λ) = |λ∗I − λI| = �λ∗ − λ)n. 
De esto se sigue que λ∗ es un valor propio de A con multiplicidad algebraica r = n. 
De otra parte, si r < n, existen n−r vectores y1� y2� . . . � yn−r de�n×1 tales que � = {x1� . . . � xr� y1� . . . � yn−r} es una base ortonormal de �n×1 (teorema 1.34). Por la proposición 3.36, la matriz 
P = 
ˆ 
x1 x2 · · · xr y1 y2 · · · yn−r 
˜ 
= 
ˆ 
X Y 
˜ 
es ortogonal. Considere ahora la matriz T = PTAP = P−1AP� es decir, la matriz: 
T = 
» 
XT 
Y T 
– 
A 
ˆ 
X Y 
˜ 
= 
» 
λ∗I XTAY 
� Y TAY 
– 
= 
» 
λ∗I B 
� C 
– 
. 
Puesto que A es simétrica, TT = �PTAP)T = PTATP = PTAP = T� o sea 
» 
λ∗I B 
� C 
– 
= 
» 
λ∗I � 
B CT 
– 
� 
por lo tanto B = � y 
T = 
» 
λ∗I � 
� C 
– 
. 
Puesto que las matrices A y T son semejantes, entonces tienen el mismo polinomio característico: 
pA�λ) = pT �λ) = |T − λI| = �λ∗ − λ)r |C − λI| . 
De esto se sigue, que λ∗ es un valor propio de A con multiplicidad algebraica k ≥ r. Veamos que k = r. Si 
k > r� entonces se debe tener que |C − λ∗I| = 0� y por lo tanto existe un vector �n − r) × 1� w�= 0 tal que 
Cw = λ∗w. 
50
Diagonalización de matrices 3.3. Matrices simétricas 
Considere ahora el vector no nulo u ∈ �n×1 dado por u = P 
» 
� 
w 
– 
. Es decir, 
u = P 
» 
� 
w 
– 
= [x1 x2 · · · xr y1 y2 · · · yn−r] 
2 
66666666666664 
0 
0 
... 
0 
w1 
w2 
... 
wn−r 
3 
77777777777775 
= w1y1 + w2y2 + · · ·wn−ryn−r . 
Esto es, el vector u ∈ �y1� y2� . . . � yn−r� y u /∈ �x1� x2� . . . � xr� 
De otro lado, el vector u, es un λ∗-vector propio de A. En efecto, 
Au = P 
» 
λ∗I � 
� C 
– 
PTP 
» 
� 
w 
– 
= P 
» 
λ∗I � 
� C 
– » 
� 
w 
– 
= P 
» 
� 
Cw 
– 
= P 
» 
� 
λ∗w 
– 
= λ∗P 
» 
� 
w 
– 
= λ∗u . 
Esto indica, que B = {x1� x2� . . . � xr� ur+1} es un conjunto de r + 1 vectores propios linealmente indepen-dientes 
correspondientes al valor propio λ∗, lo cual contradice el hecho de que la multiplicidad geométrica 
de λ∗ sea r. � 
3.38. Teorema. Si A es una matriz simétrica de orden n� entonces A tiene n vectores propios ortogonales, 
y por tanto, linealmente independientes. 
Demostración� Sean λ1� λ2� . . . � λk los diferentes valores propios de A. Supongamos que la multipli-cidad 
algebraica de λi es mi� mi = 1� 2� . . . � k; esto es, supongamos que 
pA�λ) = �−1)n�λ − λ1)m� �λ − λ2)m2 · · · �λ − λk)mk � 
donde m1 + m2 + · · · + mk = n. 
Por el teorema anterior, la multiplicidad geométrica de λi es mi, i = 1� . . . � k. Sean ahora: 
U1 = {x11 
� . . . � x1 
m�}� · · · �Uk = {xk 
1 � . . . � xk 
mk} 
bases ortogonales de S�λ1)� · · · � S�λk) respectivamente. Entonces por el teorema 3.33, el conjunto de n 
vectores propios de A: 
U = U1 ∪ U2 ∪ · · · ∪ Uk 
= {x11 
� . . . � x1 
m� � x21 
� . . . � x2 
m2 � . . . � xk 
1 � . . . � xk 
mk} 
es ortogonal. � 
La demostración del siguiente corolario es consecuencia inmediata del teorema 3.38 y del teorema 3.19. 
3.39. Corolario. Toda matriz simétrica es diagonalizable. 
3.40. Definición. Sea A una matriz cuadrada. Se dice que A es ortogonalmente diagonalizable si existe un 
matriz ortogonal P tal que PTAP = D es una matriz diagonal. 
51
3.3. Matrices simétricas Diagonalización de matrices 
3.41. Teorema. Si A es una matriz simétrica, entonces A es ortogonalmente diagonalizable; esto es, existe 
una matriz ortogonal P tal que PTAP = D es una matriz diagonal. Más aún, las columnas de la matriz P 
son los vectores propios de A y los elementos de la diagonal de D son los valores propios de A. 
Demostración� Sea A es una matriz simétrica de orden n, entonces A tiene n vectores propios 
ortonormales x1� x2� . . . � xn (teorema 3.38). Supongamos que éstos corresponden a los valores propios 
λ1� λ2� . . . � λn� respectivamente. La matriz P = [ x1 x2 · · · xn] es ortogonal (proposición 3.36), y de 
acuerdo con la demostración del teorema 3.19, se tiene que 
PTAP = P−1AP = D = 
2 
6664 
λ1 0 · · · 0 
0 λ2 · · · 0 
... 
... 
. . . 
... 
0 0 · · · λn 
3 
7775 
. 
� 
El recíproco del teorema 3.41 también es válido y está dado por el siguiente 
3.42. Teorema. Si una matriz A es ortogonalmente diagonalizable, entonces A es simétrica. 
Demostración� Por hipótesis, existe una matriz ortogonal P que diagonaliza a la matriz A� esto es, 
se tiene que PTAP = D, siendo D una matriz diagonal. De aquí que: 
A = PDPT = �PDTPT )T = �PDPT )T = AT � 
o sea, A es una matriz simétrica. � 
3.43. Ejemplo. Para la matriz simétrica: 
A = 
2 
4 
5 2 2 
2 2 −4 
2 −4 2 
3 
5 
3×3 
encontre una matriz ortogonal P tal que PTAP = D sea una matriz diagonal. 
Para ello se debe encontrar tres vectores propios de A ortonormales. El polinomio característico de A� 
pA�λ) = |A − λI| está dado por: 
pA�λ) = |A − λI| = 
˛˛˛˛˛˛ 
5 − λ 2 2 
2 2 − λ −4 
2 −4 2 − λ 
˛˛˛˛˛˛ 
= −�λ + 3)�λ − 6)2. 
Se requiere ahora resolver la ecuación característica de A� pA�λ) = |A − λI| = 0. Pero dado que 
pA�λ) = −�λ + 3)�λ − 6)2 = 0 sii λ = −3 ó λ = 6 
se tiene entonces, que los diferentes valores propios de A son λ1 = −3 y λ2 = 6. 
Por definición, los �−3)-vectores propios de A son las soluciones no nulas del sistema de ecuaciones lineales 
�A + 3I) x = 0 y los 6-vectores propios de A son las soluciones no nulas del sistema de ecuaciones lineales 
�A − 6I)x = 0. Se tiene entonces: 
A + 3I = 
2 
4 
8 2 2 
2 5 −4 
2 −4 5 
3 
5 y A − 6I = 
2 
4 −1 2 2 
2 −4 −4 
2 −4 −4 
3 
5 . 
52
Diagonalización de matrices 3.3. Matrices simétricas 
Es fácil verificar, que las soluciones del sistema homogéneo �A + 3I)x = 0 son los vectores de la forma: 
x = 
2 
4 
x1 
x2 
x3 
3 
5 = 
2 
4 −1 
2x3 
x3 
x3 
3 
5 = 
1 
2 
x3 
2 
4 −1 
2 
2 
3 
5 ; x3 ∈ R. 
En consecuencia, 
bUλ� = bU−3 = 
8< 
2 
4 −1 
: 
2 
2 
3 
5 
9= 
; � 
es una base para S�λ1) = S�−3). Aplicando el proceso de ortogonalización de Gram-Scmidt a esta base 
(vea el teorema 1.33), se llega a que: 
bUλ� = bU−3 = 
8< 
: 
1 
3 
2 
4 −1 
2 
2 
3 
5 
9= 
; � 
es una base ortonormal de S�λ1) = S�−3). 
De otra parte, se encuentra que las soluciones del sistema homogéneo �A − 6I)x = 0 son los vectores de la 
forma: 
x = 
2 
4 
x1 
x2 
x3 
3 
5 = 
2 
4 
2x2 + 2x3 
x2 
x3 
3 
5 
= x2 
2 
4 
2 
1 
0 
3 
5+x3 
2 
4 
2 
0 
1 
3 
5 ; x2� x3 ∈ R. 
En consecuencia, 
bUλ2 = bU6 = 
8< 
2 
4 
: 
2 
1 
0 
3 
5 � 
2 
4 
2 
0 
1 
3 
5 
9= 
; � 
es una base para S�λ2) = S�6). Aplicando el proceso de ortogonalización de Gram-Schmidt a esta base se 
llega a que: 
bUλ2 = bU6 = 
8< 
: 
1 
√5 
2 
4 
2 
1 
0 
3 
5 � 
1 
3√5 
2 
4 
2 
−4 
5 
3 
5 
9= 
; � 
es una base ortonormal de S�λ2) = S�6). 
Según la demostración del teorema 3.38, 
U = bUλ� ∪ bUλ2 = 
8< 
: 
1 
3 
2 
4 −1 
2 
2 
3 
5 � 
1 
√5 
2 
4 
2 
1 
0 
3 
5 � 
1 
3√5 
2 
4 
2 
−4 
5 
3 
5 
9= 
; � 
es un conjunto ortonormal de vectores propios de A. Ahora, según la demostración del teorema 3.41, la 
matriz, 
P = 
2 
6666664 
− 
1 
3 
2 
√5 
2 
3√5 
2 
3 
1 
√5 − 
4 
3√5 
2 
3 
0 
2 
3√5 
3 
7777775 
53
3.3. Matrices simétricas Diagonalización de matrices 
es ortogonal tal que 
PTAP = P−1AP = D = 
2 
4 −3 0 0 
0 6 0 
0 0 6 
3 
5 . 
3.44. Teorema. Sea A una matriz simétrica de orden n. Supongamos que A que tiene p (0 ≤ p ≤ n) 
valores propios, no necesariamente diferentes, estrictamente positivos y η (0 ≤ η ≤ n) valores propios, no 
necesariamente diferentes, estrictamente negativos. Entonces existe una matriz invertible P tal que: 
PTAP = 
2 
4 
Ip � � 
� −Iη � 
� � � 
3 
5 . 
Si además existe otra matriz invertible Q tal que 
QTAQ = 
2 
4 
Ip� � � 
� −Iη� � 
� � � 
3 
5 � 
entonces p = p� y η = η�. 
Demostración� Sean λ1� λ2� . . . � λρ los valores propios de A estrictamente positivos (no necesaria-mente 
distintos) y sean x1� x2� . . . � xp vectores propios ortonormales de A asociados respectivamente a 
tales valores propios. Sean además β1� β2� . . . � βη los valores propios de A estrictamente negativos (no nece-sariamente 
distintos) y y1� y2� . . . � yη vectores propios ortonormales de A asociados a dichos valores propios 
negativos y sean z1� z2� . . . � zγ� γ = n−�p+η), vectores propios ortonormales de A asociados al valor propio 
nulo (0). Según la demostración del teorema 3.41, la matriz M, cuyas columnas son los correspondientes 
vectores propios organizados adecuadamente, es ortogonal. Es decir, la matriz 
M = [ x1 x2 · · · xp y1 y2 · · · yη z1 z2 · · · zγ ] 
es ortogonal. De otro lado, se tiene que MTAM = D es una matriz diagonal con los valores propios en su 
diagonal y dispuestos así: 
MTAM = D = 
2 
4 
Dp � � 
� Dη � 
� � � 
3 
5 
donde: 
Dρ = 
2 
6664 
λ1 0 · · · 0 
0 λ2 · · · 0 
... 
... 
. . . 
... 
0 0 · · · λp 
3 
7775 
y Dη = 
2 
6664 
β1 0 · · · 0 
0 β2 · · · 0 
... 
... 
. . . 
... 
0 0 · · · βη 
3 
7775 
. 
Sea ahora D∗ la matriz diagonal: 
D∗ = 
2 
4 
D∗p � � 
� D∗η � 
� � Iγ 
3 
5 
donde 
D∗ρ = 
2 
666666664 
1 
√λ1 
0 · · · 0 
0 
1 
√λ2 · · · 0 
... 
... 
. . . 
... 
0 0 · · · 
1 p 
λp 
3 
777777775 
y. 
54
Diagonalización de matrices 3.3. Matrices simétricas 
D∗η = 
2 
666666664 
1 
√−β1 
0 · · · 0 
0 
1 
√−β2 · · · 0 
... 
... 
. . . 
... 
0 0 · · · 
1 p 
−βη 
3 
777777775 
La matriz D∗ es invertible y es tal que: 
D∗DD∗ = D∗ TMTAMD∗ = 
2 
4 
D∗pDpD∗p � � 
� D∗ηDηD∗η � 
� � Iγ� Iγ 
3 
5 
= 
2 
4 
Ip � � 
� −Iη � 
� � � 
3 
5 . 
En consecuencia, la matriz invertible P = MD∗ es tal que: 
PTAP = 
2 
4 
Ip � � 
� −Iη � 
� � � 
3 
5 . 
Para la unicidad suponga ahora que las matrices invertibles P y Q son tales que: 
PTAP = 
2 
4 
Ip � � 
� −Iη � 
� � � 
3 
5 y QTAQ = 
2 
4 
Ip� � � 
� −Iη� � 
� � � 
3 
5 . 
Lo que se quiere probar ahora es que ρ = ρ� y η = η�. 
Para ello se escribe las matrices P y Q particionadas por columnas así: 
P = [ x1 x2 · · · xp xp+1 · · · xn ] y 
Q = [ y1 y2 · · · yp� yp�+1 · · · yn ] 
Por hipótesis se tiene que: 8>>>>>>>>>>>< 
xTi 
>>>>>>>>>>>: 
Axi = 1 si i = 1� 2 . . . � p 
xTi 
Axj = 0 si i�= j� �i� j = 1� 2 . . . � n) 
i Ayi ≤ 0 si i = p� + 1� p� + 2 . . . � n 
yT 
yT 
i Ayj = 0 si i�= j� �i� j = 1� 2 . . . � n). 
Ahora, el conjunto de vectores de �n×1: 
C = {x1� x2� . . . � xp� yp�+1� yp�+2� . . . � yn} 
es linealmente independiente. En efecto, si 
λ1x1 + . . . + λpxp + β1yp�+1 + . . . + βn−p�yn = 0 
entonces el vector 
U = λ1x1 + λ2x2 + . . . + λpxp 
= −β1yp�+1 − β2yp�+2 − . . . − βn−p�yn 
55
3.3. Matrices simétricas Diagonalización de matrices 
es tal que: 
UTAU = �λ1x1 + . . . + λpxp)TA�λ1x1 + . . . + λpxp) 
= λ21 
+ λ22 
+ . . . + λ2 
p ≥ 0 
y 
UTAU = �β1yp�+1 + . . . + βn−p�yn)TA�β1yp�+1 + . . . + βn−p�yn) 
= β2 
p�+1Ayp�+1 + β2 
1yT 
p�+2Ayp�+2 + . . . + β2 
2yT 
n−p�yT 
nAyn ≤ 0 
Por lo tanto UTAU = 0. De esto se sigue que λ1 = λ2 = . . . = λp = 0. En consecuencia, 
β1yp�+1 + β2yp�+2 + . . . + βn−p�yn = 0 . 
Puesto que la matriz Q es invertible, los vectores yp�+1� yp�+2� . . . � yn son linealmente independientes, y 
por lo tanto, β1 = β2 = . . . = βn−p� = 0. 
Ahora bien, como la dimensión del espacio vectorial �n×1 es n y C es un conjunto linealmente inde-pendiente 
de p + �n − p�) vectores en �n×1, entonces por el teorema 1.42(2): 
p + �n − p�) ≤ n � 
o sea, p ≤ p�. Argumentando en forma similar se demuestra que p� ≤ p� de donde p = p�. 
De otro lado, de la hipótesis, se tiene que 
ρ�A) = p + η = p� + η� 
por lo tanto η = η�. � 
Nota. En la parte (1) del teorema anterior se tiene que PTAP es igual a: 
(i) In� si p = n. 
(ii) −In� si η = n. 
» 
(iii) 
Ip � 
� � 
– 
� si 0 < p < n y η = 0. 
(iv) 
» 
−Iη � 
� � 
– 
� si 0 < η < n y p = 0. 
(v) 
» 
Ip � 
� −Iη 
– 
� si 0 < p < n y 0 < η < n y p + η = n. 
(vi) 
2 
4 
Ip � � 
� −Iη � 
� � � 
3 
5 � si 0 < p < n y 0 < η < n y p + η < n. 
(vii) �� sii A = �. 
3.45. Ejemplo. Para la matriz simétrica 
A = 
2 
4 
1 −2 0 
−2 0 −2 
0 −2 −1 
3 
5 
encuentre una matriz invertible P tal que PTAP sea una matriz diagonal con las características que se 
establecen en el teorema anterior. 
56
Diagonalización de matrices 3.3. Matrices simétricas 
Efectuando los cálculos pertinentes se encuentra que los valores propios de A son: λ1 = 3� λ2 = −3 y 
λ3 = 0� y que la matriz ortogonal: 
M = 
1 
3 
2 
4 
2 1 −2 
−2 2 −1 
1 2 2 
3 
5 
es tal que 
MTAM = D = 
2 
4 
3 0 0 
0 −3 0 
0 0 0 
3 
5 . 
Ahora, la matriz diagonal 
D∗ = 
2 
6664 
1 
√3 
0 0 
0 
1 
√3 
0 
0 0 1 
3 
7775 
es invertible y es tal que: 
D∗DD∗ = D∗TMTAMD� 
= 
2 
6664 
1 
√3 
0 0 
0 
1 
√3 
0 
0 0 1 
3 
7775 
2 
66664 
3 0 0 
0 −3 0 
0 0 0 
3 
77775 
2 
6664 
1 
√3 
0 0 
0 
1 
√3 
0 
0 0 1 
3 
7775 
= 
2 
4 
1 0 0 
0 −1 0 
0 0 0 
3 
5 � 
o sea, la matriz invertible P = MD∗ es tal que 
PTAP = 
2 
4 
I1 0 0 
0 −I1 0 
0 0 0 
3 
5 . 
En relación con la primera parte del teorema 3.44 (ver su demostración) y tal como aparece en el ejemplo 
anterior, un método para calcular una de tales matrices P consiste en encontrar una matriz ortogonal M 
que diagonalice a la matriz A� y después postmultiplicar a M por una matriz diagonal conveniente D∗. 
A continuación damos otro método para calcular, simultáneamente, una de tales matrices P y la matriz 
PTAP. El método se basa en el hecho de que la matriz P es invertible y por ende se puede expresar como 
producto de un número finito de matrices elementales (véase teorema 1.9(2)); esto es, P = E1E2 · · ·Ek� 
donde E1� E2� · · · � Ek� son matrices elementales. Así que una forma de calcular la matriz 
PTAP = ET 
k · · ·ET 
2 ET 
1 AE1E2 · · ·Ek� 
consiste en efectuar una sucesión de operaciones elementales en las filas de A y la �misma� sucesión de 
operaciones elementales en las columnas de A (véase teorema 1.6), hasta lograr lo deseado. Esta misma 
sucesión de operaciones elementales en las filas de la matriz identidad I da PT . El siguiente ejemplo ilustra 
el método para encontrar una tal matriz P. 
3.46. Ejemplo. Para la matriz simétrica 
A = 
2 
4 
1 2 −3 
2 5 −4 
−3 −4 9 
3 
5 
57
3.3. Matrices simétricas Diagonalización de matrices 
encontre una matriz invertible P tal que PTAP sea una matriz diagonal con las características que se 
establecen en el teorema 3.44. 
Se forma entonces la matriz 
[ A | I ] = 
2 
4 
1 2 −3 1 0 0 
2 5 −4 0 1 0 
−3 −4 9 0 0 1 
3 
5 . 
Se efectua entonces, en las filas de la matriz 
ˆ 
A | I 
˜ 
, las operaciones elementales; ET 
1 ; multiplicar 
los elementos de la primera fila por α = −2 y sumar los resultados con los correspondientes elementos de 
la segunda fila, ET 
2 ; multiplicar los elementos de la primera fila por α = 3 y sumar los resultados con los 
correspondientes elementos de la tercera fila. Así se obtiene la matriz 
[ ET 
2 ET 
1 A | ET 
2 ET 
1 I ] = [ A1 | B1 ] � 
luego se efectuan las �mismas� operaciones elementales en las columnas de la matriz A1� para obtener: 
[ ET 
2 ET 
1 A E1E2| ET 
� 
1 | B1 ] . 
2 ET 
1 I ] = [ A 
Se tiene: 
[ A1 | B1 ] = 
2 
4 
1 2 −3 1 0 0 
0 1 2 −2 1 0 
0 2 0 3 0 1 
3 
5 
y 
[ A�1 | B1 ] = 
2 
4 
1 0 0 1 0 0 
0 1 2 −2 1 0 
0 2 0 3 0 1 
3 
5 . 
� 
1 | B1] , la operación elemental; ET 
Se efectua ahora, en las filas de la matriz [ A 
3 ; multiplicar los 
elementos de la segunda fila por α = −2 y sumar los resultados con los correspondientes elementos de la 
tercera fila. Así se obtiene la matriz 
[ ET 
3 ET 
2 ET 
1 AE1E2 | ET 
3 ET 
2 ET 
1 I ] = [ A2 | B2] � 
luego se realiza la �misma� operación elemental en las columnas de la matriz A2� para obtener: 
[ ET 
3 ET 
2 ET 
1 AE1E2E3| ET 
� 
2 | B2] . 
3 ET 
2 ET 
1 I ] = [ A 
Se tiene entonces: 
[ A2 | B2 ] = 
2 
4 
1 0 0 1 0 0 
0 1 2 −2 1 0 
0 0 −4 7 −2 1 
3 
5 
y 
[ A�2 | B2 ] = 
2 
4 
1 0 0 1 0 0 
0 1 0 −2 1 0 
0 0 −4 7 −2 1 
3 
5 . 
� 
2 | B2 ] la operación elemental; ET 
Finalmente, se efectua en las filas de la matriz [ A 
4 ; multiplicar los 
elementos de la tercera fila por α = 1/2. Así se obtiene la matriz 
[ ET 
4 ET 
3 ET 
2 ET 
1 AE1E2E3 | ET 
4 ET 
3 ET 
2 ET 
1 I ] = [ A3 | B3 ] � 
luego se realiza la �misma� operación elemental en las columnas de la matriz A3� para obtener: 
[ ET 
4 ET 
3 ET 
2 ET 
1 AE1E2E3E4| ET 
4 ET 
3 ET 
2 ET 
1 I ] = 
h 
� 
3 | B3 
A 
i 
. 
Se tiene: 
[ A3 | B3 ] = 
2 
64 
1 0 0 1 0 0 
0 1 0 −2 1 0 
7 
1 
0 0 −2 
1 
2 −2 
3 
75 
58
Diagonalización de matrices 3.3. Matrices simétricas 
y 
[ A�3 | B3 ] = 
2 
64 
1 0 0 1 0 0 
0 1 0 −2 1 0 
7 
1 
0 0 −1 
1 
2 −2 
3 
75 
. 
Así que la matriz invertible 
PT = B3 = ET 
4 ET 
3 ET 
2 ET 
1 = 
2 
64 
1 0 0 
−2 1 0 
7 
1 
−1 
2 2 
3 
75 
es tal que 
� 
3 = 
PTAP = D = A 
2 
4 
1 0 0 
0 1 0 
0 0 −1 
3 
5 . 
Se puede decir entonces, que la matriz A tiene dos valores estrictamente positivos y un valor propio estric-tamente 
negativo. 
3.47. Nota. En relación con el método ilustrado en el ejemplo anterior, si todos los elementos de la diagonal 
principal de la matriz simétrica A = [aij ]n×n son nulos y si aij�= 0� i�= j, entonces sumando la fila j a la fila 
i y la columna j a la columna i� se obtiene una matriz simétrica A� = MTAM con 2aij en el lugar i−ésimo 
de la diagonal principal de A�. Una vez hecho esto, se sigue el proceso descrito en el ejemplo anterior. 
3.48. Ejemplo. Para la matriz simétrica 
A = 
» 
0 1 
1 0 
– 
� 
encuentre una matriz invertible P tal que PTAP sea una matriz diagonal con las características que se 
establecen en el teorema 3.44. 
Se forma ahora la matriz: 
[ A | I ] = 
» 
0 1 1 0 
1 0 0 1 
– 
. 
Se efectua, en las filas de la matriz, [ A | I ] la operación elemental MT ; sumar los elementos de la 
segunda fila con los correspondientes elementos de la primera fila. Así se obtiene la matriz 
[ MTA | MT I ] � 
luego se efectua la �misma� operación elemental en las columnas de la matriz MT A� para obtener la matriz: 
ˆ 
MTAM | MT I 
˜ 
= 
ˆ 
A� | MT ˜ 
� 
Se tiene: 
[ MTA | MT I ] = 
» 
1 1 1 1 
1 0 0 1 
– 
y 
[ A� | MT ] = 
» 
2 1 1 1 
1 0 0 1 
– 
59
3.3. Matrices simétricas Diagonalización de matrices 
Ahora se realiza, en las filas de la matriz [ A� | MT ], la operación elemental; ET 
1 ; multiplicar los 
elementos de la primera fila por α = −1 
2 y sumar los resultados con los correspondientes elementos de la 
segunda fila. Así se obtiene la matriz 
1 A� | ET 
[ ET 
1 MT ] = [ A1 | B1 ] � 
luego se realiza la �misma� operación elemental en las columnas de la matriz A1� para obtener: 
1 A�E1 | ET 
[ ET 
� 
1 | B1 ] . 
1 MT ] = [ A 
Se tiene: 
[ A1 | B1 ] = 
" 
2 1 1 1 
0 − 
1 
2 − 
1 
2 
1 
2 
# 
y 
[ A�1 | B1 ] = 
" 
2 0 1 1 
1 
1 
0 − 
2 − 
2 
1 
2 
# 
Se efectua ahora en las filas de la matriz 
h 
� 
1 | B1 
A 
i 
las operaciones elementales; ET 
2 ; multiplicar los 
elementos de la primera fila por α = 1 √2 
3 ; multiplicar los elementos de la segunda fila por β = √2 . 
, y, ET 
Así se obtiene la matriz 
ˆ 
ET 
3 ET 
2 ET 
1 MT ˜ 
3 ET 
2 ET 
1 A�E1 | ET 
= 
ˆ 
A2 | B2 
˜ 
� 
luego se realizan las �mismas� operaciones elementales en las columnas de la matriz A2� para obtener: 
3 ET 
2 ET 
1 A�E1E2E3 | ET 
[ ET 
� 
2 | B2 ] . 
3 ET 
2 ET 
1 MT ] = [ A 
Se tiene: 
[ A2 | B2 ] = 
2 
6664 
√2 0 
1 
√2 
1 
√2 
0 − 
1 
√2 − 
1 
√2 
1 
√2 
3 
7775 
y 
[ A�2 | B2 ] = 
2 
6664 
1 0 
1 
√2 
1 
√2 
0 −1 − 
1 
√2 
1 
√2 
3 
7775 
Así que la matriz invertible 
PT = B2 = ET 
3 ET 
2 ET 
1 MT = 
2 
6664 
1 
√2 
1 
√2 
− 
1 
√2 
1 
√2 
3 
7775 
es tal que 
� 
3 = 
PTAP = D = A 
2 
4 
1 0 
0 −1 
3 
5 . 
Se puede decir, que la matriz A tiene un valor estrictamente positivo y un valor propio estrictamente 
negativo. 
60
Diagonalización de matrices 3.3. Matrices simétricas 
3�3 Ejercicios 
Para los ejercicios 1 al 7 responda verdadero o falso, justificando su respuesta: 
1. Si A y B son matrices simétricas de orden n� entonces la matriz AB es simétrica. 
2. Sean A y B matrices simétricas de orden n. AB es simétrica sii AB = BA. 
3. Si P es una matriz ortogonal, entonces P−1 también es ortogonal. 
4. Si P es una matriz ortogonal, entonces PT también es ortogonal. 
5. Si P es una matriz ortogonal, entonces |P| = ±1. 
6. Una matriz P de tamaño n×n es ortogonal sii los vectores fila de P conforman una base ortonormal 
de Rn. 
7. La matriz P = 
» 
1 1 
−1 1 
– 
es ortogonal. 
En los ejercicios 8 al 1 demuestre la afirmación da correspondiente 
8. Si λ es un valor propio de una matriz A� entonces la multiplicidad geométrica de λ es menor o 
igual que la multiplicidad algebraica de λ. (sugerencia: vea la demostración del teorema 3.37). 
9. Sean A� B ∈ �n×n� M = 
» 
A B 
B A 
– 
y P = 
» 
In In 
In −In 
– 
a) Verifique que P−1 = 
1 
2 
P. 
b) Calcule P−1MP y concluya que detM = det�A + B) · det�A − B). 
c) Use (b) para mostrar que 
pM�λ) = det�M − λI) = det��A + B) − λI) · det��A − B) − λI) . 
10. Si P y Q son matrices ortogonales, entonces PQ es una matriz ortogonal. 
11. Si Q1� Q2� . . . � Qm son matrices ortogonales, entonces la matriz 
Q = 
2 
6664 
Q1 0 · · · 0 
0 Q2 · · · 0 
... 
... 
. . . 
... 
0 0 · · · · · · Qm 
3 
7775 
. 
es también ortogonal . 
12. Sea x un λ-vector propio de A y sea y un β-vector propio de AT , donde λ�= β� entonces x� y son 
vectores ortogonales (sugerencia: vea la demostración del teorema 3.33). 
13. Si A es una matriz simétrica idempotente n × n entonces: 
ρ�A) = TrA = 
Xn 
i=1 
Xn 
j=1 
�aij)2 . 
(Sugerencia: Utilice el teorema 3.44 y el corolario 2.17) 
14. Sea a ∈ �n×1 un vector no nulo. Entonces A = �aT a)−1aaT es una matriz simétrica de rango 1 y 
es tal que A2 = A. 
15. Si A es una matriz simétrica tal que todos los valores propios son positivos, entonces existe una 
matriz invertible M tal que A = MTM. (Sugerencia: utilice el teorema 3.44(1)) 
16. Si A es una matriz simétrica tal que todos los valores propios son positivos, entonces existe una 
matriz triangular superior e invertible, T, tal que A = TT T. (Sugerencia: utilice inducción sobre el 
orden n de la matriz A). 
17. Si A es una matriz simétrica de orden n que tiene p valores propios positivos �p < n) y n−p valores 
propios nulos, entonces existe una matriz no invertible M tal que A = MTM. (Sugerencia: utilice 
el teorema 3.44(1)). 
61
3.3. Matrices simétricas Diagonalización de matrices 
18. Sean A� B matrices simétricas de igual orden. Suponga además que A2 = A y que los valores 
propios de B son positivos, entonces: 
ρ�ABA) = ρ�A) = TrA 
(sugerencia: Utilice los ejercicios (15) y (13) y el Teorema 1.53(4)). 
19. Si A = [aij ]n×n es una matriz simétrica tal que 
aii > 
Xn 
�j=1� j�=i 
|aij | 
para todo i = 1� 2� . . . n� entonces todos los valores propios de A son positivos. (Sugerencia: supon-ga 
λ ≤ 0 es un valor propio de A y utilice el ejercicio (5) de la sección 3.2 para llegar a una 
contradicción). 
20. Para cada una de las siguientes matrices encuentre una matriz ortogonal P, tal que PTMP sea 
una matriz diagonal. Dé en cada caso TrM y ρ�A). 
�i) M = 
» 
1 −2 
−2 5 
– 
�ii) M = 
2 
4 
1 −1 0 
−1 0 0 
0 0 1 
3 
5 
�iii) M = 
2 
4 
2 1 1 
1 2 1 
1 1 2 
3 
5 �iv) M = 
2 
4 
1 −1 −1 
−1 1 −1 
−1 −1 1 
3 
5 
�v) M = 
2 
4 
4 2 2 
2 3 0 
2 0 5 
3 
5 �vi) M = 
2 
4 
4 4 2 
4 4 2 
2 2 1 
3 
5 
21. Para cada una de las siguientes matrices encuentre una matriz invertible Q, tal que QTMQ sea de 
la forma 2 
4 
Ip 0 0 
0 −Iη 0 
0 0 0 
3 
5 . 
�i) M = 
2 
4 
1 −1 0 
−1 1 0 
0 0 1 
3 
5 �ii) M = 
2 
4 
0 1 1 
1 −2 2 
1 2 −1 
3 
5 
�iii) M = 
2 
4 
1 2 0 
2 0 0 
0 0 1 
3 
5 �iv) M = 
2 
4 
1 0 −1 
0 2 1 
−1 1 1 
3 
5 
�v) M = 
2 
4 
2 1 1 
1 1 −1 
1 −1 5 
3 
5 �vi) M = 
2 
4 
1 2 −1 
2 4 −2 
−1 −2 8 
3 
5 
22. Considere las matrices del ejercicio anterior: 
a) Si QTMQ = T» 
I, encuentre una matriz invertible P� tal que M = PP. 
b) Si QTMQ = 
Ip 0 
0 0 
– 
� encuentre una matriz no invertible P� tal que M = PTP. 
62
Diagonalización de matrices 3.4. Diagonalización simultánea 
3.4. Diagonalización simultánea de matrices simétricas 
En esta sección se verá un par de teoremas sobre diagonalización simultánea de matrices simétricas, los cuales 
son útiles en estadística. En particular el teorema 3.51 se utiliza en la demostración de la independencia de 
dos ciertas formas cuadráticas (ver teorema 4.5.3 de [4]). 
3.49. Teorema (Diagonalización simultánea). Sean A y B matrices simétricas de orden n. Si todos los 
valores propios de A son estrictamente positivos, entonces existe una matriz invertible Q tal que QTAQ = In 
y QTBQ = D es una matriz diagonal. Además, los elementos de la diagonal de D, son las soluciones de la 
ecuación |B − λA| = 0� las cuales son reales. 
Demostración� Puesto que todos los valores propios de A son estrictamente positivos, se sigue del 
teorema 3.41, que existe una matriz invertible P tal que PTAP = In. Sea ahora C = PTBP. La matriz 
C es simétrica pues, CT = �PTBP)T = PTBTP= PTBP = C. Ahora bien, en virtud del teorema 3.32, 
existe una matriz ortogonal M tal que MTCM = D es una matriz diagonal con los valores propios de C 
en su diagonal principal. En consecuencia: 
MTPTAPM = MT InM = MTM = In 
y 
MTPTBPM = MTCM = D; 
esto es, la matriz Q = PM es tal que QTAQ = In y QTBQ = D es una matriz diagonal. De otro lado, como 
se ha expresado, los elementos de la diagonal de D son los valores propios de C, los cuales según el teorema 
3.32 son reales. Esto es, los elementos de la diagonal de D son la soluciones de la ecuación |C − λI| = 0. 
En vista de que la matriz P es invertible se tiene: 
|C − λI| = |PTBP − λPTAP| 
= |PT | |B − λA| |P | = 0 
9= 
; sii |B − λA| = 0� 
lo cual termina la demostración del teorema. � 
3.50. Ejemplo. Considere las matrices simétricas 
A = 
2 
4 
1 0 0 
0 4 2 
0 2 2 
3 
5 y B = 
2 
4 
5 4 4 
4 8 −4 
4 −4 −4 
3 
5 . 
Efectuando los cálculos correspondientes se encuentra que los valores propios de A son: λ1 = 1� λ2 = 3+√5 
y λ3 = 3 − √5, los cuales son estrictamente positivos y que la matriz invertible 
P = 
2 
6664 
1 0 0 
0 
1 
2 − 
1 
2 
0 0 1 
3 
7775 
es tal que 
PTAP = I3 y C = PTBP = 
2 
4 
5 2 2 
2 2 −4 
2 −4 2 
3 
5 . 
63
3.4. Diagonalización simultánea Diagonalización de matrices 
Por el ejemplo 3.43 se sabe que 
M = 
2 
6666666664 
− 
1 
3 
2 
√5 
2 
3√5 
2 
3 
1 
√5 − 
4 
3√5 
2 
3 
0 
2 
3√5 
3 
7777777775 
es ortogonal y es tal que 
MTCM = D = 
2 
4 −3 0 0 
0 6 0 
0 0 6 
3 
5 . 
En consecuencia, la matriz invertible 
Q = PM = 
2 
6666666664 
− 
1 
3 
2 
√5 
2 
3√5 
0 
1 
2√5 − 
3 
3√5 
2 
3 
0 
5 
3√5 
3 
7777777775 
es tal que 
QTAQ = 
2 
4 
1 0 0 
0 1 0 
0 0 1 
3 
5 y QTBQ = D = 
2 
4 −3 0 0 
0 6 0 
0 0 6 
3 
5 . 
El siguiente teorema indica, que cuando dos matrices simétricas del mismo orden conmutan entre si, se 
puede incluso encontrar una diagonalización simultánea ortogonal, en forma más precisa tenemos. 
3.51. Teorema (Diagonalización ortogonal simultánea). Sean A y B matrices simétricas de orden n. AB = 
BA sii existe una matriz ortogonal P tal que PTAP y PTBP son matrices diagonales, cuyos elementos de 
la diagonal son respectivamente los valores propios de A y B. 
Demostración� �=⇒) En virtud del teorema 3.41, existe una matriz ortogonal R tal que: 
RTAR = D = 
2 
6664 
λ1Ik� � · · · � 
� λ2Ik2 · · · � 
... 
.... . . 
... 
� � . . . λmIkm 
3 
7775 
� 
donde los λi son los diferentes valores propios de A y ki es la multiplicidad geométrica (algebraica) del valor 
propio λi, i = 1� 2� . . . �m. 
Sea ahora C = RTBR. Puesto que por hipótesis AB = BA� entonces 
DC = RTARRTBR = RTBAR = RTBRRTAR = CD. 
Particionando la matriz C convenientemente se puede escribir: 
64
Diagonalización de matrices 3.4. Diagonalización simultánea 
DC = 
2 
6664 
λ1Ik� � · · · � 
� λ2Ik2 · · · � 
... 
... 
. . . 
... 
� � · · · λmIkm 
3 
7775 
2 
6664 
C11 C12 · · · C1m 
C21 C22 · · · C2m 
... 
... 
. . . 
... 
Cm1 Cm2 · · · Cmm 
3 
7775 
= 
2 
6664 
λ1C11 λ1C12 · · · λ1C1m 
λ2C21 λ2C22 · · · λ2C2m 
... 
... 
. . . 
... 
λmCm1 λmCm2 · · · λmCmm 
3 
7775 
� 
CD = 
2 
6664 
C11 C12 · · · C1m 
C21 C22 · · · C2m 
... 
... 
. . . 
... 
Cm1 Cm2 · · · Cmm 
3 
7775 
2 
6664 
λ1Ik� � · · · � 
� λ2Ik2 · · · � 
... 
... 
. . . 
... 
� � · · · λmIkm 
3 
7775 
= 
2 
6664 
λ1C11 λ2C12 · · · λmC1m 
λ1C21 λ2C22 · · · λmC2m 
... 
... 
. . . 
... 
λ1Cm1 λ2Cm2 · · · λmCmm 
3 
7775 
. 
Ya que DC = CD y λi�= λj , si i�= j, entonces se tiene que Cij = 0, si i�= j y por tanto 
C = 
2 
6664 
C11 � · · · � 
� C22 · · · � 
... 
... 
. . . 
... 
� � · · · · · · Cmm 
3 
7775 
. 
Ti 
Como la matriz C es simétrica, cada una de las matrices Cii� i = 1� 2 . . . �m, es simétrica, por tanto existe 
una matriz ortogonal Qi tal que QCiiQi = Di es una matriz diagonal. Sea a hora: 
Q = 
2 
6664 
Q1 � · · · � 
� Q2 · · · · · · � 
... 
... 
. . . 
... 
� � · · · · · · Qm 
3 
7775 
. 
La matriz Q es ortogonal (véase ejercicio 11) y es tal que QTCQ = D∗ es una matriz diagonal. También se 
tiene que QTDQ = D; es decir, 
QTRTARQ = D y QTRTBRQ = D∗ . 
Ya que las matrices R y Q son ortogonales, entonces la matriz P = RQ es ortogonal (vea el ejercicio 10) y 
es tal que PTAP y PTBP son matrices diagonales semejantes a A y a B respectivamente. 
�⇐=) Supongamos que existe una matriz ortogonal P tal que PTAP = D1 y PTBP = D2 son matri-ces 
diagonales. Puesto que D1D2 = D2D1� entonces: 
PTAPPTBP = PTBPPTAP � 
de donde AB = BA. � 
3.52. Ejemplo. En este ejemplo se siguen los pasos hechos en la demostración del teorema anterior en el 
sentido �=⇒). La verificación de los cálculos numéricos queda a cargo del lector. 
65
3.4. Diagonalización simultánea Diagonalización de matrices 
Las matrices simétricas: 
A = 
2 
664 
1 −1 0 0 
−1 1 0 0 
0 0 1 0 
0 0 0 1 
3 
775 
y B = 
2 
664 
1 0 0 0 
0 1 0 0 
0 0 2 −2 
0 0 −2 5 
3 
775 
son tales que AB = BA. Los valores propios de la matriz A son λ1 = 0 de multiplicidad algebraica k1 = 1� 
λ2 = 1 de multiplicidad algebraica k2 = 2 y λ3 = 2 de multiplicidad algebraica k3 = 1. La matriz ortogonal 
R = 
2 
6666664 
1/√2 0 0 −1/√2 
1/√2 0 0 1/√2 
0 1 0 0 
0 0 1 0 
3 
7777775 
es tal que: 
RTAR = D = 
2 
664 
0 0 0 0 
0 1 0 0 
0 0 1 0 
0 0 0 2 
3 
775 
= 
2 
664 
λ1I � � 
� λ2I � 
� � λ3I 
3 
775 
y 
RTBR = C = 
2 
664 
1 0 0 0 
0 2 −2 0 
0 −2 5 0 
0 0 0 1 
3 
775 
= 
2 
664 
C11 � � 
� C22 � 
� � C33 
3 
775 
. 
La matriz ortogonal 
Q = 
2 
6666664 
1 0 0 0 
0 2/√5 −1/√5 0 
0 1/√5 2/√5 0 
0 0 0 1 
3 
7777775 
= 
2 
664 
Q1 � � 
� Q2 � 
� � Q3 
3 
775 
� 
es tal que 
QTCQ = 
2 
664 
1 0 0 0 
0 1 0 0 
0 0 6 0 
0 0 0 1 
3 
775 
= QTRTBRQ = D∗ 
y 
QTDQ = 
2 
664 
1 0 0 0 
0 1 0 0 
0 0 1 0 
0 0 0 2 
3 
775 
= QTRTARQ = D. 
En consecuencia, la matriz ortogonal 
P = RQ = 
2 
6666664 
1/√2 0 0 −1/√2 
1/√2 0 0 1/√2 
0 2/√5 −1/√5 0 
0 1/√5 2/√5 0 
3 
7777775 
66
Diagonalización de matrices 3.4. Diagonalización simultánea 
es tal que PTAP = D y PTBP = D∗ son matrices diagonales. 
3.53. Corolario. Sean A1� A2� . . . �Ak matrices simétricas de orden n. Una condición necesaria y suficiente 
para que exista una matriz ortogonal P tal que PTAiP sea una matriz diagonal para cada i = 1� 2� . . . � k es 
que AiAj = AjAi para cada i y j; i� j = 1� 2� . . . � k. 
Demostración� (=⇒) La demostración de esta parte del teorema se hará utilizando inducción sobre 
el número de matrices k. Para cuando k = 2 el corolario es cierto por el teorema anterior. Suponga ahora 
que el corolario es cierto para cuando k = s; se quiere demostrar que el corolario es cierto para cuando 
k = s + 1. Sean pues A1� A2� . . . �As+1 matrices simétricas de orden n tales que AiAj = AjAi para cada i 
y j; i� j = 1� 2� . . . � s + 1. Por el teorema 3.41 existe una matriz ortogonal R tal que 
RTA1R = D = 
2 
6664 
λ1Ik� � · · · � 
� λ2Ik2 · · · � 
... 
... 
. . . 
... 
� � · · · λmIkm 
3 
7775 
� 
donde los λτ , τ = 1� 2� . . . � m� son los diferentes valores propios de A1 y kτ es la multiplicidad geométrica 
(algebraica) del valor propio λτ . 
Ahora, para cada i (i = 2� 3� . . . � s + 1)� se toma la matriz Ci = RTAiR. Puesto que por hipótesis 
A1Ai = AiA1, entonces 
CiD = RTAiRRTA1R = RTAiA1R = RTA1AiR 
= RTA1RRTAiR = DCi � 
para i = 2� 3� . . . � s + 1. De esto se sigue que: 
Ci = 
2 
6664 
Ci1 � · · · � 
� Ci2 · · · � 
... 
... 
. . . 
... 
� � · · · · · · Cim 
3 
7775 
� i = 2� 3� . . . � s + 1 . 
Ahora, como AiAj = AjAi para todo i y todo j; i� j = 2� 3� . . . � s + 1, entonces: 
CiCj = RTAiRRTAjR = RTAiAjR 
= RTAjAiR = RTAjRRTAiR = CjCi . 
De esto se sigue que para cada τ� τ = 1� 2� . . . �m. 
CiτCjτ = CjτCiτ . 
De otra parte, como la matriz Ci es simétrica, entonces la matriz Ciτ es simétrica para cada i = 2� 3 . . . � s+1 
y cada τ = 1� 2� . . . � m. Por lo anterior y por la hipótesis de inducción; para cada τ , existe una matriz 
ortogonal Qτ tal que 
QT 
i CiτQi = Dτ 
es una matriz diagonal. Sea ahora: 
Q = 
2 
6664 
Q1 � · · · � 
� Q2 · · · � 
... 
.... . . 
... 
� � · · · Qm 
3 
7775 
. 
La matriz Q es ortogonal y es tal que QTCiQ = D∗i es una matriz diagonal. También se tiene que QTDQ = 
D. Así que: 
QTRTAiRQ = D∗i � i = 2� 3 . . . � s + 1� y QTRTA1RQ = D∗ . 
67
3.4. Diagonalización simultánea Diagonalización de matrices 
Puesto que R y Q son matrices ortogonales, entonces la matriz P = RQ es ortogonal. En consecuencia, la 
matriz ortogonal P es tal que PTAiP es una matriz diagonal para i = 2� 3 . . . � s + 1. 
(Necesidad:) Supongamos ahora que existe una matriz ortogonal P tal que PTAiP = Di es una ma-triz 
diagonal para cada i = 1� 2� . . . � k. Puesto que DiDj = DjDi� para todo i y todo j, i� j = 1� 2� . . . � k, 
entonces 
PTAiPPTAjP = PTAjPPTAiP� 
de donde se tiene que AiAj = AjAi para todo i y todo j; i� j = 1� 2� . . . � k. � 
3.54. Ejemplo. Las matrices simétricas 
A1 = 
» 
2 1 
1 2 
– 
� A2 = 
» 
3 4 
4 3 
– 
y A3 = 
» 
5 6 
6 5 
– 
son tales que AiAj = AjAi, i = 1� 2. 
La matriz ortogonal 
R = 
1 
√2 
2 
4 
1 1 
−1 1 
3 
5 
es tal que 
RTA1R = D1 = 
» 
1 0 
0 3 
– 
RTA2R = D2 = 
» 
−1 0 
0 7 
– 
RTA3R = D3 = 
» 
−1 
11 
– 
� 
es decir, la matriz ortogonal R diagonaliza de manera simultánea a las matrices A1� A2 y A3. 
3�4 Ejercicios 
1. Si A y B son dos matrices simétricas invertibles de igual orden tales que AB = BA, demuestre 
entonces existe una matriz ortogonal P tal que PTAP� PTBP� PTABP� PTAB−1P� PTA−1BP y 
PTA−1B−1P son matrices diagonales. 
2. Sean A = 
2 
4 
1 −2 −3 
−2 5 5 
−3 5 11 
3 
5 y B = 
2 
4 
1 −4 −1 
−4 14 4 
−1 4 6 
3 
5 
a) Verifique que todos los valores propios de A son positivos, encontrando una matriz invertible 
P tal que PTAP = I. 
b) En una matriz invertible M tal que MTAM = I y MTBM = D sea una matriz diagonal. 
3. Considere la matrices 
S1 = 
2 
4 
1 −2 0 
−2 5 0 
0 0 4 
3 
5 � S2 = 
2 
4 
2 −3 0 
−3 6 0 
0 0 −4 
3 
5 
68
Diagonalización de matrices 3.4. Diagonalización simultánea 
S3 = 
2 
4 
3 −2 0 
−2 −2 0 
0 0 8 
3 
5 
a) Verifique que todos los valores propios de S1 son positivos, encontrando una matriz invertible 
P tal que PT S1P = I. 
b) Haga A = PT S2P y B = PT S3P.. Verifique que AB = BA y encuentre una matriz ortogonal 
Q tal que QTAQ = D1 y QTBQ = D2 son matrices diagonales. 
c) Concluya que la matriz invertible M = PQ, siendo P y Q como antes, es tal que MT S1M = I 
y MTAM = D1 y MTBM = D2 son matrices diagonales. 
69

Más contenido relacionado

La actualidad más candente

Combinacion lineal ejercicios
Combinacion lineal ejerciciosCombinacion lineal ejercicios
Combinacion lineal ejerciciosalgebra
 
Ejemplos metodo-de-lagrange1-ajustar-a-mat-3
Ejemplos metodo-de-lagrange1-ajustar-a-mat-3Ejemplos metodo-de-lagrange1-ajustar-a-mat-3
Ejemplos metodo-de-lagrange1-ajustar-a-mat-3shirleyrojas2108
 
Interior, exterior y frontera de un conjunto
Interior, exterior y frontera de un conjuntoInterior, exterior y frontera de un conjunto
Interior, exterior y frontera de un conjuntowalexander03
 
Función de Masa de Probabilidad mediante Fórmula
Función de Masa de Probabilidad mediante FórmulaFunción de Masa de Probabilidad mediante Fórmula
Función de Masa de Probabilidad mediante Fórmulayaritza_ing
 
FUNCIONES VECTORIALES DE VARIABLE REAL
FUNCIONES VECTORIALES DE VARIABLE REALFUNCIONES VECTORIALES DE VARIABLE REAL
FUNCIONES VECTORIALES DE VARIABLE REALana maria
 
3 ecuaciones diferenciales_orden_superior (1)
3 ecuaciones diferenciales_orden_superior (1)3 ecuaciones diferenciales_orden_superior (1)
3 ecuaciones diferenciales_orden_superior (1)Jesus Burgos Matos
 
Metodo del anulador
Metodo del anuladorMetodo del anulador
Metodo del anuladorMakabronero
 
Funciones de Varias Variables
Funciones de Varias VariablesFunciones de Varias Variables
Funciones de Varias VariablesKike Prieto
 
Funciones reales-variables
Funciones reales-variablesFunciones reales-variables
Funciones reales-variablesRuben Egusquiza
 
Maximos y minimos funcion de varias variables
Maximos y minimos funcion de varias variablesMaximos y minimos funcion de varias variables
Maximos y minimos funcion de varias variablesRAQUEL CARDENAS GONZALEZ
 
Serie de-taylor-y-maclaurin
Serie de-taylor-y-maclaurinSerie de-taylor-y-maclaurin
Serie de-taylor-y-maclaurinFaveeLa Natsuko
 
Algebra lineal
Algebra linealAlgebra lineal
Algebra linealIvan Lopez
 
Mapa conceptual derivadas parciales shey
Mapa conceptual derivadas parciales sheyMapa conceptual derivadas parciales shey
Mapa conceptual derivadas parciales sheykatherine1004
 
Ejercicios resueltos valores y vectores propios, diagonaliz,.....
Ejercicios resueltos valores y vectores propios, diagonaliz,.....Ejercicios resueltos valores y vectores propios, diagonaliz,.....
Ejercicios resueltos valores y vectores propios, diagonaliz,.....Cindy Adriana Bohórquez Santana
 
Ecuaciones diferenciales en Derivadas parciales
Ecuaciones diferenciales en Derivadas parcialesEcuaciones diferenciales en Derivadas parciales
Ecuaciones diferenciales en Derivadas parcialesEdwin SB
 

La actualidad más candente (20)

Combinacion lineal ejercicios
Combinacion lineal ejerciciosCombinacion lineal ejercicios
Combinacion lineal ejercicios
 
Ejemplos metodo-de-lagrange1-ajustar-a-mat-3
Ejemplos metodo-de-lagrange1-ajustar-a-mat-3Ejemplos metodo-de-lagrange1-ajustar-a-mat-3
Ejemplos metodo-de-lagrange1-ajustar-a-mat-3
 
Interior, exterior y frontera de un conjunto
Interior, exterior y frontera de un conjuntoInterior, exterior y frontera de un conjunto
Interior, exterior y frontera de un conjunto
 
Función de Masa de Probabilidad mediante Fórmula
Función de Masa de Probabilidad mediante FórmulaFunción de Masa de Probabilidad mediante Fórmula
Función de Masa de Probabilidad mediante Fórmula
 
FUNCIONES VECTORIALES DE VARIABLE REAL
FUNCIONES VECTORIALES DE VARIABLE REALFUNCIONES VECTORIALES DE VARIABLE REAL
FUNCIONES VECTORIALES DE VARIABLE REAL
 
3 ecuaciones diferenciales_orden_superior (1)
3 ecuaciones diferenciales_orden_superior (1)3 ecuaciones diferenciales_orden_superior (1)
3 ecuaciones diferenciales_orden_superior (1)
 
Derivadas Parciales
Derivadas ParcialesDerivadas Parciales
Derivadas Parciales
 
Metodo del anulador
Metodo del anuladorMetodo del anulador
Metodo del anulador
 
Funciones vectoriales
Funciones vectorialesFunciones vectoriales
Funciones vectoriales
 
Funciones de Varias Variables
Funciones de Varias VariablesFunciones de Varias Variables
Funciones de Varias Variables
 
Funciones reales-variables
Funciones reales-variablesFunciones reales-variables
Funciones reales-variables
 
Exámenes álgebra lineal segundo y tercera evaluación
Exámenes álgebra lineal segundo y tercera evaluaciónExámenes álgebra lineal segundo y tercera evaluación
Exámenes álgebra lineal segundo y tercera evaluación
 
Limites trigonométricos
Limites trigonométricosLimites trigonométricos
Limites trigonométricos
 
Maximos y minimos funcion de varias variables
Maximos y minimos funcion de varias variablesMaximos y minimos funcion de varias variables
Maximos y minimos funcion de varias variables
 
Serie de-taylor-y-maclaurin
Serie de-taylor-y-maclaurinSerie de-taylor-y-maclaurin
Serie de-taylor-y-maclaurin
 
Algebra lineal
Algebra linealAlgebra lineal
Algebra lineal
 
Mapa conceptual derivadas parciales shey
Mapa conceptual derivadas parciales sheyMapa conceptual derivadas parciales shey
Mapa conceptual derivadas parciales shey
 
Ejercicios resueltos valores y vectores propios, diagonaliz,.....
Ejercicios resueltos valores y vectores propios, diagonaliz,.....Ejercicios resueltos valores y vectores propios, diagonaliz,.....
Ejercicios resueltos valores y vectores propios, diagonaliz,.....
 
Distribucion Normal
Distribucion NormalDistribucion Normal
Distribucion Normal
 
Ecuaciones diferenciales en Derivadas parciales
Ecuaciones diferenciales en Derivadas parcialesEcuaciones diferenciales en Derivadas parciales
Ecuaciones diferenciales en Derivadas parciales
 

Similar a Valores y vectores propios de matrices

Aplicaciones
AplicacionesAplicaciones
Aplicacionesbramas
 
Demostraciones transformaciones lineales
Demostraciones transformaciones linealesDemostraciones transformaciones lineales
Demostraciones transformaciones linealesMarko Gallardo
 
Demostraciones transformaciones lineales (1)
Demostraciones transformaciones lineales (1)Demostraciones transformaciones lineales (1)
Demostraciones transformaciones lineales (1)Daniela Medina
 
Transformaciones Lineales
Transformaciones LinealesTransformaciones Lineales
Transformaciones LinealesJorge Carico D
 
Presentacion de algebra lineal
Presentacion de algebra linealPresentacion de algebra lineal
Presentacion de algebra linealHumberto sumielec
 
Presentacion algebra
Presentacion algebraPresentacion algebra
Presentacion algebracarlos yanez
 
Transformaciones lineales
Transformaciones lineales Transformaciones lineales
Transformaciones lineales mirabal21
 
Elba Alcala - Algebra lineal
Elba Alcala - Algebra linealElba Alcala - Algebra lineal
Elba Alcala - Algebra linealElba Alcala
 
Sistema de Ecuaciones diferenciales
Sistema de Ecuaciones diferencialesSistema de Ecuaciones diferenciales
Sistema de Ecuaciones diferencialesKike Prieto
 
Charla de marrones
Charla de marronesCharla de marrones
Charla de marronesjerika
 
MANUAL CALCULADORA VOYAGE 12 transformaciones lineales
MANUAL CALCULADORA VOYAGE 12 transformaciones linealesMANUAL CALCULADORA VOYAGE 12 transformaciones lineales
MANUAL CALCULADORA VOYAGE 12 transformaciones linealesJosé Víctor Becerra Cotrina
 
Transformaciones lineales y espacios vectoriales
Transformaciones lineales y espacios vectorialesTransformaciones lineales y espacios vectoriales
Transformaciones lineales y espacios vectorialesarturoperez
 
Estructuras algebraicas, vectores y espacios vectoriales(4)
Estructuras algebraicas, vectores y espacios vectoriales(4)Estructuras algebraicas, vectores y espacios vectoriales(4)
Estructuras algebraicas, vectores y espacios vectoriales(4)Jorge Garcia
 

Similar a Valores y vectores propios de matrices (20)

Aplicaciones
AplicacionesAplicaciones
Aplicaciones
 
Demostraciones transformaciones lineales
Demostraciones transformaciones linealesDemostraciones transformaciones lineales
Demostraciones transformaciones lineales
 
Demostraciones transformaciones lineales (1)
Demostraciones transformaciones lineales (1)Demostraciones transformaciones lineales (1)
Demostraciones transformaciones lineales (1)
 
Algebra
AlgebraAlgebra
Algebra
 
Valores propios
Valores propiosValores propios
Valores propios
 
Transformaciones Lineales
Transformaciones LinealesTransformaciones Lineales
Transformaciones Lineales
 
Presentacion de algebra lineal
Presentacion de algebra linealPresentacion de algebra lineal
Presentacion de algebra lineal
 
Presentacion algebra
Presentacion algebraPresentacion algebra
Presentacion algebra
 
Transformaciones lineales
Transformaciones lineales Transformaciones lineales
Transformaciones lineales
 
Elba Alcala - Algebra lineal
Elba Alcala - Algebra linealElba Alcala - Algebra lineal
Elba Alcala - Algebra lineal
 
Sistema de Ecuaciones diferenciales
Sistema de Ecuaciones diferencialesSistema de Ecuaciones diferenciales
Sistema de Ecuaciones diferenciales
 
Valores vectorespropios-productointerno-cuadraticas
Valores vectorespropios-productointerno-cuadraticasValores vectorespropios-productointerno-cuadraticas
Valores vectorespropios-productointerno-cuadraticas
 
Charla de marrones
Charla de marronesCharla de marrones
Charla de marrones
 
MANUAL CALCULADORA VOYAGE 12 transformaciones lineales
MANUAL CALCULADORA VOYAGE 12 transformaciones linealesMANUAL CALCULADORA VOYAGE 12 transformaciones lineales
MANUAL CALCULADORA VOYAGE 12 transformaciones lineales
 
Yukeilys morales
Yukeilys moralesYukeilys morales
Yukeilys morales
 
Transformaciones lineales y espacios vectoriales
Transformaciones lineales y espacios vectorialesTransformaciones lineales y espacios vectoriales
Transformaciones lineales y espacios vectoriales
 
Estructuras algebraicas, vectores y espacios vectoriales(4)
Estructuras algebraicas, vectores y espacios vectoriales(4)Estructuras algebraicas, vectores y espacios vectoriales(4)
Estructuras algebraicas, vectores y espacios vectoriales(4)
 
Transformacion lineal
Transformacion linealTransformacion lineal
Transformacion lineal
 
Algebra 1 - Relaciones
Algebra 1 - Relaciones Algebra 1 - Relaciones
Algebra 1 - Relaciones
 
ing industrial
ing industrialing industrial
ing industrial
 

Último

VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMALVOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMALEDUCCUniversidadCatl
 
FICHA DE MONITOREO Y ACOMPAÑAMIENTO 2024 MINEDU
FICHA DE MONITOREO Y ACOMPAÑAMIENTO  2024 MINEDUFICHA DE MONITOREO Y ACOMPAÑAMIENTO  2024 MINEDU
FICHA DE MONITOREO Y ACOMPAÑAMIENTO 2024 MINEDUgustavorojas179704
 
La evolucion de la especie humana-primero de secundaria
La evolucion de la especie humana-primero de secundariaLa evolucion de la especie humana-primero de secundaria
La evolucion de la especie humana-primero de secundariamarco carlos cuyo
 
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdf
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdfFisiologia.Articular. 3 Kapandji.6a.Ed.pdf
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdfcoloncopias5
 
Uses of simple past and time expressions
Uses of simple past and time expressionsUses of simple past and time expressions
Uses of simple past and time expressionsConsueloSantana3
 
periodico mural y sus partes y caracteristicas
periodico mural y sus partes y caracteristicasperiodico mural y sus partes y caracteristicas
periodico mural y sus partes y caracteristicas123yudy
 
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxPresentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxYeseniaRivera50
 
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdfOswaldoGonzalezCruz
 
Unidad II Doctrina de la Iglesia 1 parte
Unidad II Doctrina de la Iglesia 1 parteUnidad II Doctrina de la Iglesia 1 parte
Unidad II Doctrina de la Iglesia 1 parteJuan Hernandez
 
LA OVEJITA QUE VINO A CENAR CUENTO INFANTIL.pdf
LA OVEJITA QUE VINO A CENAR CUENTO INFANTIL.pdfLA OVEJITA QUE VINO A CENAR CUENTO INFANTIL.pdf
LA OVEJITA QUE VINO A CENAR CUENTO INFANTIL.pdfNataliaMalky1
 
Los Nueve Principios del Desempeño de la Sostenibilidad
Los Nueve Principios del Desempeño de la SostenibilidadLos Nueve Principios del Desempeño de la Sostenibilidad
Los Nueve Principios del Desempeño de la SostenibilidadJonathanCovena1
 
BIOLOGIA_banco de preguntas_editorial icfes examen de estado .pdf
BIOLOGIA_banco de preguntas_editorial icfes examen de estado .pdfBIOLOGIA_banco de preguntas_editorial icfes examen de estado .pdf
BIOLOGIA_banco de preguntas_editorial icfes examen de estado .pdfCESARMALAGA4
 
Día de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundialDía de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundialpatriciaines1993
 
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...fcastellanos3
 
Estrategia de Enseñanza y Aprendizaje.pdf
Estrategia de Enseñanza y Aprendizaje.pdfEstrategia de Enseñanza y Aprendizaje.pdf
Estrategia de Enseñanza y Aprendizaje.pdfromanmillans
 
Instrucciones para la aplicacion de la PAA-2024b - (Mayo 2024)
Instrucciones para la aplicacion de la PAA-2024b - (Mayo 2024)Instrucciones para la aplicacion de la PAA-2024b - (Mayo 2024)
Instrucciones para la aplicacion de la PAA-2024b - (Mayo 2024)veganet
 
TEST DE RAVEN es un test conocido para la personalidad.pdf
TEST DE RAVEN es un test conocido para la personalidad.pdfTEST DE RAVEN es un test conocido para la personalidad.pdf
TEST DE RAVEN es un test conocido para la personalidad.pdfDannyTola1
 
Tema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdf
Tema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdfTema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdf
Tema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdfDaniel Ángel Corral de la Mata, Ph.D.
 
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS.pdf
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS.pdfLA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS.pdf
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS.pdfJAVIER SOLIS NOYOLA
 

Último (20)

VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMALVOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
 
FICHA DE MONITOREO Y ACOMPAÑAMIENTO 2024 MINEDU
FICHA DE MONITOREO Y ACOMPAÑAMIENTO  2024 MINEDUFICHA DE MONITOREO Y ACOMPAÑAMIENTO  2024 MINEDU
FICHA DE MONITOREO Y ACOMPAÑAMIENTO 2024 MINEDU
 
La evolucion de la especie humana-primero de secundaria
La evolucion de la especie humana-primero de secundariaLa evolucion de la especie humana-primero de secundaria
La evolucion de la especie humana-primero de secundaria
 
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdf
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdfFisiologia.Articular. 3 Kapandji.6a.Ed.pdf
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdf
 
Uses of simple past and time expressions
Uses of simple past and time expressionsUses of simple past and time expressions
Uses of simple past and time expressions
 
periodico mural y sus partes y caracteristicas
periodico mural y sus partes y caracteristicasperiodico mural y sus partes y caracteristicas
periodico mural y sus partes y caracteristicas
 
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptxPresentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
Presentación de Estrategias de Enseñanza-Aprendizaje Virtual.pptx
 
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
5° SEM29 CRONOGRAMA PLANEACIÓN DOCENTE DARUKEL 23-24.pdf
 
Unidad II Doctrina de la Iglesia 1 parte
Unidad II Doctrina de la Iglesia 1 parteUnidad II Doctrina de la Iglesia 1 parte
Unidad II Doctrina de la Iglesia 1 parte
 
LA OVEJITA QUE VINO A CENAR CUENTO INFANTIL.pdf
LA OVEJITA QUE VINO A CENAR CUENTO INFANTIL.pdfLA OVEJITA QUE VINO A CENAR CUENTO INFANTIL.pdf
LA OVEJITA QUE VINO A CENAR CUENTO INFANTIL.pdf
 
PPTX: La luz brilla en la oscuridad.pptx
PPTX: La luz brilla en la oscuridad.pptxPPTX: La luz brilla en la oscuridad.pptx
PPTX: La luz brilla en la oscuridad.pptx
 
Los Nueve Principios del Desempeño de la Sostenibilidad
Los Nueve Principios del Desempeño de la SostenibilidadLos Nueve Principios del Desempeño de la Sostenibilidad
Los Nueve Principios del Desempeño de la Sostenibilidad
 
BIOLOGIA_banco de preguntas_editorial icfes examen de estado .pdf
BIOLOGIA_banco de preguntas_editorial icfes examen de estado .pdfBIOLOGIA_banco de preguntas_editorial icfes examen de estado .pdf
BIOLOGIA_banco de preguntas_editorial icfes examen de estado .pdf
 
Día de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundialDía de la Madre Tierra-1.pdf día mundial
Día de la Madre Tierra-1.pdf día mundial
 
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
 
Estrategia de Enseñanza y Aprendizaje.pdf
Estrategia de Enseñanza y Aprendizaje.pdfEstrategia de Enseñanza y Aprendizaje.pdf
Estrategia de Enseñanza y Aprendizaje.pdf
 
Instrucciones para la aplicacion de la PAA-2024b - (Mayo 2024)
Instrucciones para la aplicacion de la PAA-2024b - (Mayo 2024)Instrucciones para la aplicacion de la PAA-2024b - (Mayo 2024)
Instrucciones para la aplicacion de la PAA-2024b - (Mayo 2024)
 
TEST DE RAVEN es un test conocido para la personalidad.pdf
TEST DE RAVEN es un test conocido para la personalidad.pdfTEST DE RAVEN es un test conocido para la personalidad.pdf
TEST DE RAVEN es un test conocido para la personalidad.pdf
 
Tema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdf
Tema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdfTema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdf
Tema 8.- Gestion de la imagen a traves de la comunicacion de crisis.pdf
 
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS.pdf
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS.pdfLA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS.pdf
LA ECUACIÓN DEL NÚMERO PI EN LOS JUEGOS OLÍMPICOS DE PARÍS.pdf
 

Valores y vectores propios de matrices

  • 1. CAPÍTULO 3 Valores propios y vectores propios� Diagonalización Este capítulo consta de cuatro secciones. Con el fin de dar una idea de lo que se hará en las dos primeras secciones, se considerará un espacio vectorial U y una transformación lineal T : U → U. Ahora; si existe una base ordenada � = {u1� u2� . . . � un} de U tal que [T] es una matriz diagonal, es decir, �� [T] �� = D = 2 6664 λ1 0 · · · 0 0 λ2 · · · 0 ... ... . . . ... 0 0 · · · λn 3 7775 � entonces T�ui) = λiui; i = 1� 2� . . . � n � esto es, T�ui) es un múltiplo escalar de ui. Este hecho da información inmediata acerca de la transformación lineal T. Por ejemplo, la imagen de T es el espacio generado por los vectores ui para los cuales λi�= 0� y el núcleo de T es el espacio generado por los restantes vectores ui. En la sección 3.2 se responderán las preguntas: ¿Para qué transformaciones lineales T existe una tal base �? y si existe, ¿Cómo encontrarla?. Las respuestas a estas preguntas están directamente ligadas a los conceptos de valor propio y vector propio, los cuales serán abordados en la sección 3.1. Se verá en esta sección, de que el cálculo de los valores propios y los vectores propios de una transformación lineal T se reduce al cálculo de los valores propios y los vectores propios de una cierta matriz A. Por otro lado, en las secciones 3.3 y 3.4 se consideraran los conceptos de valor propio, vector propio y diagonalización de matrices simétricas, los cuales son particularmente importantes en la teoría y en aplicaciones del álgebra lineal. 3.1. Valores propios y vectores propios Un problema que se presenta con frecuencia en el álgebra lineal y sus aplicaciones es el siguiente: Dado un espacio vectorial U y dada una transformación lineal T : U → U, encontrar valores de un escalar λ para los cuales existan vectores u�= 0 tales que T�u) = λu. Tal problema se denomina un problema de valores propios (la figura 3.1 ilustra las posibles situaciones). En esta sección se verá cómo resolver dicho problema. 3.1. Definición. Sean U un espacio vectorial y T : U → U una transformación lineal. Se dice que el escalar λ es un valor propio de T, si existe un vector u�= 0 de U tal que T�u) = λu. A dicho vector no nulo u se le llama un vector propio de T correspondiente al valor propio λ, o se dice que es λ-vector de T. Nota. Los valores propios se denominan también eigenvalores o valores característicos y los vectores propios se denominan también eigenvectores. 3�
  • 2. 3.1. Valores propios y vectores propios Diagonalización de matrices u T(u)= λ u u 0<λ<1 u u T(u)= 0 λ T(u)= u λ T(u)= u λ>1 λ<0 λ=0 Figura 3�1� Interpretación geométrica de vector propio 3.2. Ejemplo. Calcule los valores propios de la transformación lineal T : R2 → R2, dada por T �x� y) = �2x� x + 3y). De acuerdo con la definición anterior; el escalar λ es un vector propio T sii existe un vector u = �x� y)�= 0 de R2 tal que T [�x� y)] = �2x� x + 3y) = λ�x� y)� lo que equivale a que exista un vector u = �x� y)�= 0 de R2 que satisfaga el sistema 2x = λx x + 3y = λy . Ahora, si x�= 0, entonces se tiene que λ = 2 y por lo tanto y = −x. Esto quiere decir que todos los vectores de la forma u = �x� y) = �x�−x); x ∈ R� x�= 0 son 2-vectores propios de T. En efecto: T [�x�−x)] = �2x� −2x) = 2�x�−x) . De otro lado, si x = 0 y y�= 0 entonces λ = 3. Esto quiere decir que todos los vectores de la forma u = �x� y) = �0� y); y ∈ R� y�= 0 son 3-vectores propios de T. En efecto: T [�0� y)] = �0� 3y) = 3�0� y) . � La figura 3.2 ilustra el ejemplo anterior. En el ejemplo anterior observamos que a cada vector propio de T le corresponde un número infinito de vectores propios (todo un subespacio de U ⊂ R2� sin el vector nulo). Esto es válido en general, tal como se establece en la proposición siguiente. 3.3. Proposición. Sean U un espacio vectorial, T : U → U una transformación lineal y λ un valor propio de T. El conjunto S�λ) de todos los λ-vectores propios de T junto con el vector �, es un subespacio de U. Demostración� De acuerdo con la definición de transformación lineal, así como de vector y valor propio se tiene: 1. Si u1 ∈ S�λ) y u2 ∈ S�λ) entonces T�u1 + u2) = T�u1) + T�u2) = λ�u1 + u2) . Esto es, u1 + u2 ∈ S�λ). 32
  • 3. Diagonalización de matrices 3.1. Valores propios y vectores propios y T(u ) =3 (0, y) u = (x, −x) T(u) =2 (x, −x) x , , u = (0, y) Figura 3�2� Vectores propios de T�x� y) = �2x� x + 3y) 2. Si u ∈ S�λ) y α ∈ R entonces T�αu) = αT�u) = λ�α · u) . Esto es, αu ∈ S�λ). De acuerdo con el teorema 1.15, S�λ) es un subespacio vectorial de U. � 3.4. Definición. Sean U un espacio vectorial, T : U → U una transformación lineal y λ un valor propio de T. 1. El subespacio de U� S�λ)� mencionado en el teorema anterior, se denomina espacio propio asociado al valor propio λ. 2. La dimensión de S�λ) se denomina multiplicidad geométrica del valor propio λ. 3.5. Nota. Sean U un espacio vectorial, T : U → U una transformación lineal, � una base ordenada para U y A = [T] �� � la matriz de la transformación T referida a la base �. Entonces para cada u ∈ U se tiene [T�u)] � = A[u] � �ver teorema 1.42). En particular, u es un λ-vector propio de T si y sólo si u�= 0 y A[u] � = [T�u)] � = [λu] � = λ [u] � . Esto es, u es un λ-vector propio de T si y sólo si u�= 0 y A[u] � = λ [u] � . Por esta razón, y porque resulta en otros contextos, consideramos a continuación los conceptos particulares de valor propio y vector propio de una matriz cuadrada A. 3.6. Definición. Sea A una matriz cuadrada de orden n. 1. Se dice que el escalar λ es un valor propio de A, si existe un vector n×1, x�= 0 tal que Ax = λx. 2. Si λ es un valor propio de A y si el vector n × 1, x�= 0 es tal que Ax = λx. Entonces se dice que x es un vector propio de A correspondiente al valor propio λ, o que x es un λ-vector de A. En el caso especial de la transformación lineal; A : Rn → Rn; x → y = Ax� esta la definición anterior concuerda con la definición 3.1 (véase la sección 1.3). De otro lado, según la definición anterior y la nota 3.5, se puede entonces enunciar el siguiente teorema. 3.7. Teorema. Sean U un espacio vectorial, T : U → U una transformación lineal, B una base ordenada para U y A = [T] �� . 1. λ es un valor propio de T sii λ es un valor propio de A. 33
  • 4. 3.1. Valores propios y vectores propios Diagonalización de matrices 2. u ∈ U es un λ-vector propio de T sii x = [u]BB es un λ-vector propio de A. Dicho teorema garatiza entonces, que el cálculo de los valores y vectores propios de una transformación lineal se reduce al cálculo de los valores y vectores propios de una cierta matriz A. En lo que sigue, se verá cómo calcular los valores y vectores propios de una matriz. Sea A una matriz n×n. Por definición, el escalar λ es un valor propio de A sii existe un vector n×1� x�= 0 tal que Ax = λx� lo cual equivale a que el sistema homogéneo de ecuaciones lineales �A − λI)x = 0 tenga una solución no trivial x�= 0. Ahora por el teorema 1.56 del capítulo 1, el sistema de ecuaciones lineales �A − λI)x = 0 tiene una solución x�= 0 sii |A − λI| = 0. En consecuencia, el escalar λ es un valor propio de A sii pA�λ) = |A − λI| = ˛˛˛˛˛˛˛˛˛˛˛ a11 − λ a12 a13 · · · a1n a21 a22 − λ a23 · · · a2n a31 a32 a33 − λ · · · a3n ... ... ... . . . ... an1 an2 an3 · · · ann − λ ˛˛˛˛˛˛˛˛˛˛˛ = 0 La expresión pA�λ) = |A − λI| es un polinomio en λ de grado n (ejercicio 15), el cual se puede escribir en la forma: pA�λ) = |A − λI| = a0 + a1λ + a2λ2 + · · · + an−1λn−1 + �−1)nλn. En el caso particular de matrices 3 × 3 se tiene además (ejercicio 16), de que el polinomio característico está dado por pA�λ) = |A − λI| = −λ3 + Tr�A)λ2 − �m11 + m22 + m33)λ + det�A)� siendo mii, (i = 1� 2� 3) los menores principales de la matriz A (definición ??). 3.8. Definición. Sea A una matriz cuadrada 1. El polinomio característico de A está dado por pA�λ) = |A − λI|. 2. La ecuación característica de A está dada por pA�λ) = |A − λI| = 0. El siguiente teorema resume buena parte de la discusión anterior. 3.9. Teorema. Sea A una matriz cuadrada de orden n 1. El escalar λ es un valor propio de A sii λ es una solución (real)� de la ecuación característica de A. 2. A tiene a lo más n valores propios (reales)2.[?] 3.10. Definición. Sea A una matriz cuadrada y λ un valor propio de A. La multiplicidad algebraica de λ es k� si λ es una raíz del polinomio característico de A de multiplicidad k. El siguiente algoritmo, recoge entonces un esquema para calcular los valores propios y los vectores propios de una matriz A. Paso 1 Se determina el polinomio característico pA�λ) = |A − λI| . Paso 2 Se resuelve la ecuación característica pA�λ) = |A − λI| = 0. Las soluciones (reales) de ésta, son los valores propios de A. �Aunque uno puede estudiar espacios vectoriales donde los escalares son números complejos, en estas notas sólo consid-eramos los valores propios de � como escalares reales, salvo que se exprese lo contrario. No sobra mencionar, que en cursos avanzados de espacios vectoriales, la única restricción para los escalares es que sean elementos de un sistema matemático llamado cuerpo o campo. 2El teorema fundamental del álgebra establece que toda ecuación polinómica de grado n, con coeficientes complejos, tiene exactamente n raí ces complejas, contadas con sus multiplicidades. 34
  • 5. Diagonalización de matrices 3.1. Valores propios y vectores propios Paso 3 Para cada valor propio λ∗ de la matriz A, se resuelve el sistema de ecuaciones �A − λ∗I)x = 0. Las soluciones no nulas de este sistema son los λ∗−vectores propios de A. 3.11. Ejemplo. Determine los valores propios y vectores propios de la matriz A = 2 4 1 1 −1 −1 3 −1 −1 2 0 3 5 . Se determina inicialmente, el polinomio característico de A� pA�λ) = |A − λI| . Para ello se desarrolla el determinante |A − λI| por cofactores por la primera fila (véase el teorema 1.3) pA�λ) = |A − λI| = ˛˛˛˛˛˛ 1 − λ 1 −1 −1 3 − λ −1 −1 2 −λ ˛˛˛˛˛˛ = �1 − λ) ˛˛˛˛ 3 − λ −1 2 −λ ˛˛˛˛ − 1 ˛˛˛˛ −1 −1 −1 −λ ˛˛˛˛ − 1 ˛˛˛˛ −1 3 − λ −1 2 ˛˛˛˛ = �1 − λ)�λ2 − 3λ + 2) − �1 − λ) − �−λ + 1) = �1 − λ)�λ2 − 3λ + 2) = −�1 − λ)2�λ − 2). De aquí se tiene, que λ = 1 ó λ = 2 son las soluciones de la ecuación característica pA�λ) = |A − λI| = 0. λ = 1 y λ = 2 so pues los valores propios de A� con multiplicidades algebraicas k = 2 y k = 1 respectivamente. Ahora se calculan los vectores propios de A. Los 1−vectores propios de A son las soluciones no nulas del sistema de ecuaciones lineales �A − 1 · I)x = 0. Dicho sistema se resuelve usando el método de eliminación de Gauss-Jordan (véase el teorema 1.55 ). A − 1 · I = 2 4 0 1 −1 −1 2 −1 −1 2 −1 3 5 ≈ 2 4 1 0 −1 0 1 −1 0 0 0 3 5 = R Donde R es la forma escalonada reducida de la matriz A − 1 · I (Teorema 1.8). Las soluciones del sistema �A − 1 · I)x = 0 son, por lo tanto, los vectores de la forma: x = 2 4 x1 x2 x3 3 5 = 2 4 x3 x3 x3 3 5 = x3 2 4 1 1 1 3 5 � x3 ∈ R. En consecuencia, Uλ� = U1 = 8< 2 4 : 1 1 1 3 5 9= ; es una base para S�λ1) = S�1) y la multiplicidad geométrica del valor propio λ1 = 1 es 1. De otro lado, los 2−vectores propios de A son las soluciones no nulas del sistema de ecuaciones lineales �A − 2 · I)x = 0. Procediendo como en el cálculo anterior, se tiene: A − 2 · I = 2 4 −1 1 −1 −1 1 −1 −1 2 −2 3 5 ≈ 2 4 1 0 0 0 1 −1 0 0 0 3 5 = R Donde R es la forma escalonada reducida de la matriz A−2 · I. Las soluciones del sistema �A−2 · I)x = 0 35
  • 6. 3.1. Valores propios y vectores propios Diagonalización de matrices son los vectores de la forma: x = 2 4 x1 x2 x3 3 5 = 2 4 0 x3 x3 3 5 = x3 2 4 0 1 1 3 5 � x3 ∈ R. En consecuencia, Uλ2 = U2 = 8< 2 4 : 0 1 1 3 5 9= ; es una base para S�λ2) = S�2) y la multiplicidad geométrica del valor propio λ2 = 2 es 1. En el ejemplo anterior, la multiplicidad geométrica del valor propio λ1 = 1 es menor que su correspondiente multiplicidad algebraica y la multiplicidad geométrica del valor propio λ2 = 2 es igual que su correspondiente multiplicidad algebraica (ver el ejercicio 3.3 de la sección de ejercicios 3.3). 3.12. Ejemplo. Calcule los valores y vectores propios de la matriz A = » 0 1 −1 0 – . Para ello se encuentra el polinomio característico de A� pA�λ) = |A − λI| . pA�λ) = |A − λI| = ˛˛˛˛ −λ 1 −1 −λ ˛˛˛˛ = λ2 + 1 � y se resuelve la ecuación característica de A� pA�λ) = |A − λI| = 0 pA�λ) = λ2 + 1 = �λ + i)�λ − i) sii λ = i ó λ = −i. Puesto que las soluciones de la ecuación característica de A no son reales, entonces A no tiene valores propios y por lo tanto no tiene vectores propios, en el sentido considerado en este texto. 3.13. Ejemplo. Sea T : P2 → P2 la transformación lineal definida por: T ˆ a + bx + cx2˜ = �a + b − c) + �−a + 3b − c)x + �−a + 2b)x2 Determine los valores y los vectores propios de la transformación. Sea � = ˘ 1� x� x2¯ la base canónica de P2, se tiene entonces que: [T] �� = A = 2 4 1 1 −1 −1 3 −1 −1 2 0 3 5 . De acuerdo con el teorema 3.7(1); los valores propios de la transformación lineal T son los valores propios de la matriz A� los cuales son, según el ejemplo 3.11 λ1 = 1 y λ2 = 2. De otro lado, del ejemplo 3.11 se sabe que Uλ� = {x1} es una base de S�λ1) y que Uλ2 = {x2} es una base de S�λ2), donde x1 = 2 4 1 1 1 3 5 y x2 = 2 4 0 1 1 3 5 . Como se estableció en el teorema 3.7(2), estos son respectivamente, los vectores de coordenadas respecto a la base � (véase apartado 1.2.2) de los vectores de P2; u1 = 1 + x + x2 y u2 = x + x2 . 36
  • 7. Diagonalización de matrices 3.1. Valores propios y vectores propios En consecuencia; U� λ� = {u1} = ˘ 1 + x + x2¯ es una base del espacio de vectores propios de T correspon-dientes al valor propio λ1 = 1 y U� λ2 = {u2} = ˘ x + x2¯ es una base del espacio de vectores propios de T correspondientes al valor propio λ2 = 2. Terminamos esta sección con dos resultados que involucran matrices semejantes. El primero de ellos relaciona los polimomios característicos de matrices semenjantes y el segundo relaciona los vectores propios de dichas matrices. 3.14. Teorema. Si A y B son matrices semejantes, entonces los polinomios caracterí sticos de A y B son iguales, y por consiguiente, las matrices A y B tienen los mismos valores propios. Demostración� Si A y B son matrices semejantes, entonces existe una matriz invertible P tal que B = P−1AP. De aquí: pB�λ) = |B − λI| = ˛˛ P−1AP − λP−1P ˛˛ = ˛˛ P−1�A − λI)P ˛˛ = |P−1| |A − λI| |P| = |P−1| |P| |A − λI| = |A − λI| = pA�λ). � 3.15. Nota. El converso del teorema anterior no es cierto; o sea, si A y B son matrices con el mismo poli-nomio característico, no necesariamente A y B son matrices semejantes. Para mostrar esto, basta considerar el siguiente ejemplo. 3.16. Ejemplo. Las matrices A = » 1 0 0 1 – y B = » 1 0 3 1 – tienen el mismo polinomio característico; explí citamente se tiene que pA�λ) = pB�λ) = �λ − 1)2. Sin embargo, A y B no son matrices semejantes, pues para cualquier matriz invertible P de orden 2 se tiene que: P−1AP = P−1IP = P−1P = I�= B. 3.17. Proposición. Si A y B = P−1AP son matrices semejantes, entonces x es un λ−vector propio de A sii P−1x es un λ−vector propio de B. Demostración� Por definición se tiene Ax = λx ⇐⇒ AIx = λx ⇐⇒ APP−1x = λx ⇐⇒ P−1APP−1x = λP−1x Tomando B = P−1AP se tiene entonces que: x�= � es un λ-vector propio de A si y sólo si P−1x�= � es un λ-vector propio de B = P−1AP. � 37
  • 8. 3.1. Valores propios y vectores propios Diagonalización de matrices 3�1 Ejercicios En los ejercicios 1 al 1, responda verdadero o falso, justificando su respuesta: 1. El Polinomio p�λ) = 3+2λ−λ2+4λ3 puede ser el polinomio característico de una matriz A ∈ �3×3. 2. Si p�λ) = −λ3 + 4λ2 − 5λ + 2 es el polinomio característico de una matriz A ∈ �3×3, entonces |A| = 2 2. 3. x = 4 1 1 0 3 5 es un vector propio de M = 2 4 −3 1 −1 −7 5 −1 −6 6 −2 3 5 4. λ = 1 es un valor propio de la matriz M anterior. 5. Sea A una matriz cuadrada de orden n. Si C es una matriz cuadrada de orden n invertible, entonces las matrices A� C−1AC y CAC−1� tienen el mismo polinomio característico. 6. Si la matriz A satisface la igualdad: A2 = 3A − 2I� entonces los posibles valores propios de A son λ1 = 1, λ2 = 2. En los ejercicios 7 al 15 demuestre la afirmación correspondiente. 7. Si λ es un valor propio de A, entonces λn es un valor propio de An� n = 1� 2� 3� . . .. 8. Si x es un vector propio de A, entonces x es un vector propio de An� n = 1� 2� 3� . . .. 9. λ = 0 es un valor propio de una matriz A sii |A| = 0. 10. Si A es una matriz invertible y λ es un valor propio de A, entonces λ−1 es un valor propio de A−1. 11. Si A y C son matrices cuadradas de orden n y si C es invertible entonces las matrices A� AT � C−1AC, CAC−1� C−1ATC y CATC−1 tienen el mismo polinomio característico. 12. Si T es una matriz triangular superior, entonces los valores propios de T son los elementos de la diagonal principal de T. 13. Si A y B son matrices cuadradas del mismo orden, entonces AB y BA tienen los mismos valores propios (sugerencia: Analice los casos λ = 0 es un valor propio de AB y λ�= 0 es un valor propio de AB). 14. Sean λ1� λ2� . . . � λn los diferentes valores propios de una matriz A y sean β1� β2� . . . � βm son los diferentes valores propios de una matriz B, entonces los diferentes valores propios de una matriz de la forma M = » A C � B – son λ1� λ2� . . . � λn, β1� β2� . . . � βm. 15. Si A es una matriz cuadrada de orden n, entonces pA�λ) = |A − λI| es un polinomio de grado n en la variable λ que tiene la forma: pA�λ) = a0 + a1λ + a2λ2 + · · · + �−1)nλn. (Sugerencia: usar inducción sobre n). 16. Si A es una matriz cuadrada de orden 3, entonces el polinomio característico de A, pA�λ) = |A − λI|, tiene la forma pA�λ) = |A − λI| = −λ3 + Tr�A)λ2 − �m11 + m22 + m33)λ + det�A)� siendo mii (i = 1� 2� 3) los menores principales de la matriz A. (Sugerencia: plantee una matriz general A = �aij)3×3 y use las definiciones correspondientes). 17. Para cada una de las siguientes matrices: encuentre el polinomio característico, los varolres propios y los correspondientes espacios propios asociados. 38
  • 9. Diagonalización de matrices 3.2. Diagonalización �i) M = » 1 2 2 1 – �ii) M = » 1 0 2 2 – �iii) M = » 1 1 0 1 – �iv) M = » 0 2 −2 0 – �v) M = 2 4 1 −3 3 3 −5 3 6 −6 4 3 5 �vi) M = 2 4 −3 1 −1 −7 5 −1 −6 6 −2 3 5 �vii) M = 2 4 3 1 −1 1 3 −1 3 1 −1 3 5 �viii) M = 2 4 2 1 0 0 1 −1 0 2 4 3 5 �ix) M = 2 664 2 4 0 0 5 3 0 0 0 0 1 2 0 0 2 −2 3 775 �x) M = 2 664 0 2 0 0 2 1 0 0 0 0 1 1 0 0 −2 4 3 775 3.2. Diagonalización En esta sección se responderan las preguntas siguientes: Dado un espacio vectorial U y dada una transfor-mación lineal T : U → U ¿Existe una base � de U tal que [T] �� es una matriz diagonal? y si existe ¿cómo encontrar una tal base? Como se estableció en el teorema 1.48(2), si T : U → U es una transformación lineal, �1 y �2 son bases ordenadas de U� A = [T] ���� y P = [I] �2�� , entonces D = [T] �2�2 = P−1AP� esto es, las matrices A y D son semejantes. Esta consideración permite formular las preguntas anteriores en términos de matrices, así: Dada una matriz cuadrada A, ¿Existe una matriz diagonal D semejante a la matriz?, en otros términos, ¿existirá una matriz invertible P tal que P−1AP = D sea una matriz diagonal? y si existe ¿cómo encontrar una tal matriz P ? 3.18. Definición. Sea A una matriz cuadrada. Se dice que A es diagonalizable si A es semejante a una matriz diagonal. 3.19. Teorema. Sea A una matriz cuadrada de orden n. Si existen n vectores propios de A linealmente independientes, entonces A es diagonalizable; esto es, existe una matriz invertible P tal que P−1AP = D es una matriz diagonal. Además, los vectores columna de P son los vectores propios de A y los elementos de la diagonal de D son los correspondientes valores propios de A. Demostración� Sean λ1� λ2� . . . �λn� los n valores propios de A� los cuales no son necesariamente diferentes y sean x1� x2� . . . � xn, vectores propios de A linealmente independientes, correspondientes respec-tivamente a cada uno de dichos valores propios. Sea ahora P la matriz cuya j−ésima columna es el vector propio xj � j = 1� 2� . . . � n, la cual particionamos como sigue: P = ˆ x1 x2 · · · xn ˜ . Puesto que las columnas de P son linealmente independientes, entonces P es invertible (teorema 1.56). 39
  • 10. 3.2. Diagonalización Diagonalización de matrices Ahora, AP = A ˆ x1 x2 · · · xn ˜ = ˆ Ax1 Ax2 · · · Axn ˜ = ˆ λ1x1 λ2x2 · · · λnxn ˜ = ˆ x1 x2 · · · xn ˜ 2 6664 λ1 0 · · · 0 0 λ2 · · · 0 ... ... . . . ... 0 0 · · · λ3 3 7775 = PD Donde D es la matriz diagonal indicada arriba. Por lo tanto, P−1AP = D� y el teorema queda demostrado. � El recí proco de este resultado también es válido y está dado por el siguiente teorema. La demostración se deja como ejercicio. 3.20. Teorema. Sea A una matriz cuadrada de orden n. Si A es diagonalizable, es decir, si existe una matriz invertible P tal que P−1AP = D es una matriz diagonal, entonces existen n vectores propios de A linealmente independientes. Además, los vectores columna de P son vectores propios de A y los elementos de la diagonal de D son los correspondientes valores propios de A. 3.21. Ejemplo. Verifique que la matriz A = 2 4 4 −1 2 −6 5 −6 −6 3 −4 3 5 es diagonalizable y encuentre una matriz invertible P tal que P−1AP = D sea una matriz diagonal. Para tal fin, veamos que A tiene 3 vectores propios linealmente independientes. En efecto: El polinomio característico de A� está dado por pA�λ) = |A − λI| = ˛˛˛˛˛˛ 4 − λ −1 2 −6 5 − λ −6 −6 3 −4 − λ ˛˛˛˛˛˛ = −�λ − 2)2�λ − 1). La ecuación característica de A� pA�λ) = |A − λI| = 0 tiene entonces como solución a λ = 2 (de multiplici-dad 2) y a λ = 1 (de multiplicidad 1). Estos escalares son pues, los valores propios de A. El paso siguiente es determinar los vectores propios asociados: Los 2-vectores propios de A son las soluciones no nulas del sistema de ecuaciones �A − 2I)x = 0� y los 1-vectores propios de A son las soluciones no nulas del sistema de ecuaciones �A − 1I)x = 0. Es decir, se debe resolver sistemas homogéneos de ecuaciones cuyas matrices de coeficientes son respectivamente: A − 2I = 2 4 2 −1 2 −6 3 −6 −6 3 −6 3 5 y A − 1I = 2 4 3 −1 2 −6 4 −6 −6 3 −5 3 5 . Es fácil verificar que las soluciones del sistema homogéneo �A − 2I)x = 0 son los vectores de la forma x = 2 4 x1 x2 x3 3 5 = 2 4 1 2x2 − x3 x2 x3 3 5 = 1 2 x2 2 4 1 2 0 3 5 + x3 2 4 −1 0 1 3 5 � x2� x3 ∈ R� 40
  • 11. Diagonalización de matrices 3.2. Diagonalización en consecuencia, Uλ� = U2 = 8< 2 4 : 1 2 0 3 5 � 2 4 −1 0 1 3 5 9= ; es una base para S�λ1) = S�2). De otra parte, se encuentra que las soluciones del sistema �A − 1I)x = 0 son los vectores de la forma x = 2 4 x1 x2 x3 3 5 = 2 4 −1 3x3 x3 x3 3 5 = 1 3 x3 2 4 −1 3 3 3 5 � x3 ∈ R. En consecuencia, Uλ2 = U1 = 8< 2 4 −1 : 3 3 3 5 9= ; es una base para S�λ2) = S�1). Ahora, los vectores x1 = 2 4 1 2 0 3 5 � x2 = 2 4 −1 0 1 3 5 y x3 = 2 4 −1 3 3 3 5 son vectores propios de A correspondientes a los valores propios 2� 2 y 1, respectivamente, y son linealmente independientes como se comprueba fácilmente. De acuerdo con el teorema 3.19, la matriz A es diagonalizable. Por otro lado, según la demostración del teorema, la matriz P = ˆ x1 x2 x3 ˜ = 2 4 1 −1 −1 2 0 3 0 1 3 3 5 es invertible y es tal que: P−1AP = D = 2 4 2 0 0 0 2 0 0 0 1 3 5 . 3.22. Ejemplo. La matriz del ejemplo 3.11, A = 2 4 1 1 −1 −1 3 −1 −1 2 0 3 5 no es diagonalizable, pues vimos en dicho ejemplo, que la matriz A tiene dos valores propios: λ1 = 1 y λ2 = 2, y que U1 = 8< 2 4 : 1 1 1 3 5 9= ; y U2 = 8< 2 4 : 0 1 1 3 5 9= ; son bases para los espacios propios asociados, respectivamente. Así que A sólo tiene dos vectores propios linealmente independientes. 3.23. Teorema. Si λ1� λ2� . . . � λk son los valores propios diferentes de una matriz A y si x1� x2� . . . � xk son vectores propios de A correspondientes a los valores propios λ1� λ2� . . . � λk, respectivamente, entonces C = {x1� � x2� . . . � xk} es un conjunto linealmente independiente. 41
  • 12. 3.2. Diagonalización Diagonalización de matrices Demostración� La demostración se hará utilizando inducción sobre el número k de vectores del con-junto C. Si C = {x1}, entonces C es linealmente independiente, pues x1�= 0. El teorema es cierto para cuando k = 2. En efecto: Si (3.1) α1x1 + α2x2 = 0� premultiplicando (3.1) por el escalar λ2 se obtiene: (3.2) λ2α1x1 + λ2α2x2 = 0. De otra parte; premultiplicando (3.1) por la matriz A se llega a: (3.3) λ1α1x1 + λ2α2x2 = 0. Restando (3.3) de (3.2) se obtiene: �λ2 − λ1)α1x1 = 0. Puesto que x1�= 0� entonces �λ2−λ1)α1 = 0. Dado que λ1�= λ2 se tiene entonces que α1 = 0. Reemplazan-do este valor de α1 en (3.1) se llega a que α2x2 = 0� pero x2�= 0� entonces α2 = 0. Suponga ahora que el teorema es cierto para cuando k = j y verifique que el teorema es cierto para cuando k = j+1. Si (3.4) α1x1 + α2x2 + . . . + αjxj + αj+1xj+1 = 0� premultiplicando (3.4) por el escalar λj+1 se obtiene: (3.5) λj+1α1x1 + λj+1α2x2 + . . . + λj+1αjxj + λj+1αj+1xj+1 = 0� De otra parte; premultiplicando (3.4) por la matriz A se llega a: (3.6) λ1α1x1 + λ2α2x2 + . . . + λjαjxj + λj+1αj+1xj+1 = 0. Restando (3.6) de (3.5) se obtiene: �λj+1 − λ1)α1x1 + �λj+1 − λ2)α2x2 + . . . + �λj+1 − λj)αjxj = 0. Por hipótesis de inducción se tiene �λj+1 − λ1)α1 = �λj+1 − λ2)α2 = . . . = �λj+1 − λj)αj = 0 . De otro lado, por hipótesis del teorema los escalares λ1� . . . � λj � λj+1 son diferentes, entonces se obtiene que α1 = α2 = . . . = αj = 0. Reemplazando estos valores en 3.4 se llega a que αj+1xj+1 = 0� pero xj+1�= 0� entonces αj+1 = 0. El teorema queda entonces demostrado. � La prueba del siguiente corolario es consecuencia inmediata de los teoremas 3.23 y 3.19. 3.24. Corolario. Sea A una matriz cuadrada de orden n. Si A posee n valores propios distintos, entonces A es diagonalizable. 3.25. Ejemplo. La matriz A = 2 4 1 2 3 0 4 5 0 0 6 3 5 3×3 es diagonalizable. En efecto, la ecuación característica de A es: pA�λ) = |A − λI| = �−1)3�λ − 1)�λ − 4)�λ − 6) = 0. De esto se sigue que A tiene tres valores propios distintos, a saber: λ1 = 1� λ2 = 4 y λ3 = 6. 42
  • 13. Diagonalización de matrices 3.2. Diagonalización De acuerdo con los teoremas 3.19 y 3.20, dada la matriz cuadrada A de orden n; existe una matriz invertible P tal que P−1AP = D es una matriz diagonal sii A tiene n vectores propios linealmente independientes. Además, si existe una tal matriz P, los vectores columna de P son vectores propios de A y los elementos de la diagonal de D son los valores propios de A. Quedan así contestadas las preguntas propuestas al comienzo de esta sección sobre la diagonalización de matrices. El siguiente teorema responde a las preguntas sobre diagonalización pero formuladas en el contexto de las transformaciones lineales. 3.26. Teorema. Sea U un espacio de dimensión n y sea T : U → U una transformación lineal. Existe una base ordenada �2 de U tal que [T] �2�2 = D es una matriz diagonal sii T tiene n vectores propios linealmente independientes. Además, si �2 = {u1� u2� . . . � un} es una base ordenada de U tal que [T] �2�2 = D = 2 6664 λ1 0 · · · 0 0 λ2 · · · 0 ... ... . . . ... 0 0 · · · λn 3 7775 es una matriz diagonal, entonces ui es un λi-vector propio de T, o sea T�ui) = λiui� i = 1� 2� . . . � n. Demostración� Puesto que las matrices asociadas a transformaciones lineales y referidas a bases arbitrarias son semejantes, y puesto que el polinomio característico de matrices semejantes es el mismo (ver teorema 3.14), se puede considerar una base arbitraria �1 para U. Sea pues A = [T] ���� � la matriz de la transformación T referida a dicha base �1, Existe una base ordenada �2 de U tal que D = [T] �2�2 = [I]−1 �2�� A[I] �2�� es una matriz diagonal sii A es semejante a una matriz diagonal. Ahora por los teoremas 3.19 y 3.20; A es semejante a una matriz diagonal si y sólo si A tiene n vectores propios linealmente independientes, lo cual equivale a que T tenga n vectores propios linealmente independientes (ver el apartado 1.2.2) Además, si �2 = {u1� u2� . . . � un} es una base ordenada de U tal que [T] �2�2 = D = 2 6664 λ1 0 · · · 0 0 λ1 · · · 0 ... ... . . . ... 0 0 · · · λ1 3 7775 es una matriz diagonal, entonces, de acuerdo con la definición de la matriz [T] �2�2 � T�ui) = λiui ; o sea, ui es un λi-vector propio de T, i = 1� 2� . . . � n. � 3.27. Ejemplo. Considere la transformación lineal T : P3 → P3 definida por: T ˆ a + bx + cx2˜ = �4a − b + 2c) + �−6a + 5b − 6c)x + �−6a + 3b − 4c)x2. Encuentre una base ordenada �2 de U = P2 tal que [T] �2�2 = D es una matriz diagonal. Sea �1 = {1� x� x²} la llamada base canónica de P2 entonces: A = [T] ���� = 2 4 4 −1 2 −6 5 −6 −6 3 −4 3 5 � que es la matriz del ejemplo 3.21. De dicho ejemplo se sabe que x1 = 2 4 1 2 0 3 5 � x2 = 2 4 −1 0 1 3 5 y x3 = 2 4 −1 3 3 3 5 � 43
  • 14. 3.2. Diagonalización Diagonalización de matrices son vectores propios linealmente independientes de A, correspondientes respectivamente a los valores propios 2� 2 y 1. Tales vectores x1� x2 y x3 son los correspondientes vectores de coordenadas, respecto a la base �1, de los vectores u1� u2 y u3 de P2 para u1 = 1 + 2x; u2 = −1 + x2 y u3 = −1 + 3x + 3x2. Ahora, los valores propios de T son los valores propios de A (ver teorema 3.7), esto es, los diferentes valores propios de T son λ1 = 2 y λ2 = 1. De otro lado, por lo establecido en el apartado 1.2.2, u1� u2 y u3 son vectores propios de T linealmente independientes, correspondientes a los valores propios 2� 2 y 1, respectivamente. En consecuencia, de acuerdo con el teorema anterior, �2 = {u1� u2� u3} es una base para P2 tal que: [T] �2�2 = D = 2 4 2 0 0 0 2 0 0 0 1 3 5 . Como se ha visto, dada una matriz cuadrada A de orden n� existe una matriz invertible P tal que P−1AP = D es una matriz diagonal sii existen n vectores propios de A linealmente independientes. En el caso en que A no posea n vectores propios linealmente independientes, es posible, bajo cierta condición, que A sea semejante a una matriz triangular superior T; es decir, que A sea semejante a una matriz T = [tij ]n×n para la cual tij = 0 si i > j. El siguiente teorema explicita esta afirmación. 3.28. Teorema. Sea A una matriz cuadrada (real) de orden n. Todas las soluciones de la ecuación car-acterística de A son reales sii existe una matriz invertible P (real) tal que P−1AP = T es una matriz triangular superior. Además, si existe una tal matriz P, entonces los elementos de la diagonal de T son los valores propios de A. Demostración� �=⇒) La demostración en este sentido se hará, utilizando inducción sobre el orden n de la matriz A. Para cuando n = 2� la implicación es verdadera. En efecto, de la hipótesis se sigue que A tiene dos valores propios (reales) los cuales no son necesariamente distintos. Sea λ1 un valor propio de A. Existe por lo tanto un vector 2 × 1� x1�= 0 tal que Ax1 = λ1x1. Por el teorema1.21(3), existe un vector 2 × 1� x2�= 0 tal que � = {x1� x2} es una base para �2×1. Ahora, la matriz P = [ x1 x2 ] es invertible; escribamos a P−1 particionada por filas así: P−1 = » y1 y2 – � y1� y2 ∈ �1×2 � entonces se tiene que P−1AP = » y1 y2 – A ˆ x1 x2 ˜ = » λ y1Ax2 0 y2Ax2 – = T es una matriz triangular superior. Supongamos ahora que la implicación es verdadera para cuando n = j − 1 y demostremos que ésta es verdadera cuando n = j� j ≥ 3. Sea A una matriz cuadrada de orden j para la cual todas las soluciones de su ecuación característica son reales. De ésto se sigue que A tiene j valores propios (reales) los cuales no son necesariamente distintos. Sea λ1 un valor propio de A. Existe por lo tanto un vector j × 1� x1�= 0 tal que Ax1 = λ1x1. Por el teorema 1.21(3), existen j − 1 vectores x2� x3� . . . � xj de �j×1 tales que � = {x1� x2� x3� . . . � xj} es una base para �j×1. Ahora por el teorema 1.56, la matriz P1 = ˆ x1 x2 · · · xj ˜ = ˆ x1 M ˜ es invertible. Escribamos la inversa P−1 así: P−1 1 = » y1 N – � y1 ∈ �1×j � y N ∈ ��j−1)×j . 44
  • 15. Diagonalización de matrices 3.2. Diagonalización Entonces se tiene P−1 1 AP1 = » y1 N – A ˆ x1 M ˜ = » λ1 y1AM 0 NAM – = » λ1 B 0 C – = T1 es una matriz triangular superior por bloques. Ahora, las matrices A y T1 tienen el mismo polinomio característico (teorema 3.14): pA�λ) = p�� �λ) = �λ1 − λ) |C − λI| . De ésto se sigue, que todas las soluciones de la ecuación característica de la matriz cuadrada de orden j−1, C, son reales. Por hipótesis de inducción, existe una matriz invertible Q tal que Q−1CQ = T2 es una matriz triangular superior. Sea ahora: P2 = » 1 � � Q – � entonces se tiene que la matriz invertible P = P1P2 es tal que P−1AP = P−1 2 P−1 1 AP1P2 = » 1 � � Q−1 – » λ1 B � C – » 1 � � Q – = » λ1 BQ � Q−1CQ – = » λ1 BQ � T2 – = T es una matriz triangular superior. La demostración de la otra implicación y de la segunda afirmación del teorema quedan como ejercicio para el lector. � 3.29. Ejemplo. Todas las soluciones de la ecuación característica de la matriz del ejemplo 3.22 A = 2 4 1 1 −1 −1 3 −1 −1 2 0 3 5 3×3 son reales, pues: pA�λ) = −�λ − 1)2�λ − 2) = 0 sii λ1 = 1 ó λ2 = 2 . De otro lado, como lo establecimos en el ejemplo 3.22, la matriz A no es diagonalizable, pues A sólo posee dos vectores propios linealmente independientes. En particular: x1 = 2 4 1 1 1 3 5 y x2 = 2 4 0 1 1 3 5 son vectores propios linealmente independientes correspondientes a los valores propios λ1 = 1 y λ2 = 2, respectivamente. Por el teorema anterior, existe una matriz invertible P tal que P−1AP = T es una matriz triangular superior. Para encontrar una tal matriz P, basta proporcionar un vector x3 tal que � = {x1� x2� x3} sea una base para �3×1; el vector x3 = 2 4 0 2 3 3 5 sirve para tal efecto. Ahora bien, la matriz P = ˆ x1 x2 x3 ˜ = 2 4 1 0 0 1 1 2 1 1 3 3 5 45
  • 16. 3.2. Diagonalización Diagonalización de matrices es invertible y es tal que P−1AP = T = 2 4 1 0 −1 0 2 2 0 0 1 3 5 es una matriz triangular superior. De acuerdo con el teorema anterior, si A es una matriz cuadrada (real) cuyos valores propios no son todos reales entonces, no puede existir una matriz invertible P (real) tal que P−1AP = T sea una matriz triangular superior. Ahora bien, como se ha mencionado se pueden estudiar espacios vectoriales donde los escalares sean números complejos (ver piés de página de la página 34) y se pueden obtener resultados más generales. En particular, se tiene que para toda matriz cuadrada A (real o compleja) existe una matriz invertible P (real o compleja) tal que P−1AP = T sea una matriz triangular superior. Este resultado se tiene, gracias a la propiedad importante del sistema de los números complejos que establece, que todo polinomio de grado n con coeficientes reales o complejos tiene exactamente n raíces reales o complejas, contadas sus multiplicidades. En el teorema siguiente se establece este resultado sin demostración. Quien desee estudiar sobre éste, puede consultar las secciones 5.5 y 5.6 de [1]. 3.30. Teorema. Para toda matriz cuadrada A (real o compleja) existe una matriz invertible P (real o compleja) tal que P−1AP = T es una matriz triangular superior. Además, los elementos de la diagonal de T son las soluciones de la ecuación característica de A. 3.31. Ejemplo. Considere la matriz (real) A = 2 4 1 0 0 0 0 1 0 −1 0 3 5 . La ecuación característica de A es pA�λ) = |A − λI| = −�λ − 1)�λ2 + 1) = −�λ − 1)�λ − i)�λ + i) = 0 . De esto se sigue que A sólo tiene un valor propio real, a saber, λ1 = 1. En este caso no es posible que exista una matriz invertible P (real) tal que P−1AP = T sea una ma-triz triangular superior. Sin embargo, en el contexto de los espacios vectoriales donde los escalares son números complejos, se puede decir, que A tiene tres valores propios complejos λ1 = 1� λ2 = i y λ3 = −i . Efectuando, en este contexto, los cálculos pertinentes, se encuentra que x1 = 2 4 1 0 0 3 5 � x2 = 2 4 0 −i 1 3 5 y x3 = 2 4 0 i 1 3 5 son tres vectores propios complejos de A linealmente independientes correspondientes a los valores propios complejos λ1 = 1� λ2 = i y λ3 = −i respectivamente. Así que la matriz compleja: P = ˆ x1 x2 x3 ˜ = 2 4 1 0 0 0 −i i 0 1 1 3 5 46
  • 17. Diagonalización de matrices 3.2. Diagonalización es invertible y es tal que P−1AP = 2 4 1 0 0 0 i/2 i/2 0 −i/2 i/2 3 5 2 4 1 0 0 0 0 1 0 −1 0 3 5 2 4 1 0 0 0 −i i 0 1 1 3 5 = 2 4 1 0 0 0 i 0 0 0 −i 3 5 = D es una matriz diagonal, y por lo tanto, es una matriz triangular superior. 3�2 Ejercicios En los ejercicios 1 al 1 responda verdadero o falso, justificando su respuesta: 1. Si una matriz cuadrada A es diagonalizable, entonces existen infinitas matrices invertibles P tales que P−1AP = D es una matriz diagonal. 2. Si A es una matriz 3×3con valores propios λ1 = −1� λ2 = 2 y λ3 = 3 entonces A es diagonalizable, detA = −6 y Tr�A) = 4. 3. Si A es una matriz invertible y λ es un valor propio de A entonces λ�= 0 y �1/λ)es un valor propio de A−1. En los ejercicios 4 al 7 demuestre la afirmación correspondiente 4. Sea A ∈ �n×n tal que pA�λ) = �−1)n�λ − λ1)�λ − λ2) · · · �λ − λn), Demuestre que: (i) |A| = λ1λ2 · · · λn y (ii) TrA = λ1 + λ2 + · · · + λn. 5. Sea A una matriz cuadrada n × n tal que |aii| > Xn j�=i�j=1 |aij |� para todo i = 1� 2� . . . n, entonces A es invertible. (Sugerencia: suponga que existe un vector x = [ x1 x2 · · · xn ]T�= 0 tal que Ax = 0 y que |xi| = m´ax{|x1|� |x2|� . . . |xn|}. Despeje aiixi en la i-ésima ecuación del sistema Ax = 0, tome valor absoluto y llegue a una contradicción). 6. Sean A ∈ �n×n; B ∈ �m×m; C ∈ �n×m y M = » A C � B – . a) Describa el conjunto de valores propios de M en términos de los valores propios de A y de B. (Sugerencia: calcule pA�λ) = det�M − λI)). b) Demuestre que si x1 es un λ-vector propio de A entonces x = » x1 � – es un λ-vector propio de M. 7. Si A es una matriz n × n tal que A2 = mA� entonces TrA = mρ�A). (Sug.: considere (i) ρ�A) = 0� (ii) ρ�A) = n y (ii) 0 < ρ�A) < n, use el teorema 3.28) 8. Considere cada una de las matrices M del problema 17 de la sección de ejercicios 3.1. Encuentre, si es posible, una matriz invertible P tal que P−1MP sea una matriz diagonal 9. Sea T : P2 → P2 la transformación lineal definida por T[a + bx + cx2] = �a − b + 4c) + �3a + 2b − c)x + �2a + b − c)x2. a) Calcule los valores propios y los vectores propios. b) Dé, si existe, una base ordenada C de P2 tal que [T]CC sea una matriz diagonal. 47
  • 18. 3.3. Matrices simétricas Diagonalización de matrices 3.3. Diagonalización de matrices simétricas En esta sección se limitará el estudio de los conceptos de valor propio, vector propio y diagonalización a matrices simétricas. Dos resultados importantes que se verán en esta sección son los siguientes: (i) Todas las soluciones de la ecuación característica de toda matriz simétrica (real) son reales, y (ii) Toda matriz simétrica (real) es diagonalizable, y más aún, diagonalizable en una forma especial. Como se verá en el capítulo 4, los valores propios de una matriz simétrica se utilizan como criterio para decidir cuándo una forma cuadrática es positivamente (negativamente) definida (semidefinida) o indefinida. Como se estableció al final de la sección anterior, uno puede estudiar espacios vectoriales donde los es-calares son números complejos. únicamente en la demostración del teorema 3.32, se utilizarán los hechos siguientes que involucran números complejos. 1. El conjugado del número complejo z = a + bi� a� b ∈ R, se denota por z y se define así: z = a − bi. 2. Un número complejo z es real sii z = z. 3. La matriz conjugada de la matriz compleja n × n, A, se de nota por A y cuyos componentes son �Aij� = �A�ij � i� j = 1� 2� . . . � n. 4. Para todo vector complejo n × 1� x, se tiene: x T x = xT x y x T x = 0 sii x = 0. 5. Para toda matriz cuadrada A con componentes complejas; |A| = 0 sii existe un vector x�= 0� con componentes complejas, tal que Ax = 0. 3.32. Teorema. Sea A una matriz (real) cuadrada de orden n. Si A es una matriz simétrica, entonces todas las soluciones de la ecuación característica de A: pA�λ) = |A − λI| = 0� son reales. Esto es, A tiene n valores propios (reales) los cuales no son necesariamente diferentes. Demostración� Si pA�λ) = |A − λI| = 0� entonces por (5), existe un vector x�= 0 tal que: (3.1) Ax = λx de esto se sigue que, (ver (3) y (2)): (3.2) Ax = λx . Ahora, premultiplicando (3.1) por x T y (3.2) por xT se tiene (3.3) x TAx = λx T x y xTAx = λxT x � puesto que x TAx = �x TAx)T = xTAT x = xTAx� de (3.3) se sigue que: (3.4) λx T x = λxT x . De (4) se tiene que x T x = xT x� por lo tanto, de (3.4) se concluye que : �λ − λ)x T x = 0. Ya que x�= 0, de (4) se tiene que �λ − λ) = 0 o sea, λ = λ. en consecuencia, por (2), λ es un número real. � En lo que resta de estas notas, no se hará más referencia al sistema de números complejos. El teorema 3.23 establece que, para cada matriz cuadrada A, los vectores propios correspondientes a valores propios diferentes son linealmente independientes. Para matrices simétricas se tiene un resultado más fuerte. Este resultado se establece en el teorema siguiente. 48
  • 19. Diagonalización de matrices 3.3. Matrices simétricas 3.33. Teorema. Si λ1� λ2� . . . � λk son los valores propios diferentes de una matriz simétrica A y si x1� x2� . . . � xk son vectores propios de A correspondientes a los valores propios λ1� λ2� . . . � λk, respectivamente, entonces el conjunto de vectores C = {x1� x2� . . . � xk} es ortogonal. Demostración� Se debe demostrar que �xi; xj� = xTi xj = 0 si i�= j� para i� j = 1� 2� . . . k Ti Tj Por la hipótesis se tiene que: (3.5) Axi = λixi � y (3.6) Axj = λjxj . Ahora, premultiplicando (3.5) por xy a (3.6) por x� se obtiene (3.7) xT j Axi = λixT j xi y xT i Axj = λjxT i xj � puesto que xTj Axi = �xTj Axi)T = xTi AT xj = xTi Axj � de (3.7) se sigue que: (3.8) λxT j xi = λjxT i xj . Ya que xTj xi = xTi xj de (3.8) se concluye que: �λi − λj)xT i xj = 0. Ahora bien, los valores propios son distintos, entonces xTi xj = 0, si i�= j� i� j = 1� 2� . . . k. � 3.34. Definición. Se dice que una matriz cuadrada P es ortogonal, si P es invertible y P−1 = PT . 3.35. Ejemplo. La matriz P = 1 3 2 4 1 −2 2 2 2 1 2 −1 −2 3 5 es ortogonal, pues: PPT = P = 1 3 2 4 1 −2 2 2 2 1 2 −1 −2 3 5 1 3 2 4 1 2 2 −2 2 −1 2 1 −2 3 5 = 2 4 1 0 0 0 1 0 0 0 1 3 5 = I. 3.36. Proposición. Una matriz P = ˆ x1 x2 · · · xn ˜ es ortogonal sii el conjunto � = {x1� x2� . . . � xn} constituye una base ortonormal de �n×1. Demostración� La matriz P = ˆ x1 x2 · · · xn ˜ es ortogonal sii PTP = I. Ahora bien, PTP = 2 66666664 xT1 xT2 ... xT n 3 77777775 [x1 x2 · · · xn] = 2 66666664 xT1 x1 xT1 x2 · · · xT1 xn xT2 x1 xT2 x2 · · · xT2 xn ...... . . . ... xT nx1 xT nx2 · · · xT nxn 3 77777775 Es fácil entonces observar, que PTP = I si y sólo si se cumple que: xT i xj = ( 1 si i�= j 0 si i = j ; i� j = 1� 2� . . . � n � lo cual equivale a que � = {x1� x2� . . . � xn} es una base ortonormal de �n×1 (ver sección 1.2.3). � 49
  • 20. 3.3. Matrices simétricas Diagonalización de matrices 3.37. Teorema. Si λ∗ es un valor propio de una matriz simétrica, entonces las multiplicidades algebraica y geométrica de λ∗ son iguales. Demostración� Sea A una matriz simétrica de orden n y sea λ∗ un valor propio de A. Supongamos que la multiplicidad geométrica de λ∗ es r. Por el teorema 1.33, existe una base ortonormal � = {x1� x2� . . . � xr} del espacio de vectores propios asociados a λ∗� S�λ∗). Si r = n� la matriz P = [ x1 x2 · · · xn] es ortogonal (proposición 3.36), y de acuerdo con el teorema 3.19, PTAP = P−1AP = D = λ∗I . Ahora, las matrices A y D tienen igual polinomio característico: pA�λ) = pD�λ) = |λ∗I − λI| = �λ∗ − λ)n. De esto se sigue que λ∗ es un valor propio de A con multiplicidad algebraica r = n. De otra parte, si r < n, existen n−r vectores y1� y2� . . . � yn−r de�n×1 tales que � = {x1� . . . � xr� y1� . . . � yn−r} es una base ortonormal de �n×1 (teorema 1.34). Por la proposición 3.36, la matriz P = ˆ x1 x2 · · · xr y1 y2 · · · yn−r ˜ = ˆ X Y ˜ es ortogonal. Considere ahora la matriz T = PTAP = P−1AP� es decir, la matriz: T = » XT Y T – A ˆ X Y ˜ = » λ∗I XTAY � Y TAY – = » λ∗I B � C – . Puesto que A es simétrica, TT = �PTAP)T = PTATP = PTAP = T� o sea » λ∗I B � C – = » λ∗I � B CT – � por lo tanto B = � y T = » λ∗I � � C – . Puesto que las matrices A y T son semejantes, entonces tienen el mismo polinomio característico: pA�λ) = pT �λ) = |T − λI| = �λ∗ − λ)r |C − λI| . De esto se sigue, que λ∗ es un valor propio de A con multiplicidad algebraica k ≥ r. Veamos que k = r. Si k > r� entonces se debe tener que |C − λ∗I| = 0� y por lo tanto existe un vector �n − r) × 1� w�= 0 tal que Cw = λ∗w. 50
  • 21. Diagonalización de matrices 3.3. Matrices simétricas Considere ahora el vector no nulo u ∈ �n×1 dado por u = P » � w – . Es decir, u = P » � w – = [x1 x2 · · · xr y1 y2 · · · yn−r] 2 66666666666664 0 0 ... 0 w1 w2 ... wn−r 3 77777777777775 = w1y1 + w2y2 + · · ·wn−ryn−r . Esto es, el vector u ∈ �y1� y2� . . . � yn−r� y u /∈ �x1� x2� . . . � xr� De otro lado, el vector u, es un λ∗-vector propio de A. En efecto, Au = P » λ∗I � � C – PTP » � w – = P » λ∗I � � C – » � w – = P » � Cw – = P » � λ∗w – = λ∗P » � w – = λ∗u . Esto indica, que B = {x1� x2� . . . � xr� ur+1} es un conjunto de r + 1 vectores propios linealmente indepen-dientes correspondientes al valor propio λ∗, lo cual contradice el hecho de que la multiplicidad geométrica de λ∗ sea r. � 3.38. Teorema. Si A es una matriz simétrica de orden n� entonces A tiene n vectores propios ortogonales, y por tanto, linealmente independientes. Demostración� Sean λ1� λ2� . . . � λk los diferentes valores propios de A. Supongamos que la multipli-cidad algebraica de λi es mi� mi = 1� 2� . . . � k; esto es, supongamos que pA�λ) = �−1)n�λ − λ1)m� �λ − λ2)m2 · · · �λ − λk)mk � donde m1 + m2 + · · · + mk = n. Por el teorema anterior, la multiplicidad geométrica de λi es mi, i = 1� . . . � k. Sean ahora: U1 = {x11 � . . . � x1 m�}� · · · �Uk = {xk 1 � . . . � xk mk} bases ortogonales de S�λ1)� · · · � S�λk) respectivamente. Entonces por el teorema 3.33, el conjunto de n vectores propios de A: U = U1 ∪ U2 ∪ · · · ∪ Uk = {x11 � . . . � x1 m� � x21 � . . . � x2 m2 � . . . � xk 1 � . . . � xk mk} es ortogonal. � La demostración del siguiente corolario es consecuencia inmediata del teorema 3.38 y del teorema 3.19. 3.39. Corolario. Toda matriz simétrica es diagonalizable. 3.40. Definición. Sea A una matriz cuadrada. Se dice que A es ortogonalmente diagonalizable si existe un matriz ortogonal P tal que PTAP = D es una matriz diagonal. 51
  • 22. 3.3. Matrices simétricas Diagonalización de matrices 3.41. Teorema. Si A es una matriz simétrica, entonces A es ortogonalmente diagonalizable; esto es, existe una matriz ortogonal P tal que PTAP = D es una matriz diagonal. Más aún, las columnas de la matriz P son los vectores propios de A y los elementos de la diagonal de D son los valores propios de A. Demostración� Sea A es una matriz simétrica de orden n, entonces A tiene n vectores propios ortonormales x1� x2� . . . � xn (teorema 3.38). Supongamos que éstos corresponden a los valores propios λ1� λ2� . . . � λn� respectivamente. La matriz P = [ x1 x2 · · · xn] es ortogonal (proposición 3.36), y de acuerdo con la demostración del teorema 3.19, se tiene que PTAP = P−1AP = D = 2 6664 λ1 0 · · · 0 0 λ2 · · · 0 ... ... . . . ... 0 0 · · · λn 3 7775 . � El recíproco del teorema 3.41 también es válido y está dado por el siguiente 3.42. Teorema. Si una matriz A es ortogonalmente diagonalizable, entonces A es simétrica. Demostración� Por hipótesis, existe una matriz ortogonal P que diagonaliza a la matriz A� esto es, se tiene que PTAP = D, siendo D una matriz diagonal. De aquí que: A = PDPT = �PDTPT )T = �PDPT )T = AT � o sea, A es una matriz simétrica. � 3.43. Ejemplo. Para la matriz simétrica: A = 2 4 5 2 2 2 2 −4 2 −4 2 3 5 3×3 encontre una matriz ortogonal P tal que PTAP = D sea una matriz diagonal. Para ello se debe encontrar tres vectores propios de A ortonormales. El polinomio característico de A� pA�λ) = |A − λI| está dado por: pA�λ) = |A − λI| = ˛˛˛˛˛˛ 5 − λ 2 2 2 2 − λ −4 2 −4 2 − λ ˛˛˛˛˛˛ = −�λ + 3)�λ − 6)2. Se requiere ahora resolver la ecuación característica de A� pA�λ) = |A − λI| = 0. Pero dado que pA�λ) = −�λ + 3)�λ − 6)2 = 0 sii λ = −3 ó λ = 6 se tiene entonces, que los diferentes valores propios de A son λ1 = −3 y λ2 = 6. Por definición, los �−3)-vectores propios de A son las soluciones no nulas del sistema de ecuaciones lineales �A + 3I) x = 0 y los 6-vectores propios de A son las soluciones no nulas del sistema de ecuaciones lineales �A − 6I)x = 0. Se tiene entonces: A + 3I = 2 4 8 2 2 2 5 −4 2 −4 5 3 5 y A − 6I = 2 4 −1 2 2 2 −4 −4 2 −4 −4 3 5 . 52
  • 23. Diagonalización de matrices 3.3. Matrices simétricas Es fácil verificar, que las soluciones del sistema homogéneo �A + 3I)x = 0 son los vectores de la forma: x = 2 4 x1 x2 x3 3 5 = 2 4 −1 2x3 x3 x3 3 5 = 1 2 x3 2 4 −1 2 2 3 5 ; x3 ∈ R. En consecuencia, bUλ� = bU−3 = 8< 2 4 −1 : 2 2 3 5 9= ; � es una base para S�λ1) = S�−3). Aplicando el proceso de ortogonalización de Gram-Scmidt a esta base (vea el teorema 1.33), se llega a que: bUλ� = bU−3 = 8< : 1 3 2 4 −1 2 2 3 5 9= ; � es una base ortonormal de S�λ1) = S�−3). De otra parte, se encuentra que las soluciones del sistema homogéneo �A − 6I)x = 0 son los vectores de la forma: x = 2 4 x1 x2 x3 3 5 = 2 4 2x2 + 2x3 x2 x3 3 5 = x2 2 4 2 1 0 3 5+x3 2 4 2 0 1 3 5 ; x2� x3 ∈ R. En consecuencia, bUλ2 = bU6 = 8< 2 4 : 2 1 0 3 5 � 2 4 2 0 1 3 5 9= ; � es una base para S�λ2) = S�6). Aplicando el proceso de ortogonalización de Gram-Schmidt a esta base se llega a que: bUλ2 = bU6 = 8< : 1 √5 2 4 2 1 0 3 5 � 1 3√5 2 4 2 −4 5 3 5 9= ; � es una base ortonormal de S�λ2) = S�6). Según la demostración del teorema 3.38, U = bUλ� ∪ bUλ2 = 8< : 1 3 2 4 −1 2 2 3 5 � 1 √5 2 4 2 1 0 3 5 � 1 3√5 2 4 2 −4 5 3 5 9= ; � es un conjunto ortonormal de vectores propios de A. Ahora, según la demostración del teorema 3.41, la matriz, P = 2 6666664 − 1 3 2 √5 2 3√5 2 3 1 √5 − 4 3√5 2 3 0 2 3√5 3 7777775 53
  • 24. 3.3. Matrices simétricas Diagonalización de matrices es ortogonal tal que PTAP = P−1AP = D = 2 4 −3 0 0 0 6 0 0 0 6 3 5 . 3.44. Teorema. Sea A una matriz simétrica de orden n. Supongamos que A que tiene p (0 ≤ p ≤ n) valores propios, no necesariamente diferentes, estrictamente positivos y η (0 ≤ η ≤ n) valores propios, no necesariamente diferentes, estrictamente negativos. Entonces existe una matriz invertible P tal que: PTAP = 2 4 Ip � � � −Iη � � � � 3 5 . Si además existe otra matriz invertible Q tal que QTAQ = 2 4 Ip� � � � −Iη� � � � � 3 5 � entonces p = p� y η = η�. Demostración� Sean λ1� λ2� . . . � λρ los valores propios de A estrictamente positivos (no necesaria-mente distintos) y sean x1� x2� . . . � xp vectores propios ortonormales de A asociados respectivamente a tales valores propios. Sean además β1� β2� . . . � βη los valores propios de A estrictamente negativos (no nece-sariamente distintos) y y1� y2� . . . � yη vectores propios ortonormales de A asociados a dichos valores propios negativos y sean z1� z2� . . . � zγ� γ = n−�p+η), vectores propios ortonormales de A asociados al valor propio nulo (0). Según la demostración del teorema 3.41, la matriz M, cuyas columnas son los correspondientes vectores propios organizados adecuadamente, es ortogonal. Es decir, la matriz M = [ x1 x2 · · · xp y1 y2 · · · yη z1 z2 · · · zγ ] es ortogonal. De otro lado, se tiene que MTAM = D es una matriz diagonal con los valores propios en su diagonal y dispuestos así: MTAM = D = 2 4 Dp � � � Dη � � � � 3 5 donde: Dρ = 2 6664 λ1 0 · · · 0 0 λ2 · · · 0 ... ... . . . ... 0 0 · · · λp 3 7775 y Dη = 2 6664 β1 0 · · · 0 0 β2 · · · 0 ... ... . . . ... 0 0 · · · βη 3 7775 . Sea ahora D∗ la matriz diagonal: D∗ = 2 4 D∗p � � � D∗η � � � Iγ 3 5 donde D∗ρ = 2 666666664 1 √λ1 0 · · · 0 0 1 √λ2 · · · 0 ... ... . . . ... 0 0 · · · 1 p λp 3 777777775 y. 54
  • 25. Diagonalización de matrices 3.3. Matrices simétricas D∗η = 2 666666664 1 √−β1 0 · · · 0 0 1 √−β2 · · · 0 ... ... . . . ... 0 0 · · · 1 p −βη 3 777777775 La matriz D∗ es invertible y es tal que: D∗DD∗ = D∗ TMTAMD∗ = 2 4 D∗pDpD∗p � � � D∗ηDηD∗η � � � Iγ� Iγ 3 5 = 2 4 Ip � � � −Iη � � � � 3 5 . En consecuencia, la matriz invertible P = MD∗ es tal que: PTAP = 2 4 Ip � � � −Iη � � � � 3 5 . Para la unicidad suponga ahora que las matrices invertibles P y Q son tales que: PTAP = 2 4 Ip � � � −Iη � � � � 3 5 y QTAQ = 2 4 Ip� � � � −Iη� � � � � 3 5 . Lo que se quiere probar ahora es que ρ = ρ� y η = η�. Para ello se escribe las matrices P y Q particionadas por columnas así: P = [ x1 x2 · · · xp xp+1 · · · xn ] y Q = [ y1 y2 · · · yp� yp�+1 · · · yn ] Por hipótesis se tiene que: 8>>>>>>>>>>>< xTi >>>>>>>>>>>: Axi = 1 si i = 1� 2 . . . � p xTi Axj = 0 si i�= j� �i� j = 1� 2 . . . � n) i Ayi ≤ 0 si i = p� + 1� p� + 2 . . . � n yT yT i Ayj = 0 si i�= j� �i� j = 1� 2 . . . � n). Ahora, el conjunto de vectores de �n×1: C = {x1� x2� . . . � xp� yp�+1� yp�+2� . . . � yn} es linealmente independiente. En efecto, si λ1x1 + . . . + λpxp + β1yp�+1 + . . . + βn−p�yn = 0 entonces el vector U = λ1x1 + λ2x2 + . . . + λpxp = −β1yp�+1 − β2yp�+2 − . . . − βn−p�yn 55
  • 26. 3.3. Matrices simétricas Diagonalización de matrices es tal que: UTAU = �λ1x1 + . . . + λpxp)TA�λ1x1 + . . . + λpxp) = λ21 + λ22 + . . . + λ2 p ≥ 0 y UTAU = �β1yp�+1 + . . . + βn−p�yn)TA�β1yp�+1 + . . . + βn−p�yn) = β2 p�+1Ayp�+1 + β2 1yT p�+2Ayp�+2 + . . . + β2 2yT n−p�yT nAyn ≤ 0 Por lo tanto UTAU = 0. De esto se sigue que λ1 = λ2 = . . . = λp = 0. En consecuencia, β1yp�+1 + β2yp�+2 + . . . + βn−p�yn = 0 . Puesto que la matriz Q es invertible, los vectores yp�+1� yp�+2� . . . � yn son linealmente independientes, y por lo tanto, β1 = β2 = . . . = βn−p� = 0. Ahora bien, como la dimensión del espacio vectorial �n×1 es n y C es un conjunto linealmente inde-pendiente de p + �n − p�) vectores en �n×1, entonces por el teorema 1.42(2): p + �n − p�) ≤ n � o sea, p ≤ p�. Argumentando en forma similar se demuestra que p� ≤ p� de donde p = p�. De otro lado, de la hipótesis, se tiene que ρ�A) = p + η = p� + η� por lo tanto η = η�. � Nota. En la parte (1) del teorema anterior se tiene que PTAP es igual a: (i) In� si p = n. (ii) −In� si η = n. » (iii) Ip � � � – � si 0 < p < n y η = 0. (iv) » −Iη � � � – � si 0 < η < n y p = 0. (v) » Ip � � −Iη – � si 0 < p < n y 0 < η < n y p + η = n. (vi) 2 4 Ip � � � −Iη � � � � 3 5 � si 0 < p < n y 0 < η < n y p + η < n. (vii) �� sii A = �. 3.45. Ejemplo. Para la matriz simétrica A = 2 4 1 −2 0 −2 0 −2 0 −2 −1 3 5 encuentre una matriz invertible P tal que PTAP sea una matriz diagonal con las características que se establecen en el teorema anterior. 56
  • 27. Diagonalización de matrices 3.3. Matrices simétricas Efectuando los cálculos pertinentes se encuentra que los valores propios de A son: λ1 = 3� λ2 = −3 y λ3 = 0� y que la matriz ortogonal: M = 1 3 2 4 2 1 −2 −2 2 −1 1 2 2 3 5 es tal que MTAM = D = 2 4 3 0 0 0 −3 0 0 0 0 3 5 . Ahora, la matriz diagonal D∗ = 2 6664 1 √3 0 0 0 1 √3 0 0 0 1 3 7775 es invertible y es tal que: D∗DD∗ = D∗TMTAMD� = 2 6664 1 √3 0 0 0 1 √3 0 0 0 1 3 7775 2 66664 3 0 0 0 −3 0 0 0 0 3 77775 2 6664 1 √3 0 0 0 1 √3 0 0 0 1 3 7775 = 2 4 1 0 0 0 −1 0 0 0 0 3 5 � o sea, la matriz invertible P = MD∗ es tal que PTAP = 2 4 I1 0 0 0 −I1 0 0 0 0 3 5 . En relación con la primera parte del teorema 3.44 (ver su demostración) y tal como aparece en el ejemplo anterior, un método para calcular una de tales matrices P consiste en encontrar una matriz ortogonal M que diagonalice a la matriz A� y después postmultiplicar a M por una matriz diagonal conveniente D∗. A continuación damos otro método para calcular, simultáneamente, una de tales matrices P y la matriz PTAP. El método se basa en el hecho de que la matriz P es invertible y por ende se puede expresar como producto de un número finito de matrices elementales (véase teorema 1.9(2)); esto es, P = E1E2 · · ·Ek� donde E1� E2� · · · � Ek� son matrices elementales. Así que una forma de calcular la matriz PTAP = ET k · · ·ET 2 ET 1 AE1E2 · · ·Ek� consiste en efectuar una sucesión de operaciones elementales en las filas de A y la �misma� sucesión de operaciones elementales en las columnas de A (véase teorema 1.6), hasta lograr lo deseado. Esta misma sucesión de operaciones elementales en las filas de la matriz identidad I da PT . El siguiente ejemplo ilustra el método para encontrar una tal matriz P. 3.46. Ejemplo. Para la matriz simétrica A = 2 4 1 2 −3 2 5 −4 −3 −4 9 3 5 57
  • 28. 3.3. Matrices simétricas Diagonalización de matrices encontre una matriz invertible P tal que PTAP sea una matriz diagonal con las características que se establecen en el teorema 3.44. Se forma entonces la matriz [ A | I ] = 2 4 1 2 −3 1 0 0 2 5 −4 0 1 0 −3 −4 9 0 0 1 3 5 . Se efectua entonces, en las filas de la matriz ˆ A | I ˜ , las operaciones elementales; ET 1 ; multiplicar los elementos de la primera fila por α = −2 y sumar los resultados con los correspondientes elementos de la segunda fila, ET 2 ; multiplicar los elementos de la primera fila por α = 3 y sumar los resultados con los correspondientes elementos de la tercera fila. Así se obtiene la matriz [ ET 2 ET 1 A | ET 2 ET 1 I ] = [ A1 | B1 ] � luego se efectuan las �mismas� operaciones elementales en las columnas de la matriz A1� para obtener: [ ET 2 ET 1 A E1E2| ET � 1 | B1 ] . 2 ET 1 I ] = [ A Se tiene: [ A1 | B1 ] = 2 4 1 2 −3 1 0 0 0 1 2 −2 1 0 0 2 0 3 0 1 3 5 y [ A�1 | B1 ] = 2 4 1 0 0 1 0 0 0 1 2 −2 1 0 0 2 0 3 0 1 3 5 . � 1 | B1] , la operación elemental; ET Se efectua ahora, en las filas de la matriz [ A 3 ; multiplicar los elementos de la segunda fila por α = −2 y sumar los resultados con los correspondientes elementos de la tercera fila. Así se obtiene la matriz [ ET 3 ET 2 ET 1 AE1E2 | ET 3 ET 2 ET 1 I ] = [ A2 | B2] � luego se realiza la �misma� operación elemental en las columnas de la matriz A2� para obtener: [ ET 3 ET 2 ET 1 AE1E2E3| ET � 2 | B2] . 3 ET 2 ET 1 I ] = [ A Se tiene entonces: [ A2 | B2 ] = 2 4 1 0 0 1 0 0 0 1 2 −2 1 0 0 0 −4 7 −2 1 3 5 y [ A�2 | B2 ] = 2 4 1 0 0 1 0 0 0 1 0 −2 1 0 0 0 −4 7 −2 1 3 5 . � 2 | B2 ] la operación elemental; ET Finalmente, se efectua en las filas de la matriz [ A 4 ; multiplicar los elementos de la tercera fila por α = 1/2. Así se obtiene la matriz [ ET 4 ET 3 ET 2 ET 1 AE1E2E3 | ET 4 ET 3 ET 2 ET 1 I ] = [ A3 | B3 ] � luego se realiza la �misma� operación elemental en las columnas de la matriz A3� para obtener: [ ET 4 ET 3 ET 2 ET 1 AE1E2E3E4| ET 4 ET 3 ET 2 ET 1 I ] = h � 3 | B3 A i . Se tiene: [ A3 | B3 ] = 2 64 1 0 0 1 0 0 0 1 0 −2 1 0 7 1 0 0 −2 1 2 −2 3 75 58
  • 29. Diagonalización de matrices 3.3. Matrices simétricas y [ A�3 | B3 ] = 2 64 1 0 0 1 0 0 0 1 0 −2 1 0 7 1 0 0 −1 1 2 −2 3 75 . Así que la matriz invertible PT = B3 = ET 4 ET 3 ET 2 ET 1 = 2 64 1 0 0 −2 1 0 7 1 −1 2 2 3 75 es tal que � 3 = PTAP = D = A 2 4 1 0 0 0 1 0 0 0 −1 3 5 . Se puede decir entonces, que la matriz A tiene dos valores estrictamente positivos y un valor propio estric-tamente negativo. 3.47. Nota. En relación con el método ilustrado en el ejemplo anterior, si todos los elementos de la diagonal principal de la matriz simétrica A = [aij ]n×n son nulos y si aij�= 0� i�= j, entonces sumando la fila j a la fila i y la columna j a la columna i� se obtiene una matriz simétrica A� = MTAM con 2aij en el lugar i−ésimo de la diagonal principal de A�. Una vez hecho esto, se sigue el proceso descrito en el ejemplo anterior. 3.48. Ejemplo. Para la matriz simétrica A = » 0 1 1 0 – � encuentre una matriz invertible P tal que PTAP sea una matriz diagonal con las características que se establecen en el teorema 3.44. Se forma ahora la matriz: [ A | I ] = » 0 1 1 0 1 0 0 1 – . Se efectua, en las filas de la matriz, [ A | I ] la operación elemental MT ; sumar los elementos de la segunda fila con los correspondientes elementos de la primera fila. Así se obtiene la matriz [ MTA | MT I ] � luego se efectua la �misma� operación elemental en las columnas de la matriz MT A� para obtener la matriz: ˆ MTAM | MT I ˜ = ˆ A� | MT ˜ � Se tiene: [ MTA | MT I ] = » 1 1 1 1 1 0 0 1 – y [ A� | MT ] = » 2 1 1 1 1 0 0 1 – 59
  • 30. 3.3. Matrices simétricas Diagonalización de matrices Ahora se realiza, en las filas de la matriz [ A� | MT ], la operación elemental; ET 1 ; multiplicar los elementos de la primera fila por α = −1 2 y sumar los resultados con los correspondientes elementos de la segunda fila. Así se obtiene la matriz 1 A� | ET [ ET 1 MT ] = [ A1 | B1 ] � luego se realiza la �misma� operación elemental en las columnas de la matriz A1� para obtener: 1 A�E1 | ET [ ET � 1 | B1 ] . 1 MT ] = [ A Se tiene: [ A1 | B1 ] = " 2 1 1 1 0 − 1 2 − 1 2 1 2 # y [ A�1 | B1 ] = " 2 0 1 1 1 1 0 − 2 − 2 1 2 # Se efectua ahora en las filas de la matriz h � 1 | B1 A i las operaciones elementales; ET 2 ; multiplicar los elementos de la primera fila por α = 1 √2 3 ; multiplicar los elementos de la segunda fila por β = √2 . , y, ET Así se obtiene la matriz ˆ ET 3 ET 2 ET 1 MT ˜ 3 ET 2 ET 1 A�E1 | ET = ˆ A2 | B2 ˜ � luego se realizan las �mismas� operaciones elementales en las columnas de la matriz A2� para obtener: 3 ET 2 ET 1 A�E1E2E3 | ET [ ET � 2 | B2 ] . 3 ET 2 ET 1 MT ] = [ A Se tiene: [ A2 | B2 ] = 2 6664 √2 0 1 √2 1 √2 0 − 1 √2 − 1 √2 1 √2 3 7775 y [ A�2 | B2 ] = 2 6664 1 0 1 √2 1 √2 0 −1 − 1 √2 1 √2 3 7775 Así que la matriz invertible PT = B2 = ET 3 ET 2 ET 1 MT = 2 6664 1 √2 1 √2 − 1 √2 1 √2 3 7775 es tal que � 3 = PTAP = D = A 2 4 1 0 0 −1 3 5 . Se puede decir, que la matriz A tiene un valor estrictamente positivo y un valor propio estrictamente negativo. 60
  • 31. Diagonalización de matrices 3.3. Matrices simétricas 3�3 Ejercicios Para los ejercicios 1 al 7 responda verdadero o falso, justificando su respuesta: 1. Si A y B son matrices simétricas de orden n� entonces la matriz AB es simétrica. 2. Sean A y B matrices simétricas de orden n. AB es simétrica sii AB = BA. 3. Si P es una matriz ortogonal, entonces P−1 también es ortogonal. 4. Si P es una matriz ortogonal, entonces PT también es ortogonal. 5. Si P es una matriz ortogonal, entonces |P| = ±1. 6. Una matriz P de tamaño n×n es ortogonal sii los vectores fila de P conforman una base ortonormal de Rn. 7. La matriz P = » 1 1 −1 1 – es ortogonal. En los ejercicios 8 al 1 demuestre la afirmación da correspondiente 8. Si λ es un valor propio de una matriz A� entonces la multiplicidad geométrica de λ es menor o igual que la multiplicidad algebraica de λ. (sugerencia: vea la demostración del teorema 3.37). 9. Sean A� B ∈ �n×n� M = » A B B A – y P = » In In In −In – a) Verifique que P−1 = 1 2 P. b) Calcule P−1MP y concluya que detM = det�A + B) · det�A − B). c) Use (b) para mostrar que pM�λ) = det�M − λI) = det��A + B) − λI) · det��A − B) − λI) . 10. Si P y Q son matrices ortogonales, entonces PQ es una matriz ortogonal. 11. Si Q1� Q2� . . . � Qm son matrices ortogonales, entonces la matriz Q = 2 6664 Q1 0 · · · 0 0 Q2 · · · 0 ... ... . . . ... 0 0 · · · · · · Qm 3 7775 . es también ortogonal . 12. Sea x un λ-vector propio de A y sea y un β-vector propio de AT , donde λ�= β� entonces x� y son vectores ortogonales (sugerencia: vea la demostración del teorema 3.33). 13. Si A es una matriz simétrica idempotente n × n entonces: ρ�A) = TrA = Xn i=1 Xn j=1 �aij)2 . (Sugerencia: Utilice el teorema 3.44 y el corolario 2.17) 14. Sea a ∈ �n×1 un vector no nulo. Entonces A = �aT a)−1aaT es una matriz simétrica de rango 1 y es tal que A2 = A. 15. Si A es una matriz simétrica tal que todos los valores propios son positivos, entonces existe una matriz invertible M tal que A = MTM. (Sugerencia: utilice el teorema 3.44(1)) 16. Si A es una matriz simétrica tal que todos los valores propios son positivos, entonces existe una matriz triangular superior e invertible, T, tal que A = TT T. (Sugerencia: utilice inducción sobre el orden n de la matriz A). 17. Si A es una matriz simétrica de orden n que tiene p valores propios positivos �p < n) y n−p valores propios nulos, entonces existe una matriz no invertible M tal que A = MTM. (Sugerencia: utilice el teorema 3.44(1)). 61
  • 32. 3.3. Matrices simétricas Diagonalización de matrices 18. Sean A� B matrices simétricas de igual orden. Suponga además que A2 = A y que los valores propios de B son positivos, entonces: ρ�ABA) = ρ�A) = TrA (sugerencia: Utilice los ejercicios (15) y (13) y el Teorema 1.53(4)). 19. Si A = [aij ]n×n es una matriz simétrica tal que aii > Xn �j=1� j�=i |aij | para todo i = 1� 2� . . . n� entonces todos los valores propios de A son positivos. (Sugerencia: supon-ga λ ≤ 0 es un valor propio de A y utilice el ejercicio (5) de la sección 3.2 para llegar a una contradicción). 20. Para cada una de las siguientes matrices encuentre una matriz ortogonal P, tal que PTMP sea una matriz diagonal. Dé en cada caso TrM y ρ�A). �i) M = » 1 −2 −2 5 – �ii) M = 2 4 1 −1 0 −1 0 0 0 0 1 3 5 �iii) M = 2 4 2 1 1 1 2 1 1 1 2 3 5 �iv) M = 2 4 1 −1 −1 −1 1 −1 −1 −1 1 3 5 �v) M = 2 4 4 2 2 2 3 0 2 0 5 3 5 �vi) M = 2 4 4 4 2 4 4 2 2 2 1 3 5 21. Para cada una de las siguientes matrices encuentre una matriz invertible Q, tal que QTMQ sea de la forma 2 4 Ip 0 0 0 −Iη 0 0 0 0 3 5 . �i) M = 2 4 1 −1 0 −1 1 0 0 0 1 3 5 �ii) M = 2 4 0 1 1 1 −2 2 1 2 −1 3 5 �iii) M = 2 4 1 2 0 2 0 0 0 0 1 3 5 �iv) M = 2 4 1 0 −1 0 2 1 −1 1 1 3 5 �v) M = 2 4 2 1 1 1 1 −1 1 −1 5 3 5 �vi) M = 2 4 1 2 −1 2 4 −2 −1 −2 8 3 5 22. Considere las matrices del ejercicio anterior: a) Si QTMQ = T» I, encuentre una matriz invertible P� tal que M = PP. b) Si QTMQ = Ip 0 0 0 – � encuentre una matriz no invertible P� tal que M = PTP. 62
  • 33. Diagonalización de matrices 3.4. Diagonalización simultánea 3.4. Diagonalización simultánea de matrices simétricas En esta sección se verá un par de teoremas sobre diagonalización simultánea de matrices simétricas, los cuales son útiles en estadística. En particular el teorema 3.51 se utiliza en la demostración de la independencia de dos ciertas formas cuadráticas (ver teorema 4.5.3 de [4]). 3.49. Teorema (Diagonalización simultánea). Sean A y B matrices simétricas de orden n. Si todos los valores propios de A son estrictamente positivos, entonces existe una matriz invertible Q tal que QTAQ = In y QTBQ = D es una matriz diagonal. Además, los elementos de la diagonal de D, son las soluciones de la ecuación |B − λA| = 0� las cuales son reales. Demostración� Puesto que todos los valores propios de A son estrictamente positivos, se sigue del teorema 3.41, que existe una matriz invertible P tal que PTAP = In. Sea ahora C = PTBP. La matriz C es simétrica pues, CT = �PTBP)T = PTBTP= PTBP = C. Ahora bien, en virtud del teorema 3.32, existe una matriz ortogonal M tal que MTCM = D es una matriz diagonal con los valores propios de C en su diagonal principal. En consecuencia: MTPTAPM = MT InM = MTM = In y MTPTBPM = MTCM = D; esto es, la matriz Q = PM es tal que QTAQ = In y QTBQ = D es una matriz diagonal. De otro lado, como se ha expresado, los elementos de la diagonal de D son los valores propios de C, los cuales según el teorema 3.32 son reales. Esto es, los elementos de la diagonal de D son la soluciones de la ecuación |C − λI| = 0. En vista de que la matriz P es invertible se tiene: |C − λI| = |PTBP − λPTAP| = |PT | |B − λA| |P | = 0 9= ; sii |B − λA| = 0� lo cual termina la demostración del teorema. � 3.50. Ejemplo. Considere las matrices simétricas A = 2 4 1 0 0 0 4 2 0 2 2 3 5 y B = 2 4 5 4 4 4 8 −4 4 −4 −4 3 5 . Efectuando los cálculos correspondientes se encuentra que los valores propios de A son: λ1 = 1� λ2 = 3+√5 y λ3 = 3 − √5, los cuales son estrictamente positivos y que la matriz invertible P = 2 6664 1 0 0 0 1 2 − 1 2 0 0 1 3 7775 es tal que PTAP = I3 y C = PTBP = 2 4 5 2 2 2 2 −4 2 −4 2 3 5 . 63
  • 34. 3.4. Diagonalización simultánea Diagonalización de matrices Por el ejemplo 3.43 se sabe que M = 2 6666666664 − 1 3 2 √5 2 3√5 2 3 1 √5 − 4 3√5 2 3 0 2 3√5 3 7777777775 es ortogonal y es tal que MTCM = D = 2 4 −3 0 0 0 6 0 0 0 6 3 5 . En consecuencia, la matriz invertible Q = PM = 2 6666666664 − 1 3 2 √5 2 3√5 0 1 2√5 − 3 3√5 2 3 0 5 3√5 3 7777777775 es tal que QTAQ = 2 4 1 0 0 0 1 0 0 0 1 3 5 y QTBQ = D = 2 4 −3 0 0 0 6 0 0 0 6 3 5 . El siguiente teorema indica, que cuando dos matrices simétricas del mismo orden conmutan entre si, se puede incluso encontrar una diagonalización simultánea ortogonal, en forma más precisa tenemos. 3.51. Teorema (Diagonalización ortogonal simultánea). Sean A y B matrices simétricas de orden n. AB = BA sii existe una matriz ortogonal P tal que PTAP y PTBP son matrices diagonales, cuyos elementos de la diagonal son respectivamente los valores propios de A y B. Demostración� �=⇒) En virtud del teorema 3.41, existe una matriz ortogonal R tal que: RTAR = D = 2 6664 λ1Ik� � · · · � � λ2Ik2 · · · � ... .... . . ... � � . . . λmIkm 3 7775 � donde los λi son los diferentes valores propios de A y ki es la multiplicidad geométrica (algebraica) del valor propio λi, i = 1� 2� . . . �m. Sea ahora C = RTBR. Puesto que por hipótesis AB = BA� entonces DC = RTARRTBR = RTBAR = RTBRRTAR = CD. Particionando la matriz C convenientemente se puede escribir: 64
  • 35. Diagonalización de matrices 3.4. Diagonalización simultánea DC = 2 6664 λ1Ik� � · · · � � λ2Ik2 · · · � ... ... . . . ... � � · · · λmIkm 3 7775 2 6664 C11 C12 · · · C1m C21 C22 · · · C2m ... ... . . . ... Cm1 Cm2 · · · Cmm 3 7775 = 2 6664 λ1C11 λ1C12 · · · λ1C1m λ2C21 λ2C22 · · · λ2C2m ... ... . . . ... λmCm1 λmCm2 · · · λmCmm 3 7775 � CD = 2 6664 C11 C12 · · · C1m C21 C22 · · · C2m ... ... . . . ... Cm1 Cm2 · · · Cmm 3 7775 2 6664 λ1Ik� � · · · � � λ2Ik2 · · · � ... ... . . . ... � � · · · λmIkm 3 7775 = 2 6664 λ1C11 λ2C12 · · · λmC1m λ1C21 λ2C22 · · · λmC2m ... ... . . . ... λ1Cm1 λ2Cm2 · · · λmCmm 3 7775 . Ya que DC = CD y λi�= λj , si i�= j, entonces se tiene que Cij = 0, si i�= j y por tanto C = 2 6664 C11 � · · · � � C22 · · · � ... ... . . . ... � � · · · · · · Cmm 3 7775 . Ti Como la matriz C es simétrica, cada una de las matrices Cii� i = 1� 2 . . . �m, es simétrica, por tanto existe una matriz ortogonal Qi tal que QCiiQi = Di es una matriz diagonal. Sea a hora: Q = 2 6664 Q1 � · · · � � Q2 · · · · · · � ... ... . . . ... � � · · · · · · Qm 3 7775 . La matriz Q es ortogonal (véase ejercicio 11) y es tal que QTCQ = D∗ es una matriz diagonal. También se tiene que QTDQ = D; es decir, QTRTARQ = D y QTRTBRQ = D∗ . Ya que las matrices R y Q son ortogonales, entonces la matriz P = RQ es ortogonal (vea el ejercicio 10) y es tal que PTAP y PTBP son matrices diagonales semejantes a A y a B respectivamente. �⇐=) Supongamos que existe una matriz ortogonal P tal que PTAP = D1 y PTBP = D2 son matri-ces diagonales. Puesto que D1D2 = D2D1� entonces: PTAPPTBP = PTBPPTAP � de donde AB = BA. � 3.52. Ejemplo. En este ejemplo se siguen los pasos hechos en la demostración del teorema anterior en el sentido �=⇒). La verificación de los cálculos numéricos queda a cargo del lector. 65
  • 36. 3.4. Diagonalización simultánea Diagonalización de matrices Las matrices simétricas: A = 2 664 1 −1 0 0 −1 1 0 0 0 0 1 0 0 0 0 1 3 775 y B = 2 664 1 0 0 0 0 1 0 0 0 0 2 −2 0 0 −2 5 3 775 son tales que AB = BA. Los valores propios de la matriz A son λ1 = 0 de multiplicidad algebraica k1 = 1� λ2 = 1 de multiplicidad algebraica k2 = 2 y λ3 = 2 de multiplicidad algebraica k3 = 1. La matriz ortogonal R = 2 6666664 1/√2 0 0 −1/√2 1/√2 0 0 1/√2 0 1 0 0 0 0 1 0 3 7777775 es tal que: RTAR = D = 2 664 0 0 0 0 0 1 0 0 0 0 1 0 0 0 0 2 3 775 = 2 664 λ1I � � � λ2I � � � λ3I 3 775 y RTBR = C = 2 664 1 0 0 0 0 2 −2 0 0 −2 5 0 0 0 0 1 3 775 = 2 664 C11 � � � C22 � � � C33 3 775 . La matriz ortogonal Q = 2 6666664 1 0 0 0 0 2/√5 −1/√5 0 0 1/√5 2/√5 0 0 0 0 1 3 7777775 = 2 664 Q1 � � � Q2 � � � Q3 3 775 � es tal que QTCQ = 2 664 1 0 0 0 0 1 0 0 0 0 6 0 0 0 0 1 3 775 = QTRTBRQ = D∗ y QTDQ = 2 664 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 2 3 775 = QTRTARQ = D. En consecuencia, la matriz ortogonal P = RQ = 2 6666664 1/√2 0 0 −1/√2 1/√2 0 0 1/√2 0 2/√5 −1/√5 0 0 1/√5 2/√5 0 3 7777775 66
  • 37. Diagonalización de matrices 3.4. Diagonalización simultánea es tal que PTAP = D y PTBP = D∗ son matrices diagonales. 3.53. Corolario. Sean A1� A2� . . . �Ak matrices simétricas de orden n. Una condición necesaria y suficiente para que exista una matriz ortogonal P tal que PTAiP sea una matriz diagonal para cada i = 1� 2� . . . � k es que AiAj = AjAi para cada i y j; i� j = 1� 2� . . . � k. Demostración� (=⇒) La demostración de esta parte del teorema se hará utilizando inducción sobre el número de matrices k. Para cuando k = 2 el corolario es cierto por el teorema anterior. Suponga ahora que el corolario es cierto para cuando k = s; se quiere demostrar que el corolario es cierto para cuando k = s + 1. Sean pues A1� A2� . . . �As+1 matrices simétricas de orden n tales que AiAj = AjAi para cada i y j; i� j = 1� 2� . . . � s + 1. Por el teorema 3.41 existe una matriz ortogonal R tal que RTA1R = D = 2 6664 λ1Ik� � · · · � � λ2Ik2 · · · � ... ... . . . ... � � · · · λmIkm 3 7775 � donde los λτ , τ = 1� 2� . . . � m� son los diferentes valores propios de A1 y kτ es la multiplicidad geométrica (algebraica) del valor propio λτ . Ahora, para cada i (i = 2� 3� . . . � s + 1)� se toma la matriz Ci = RTAiR. Puesto que por hipótesis A1Ai = AiA1, entonces CiD = RTAiRRTA1R = RTAiA1R = RTA1AiR = RTA1RRTAiR = DCi � para i = 2� 3� . . . � s + 1. De esto se sigue que: Ci = 2 6664 Ci1 � · · · � � Ci2 · · · � ... ... . . . ... � � · · · · · · Cim 3 7775 � i = 2� 3� . . . � s + 1 . Ahora, como AiAj = AjAi para todo i y todo j; i� j = 2� 3� . . . � s + 1, entonces: CiCj = RTAiRRTAjR = RTAiAjR = RTAjAiR = RTAjRRTAiR = CjCi . De esto se sigue que para cada τ� τ = 1� 2� . . . �m. CiτCjτ = CjτCiτ . De otra parte, como la matriz Ci es simétrica, entonces la matriz Ciτ es simétrica para cada i = 2� 3 . . . � s+1 y cada τ = 1� 2� . . . � m. Por lo anterior y por la hipótesis de inducción; para cada τ , existe una matriz ortogonal Qτ tal que QT i CiτQi = Dτ es una matriz diagonal. Sea ahora: Q = 2 6664 Q1 � · · · � � Q2 · · · � ... .... . . ... � � · · · Qm 3 7775 . La matriz Q es ortogonal y es tal que QTCiQ = D∗i es una matriz diagonal. También se tiene que QTDQ = D. Así que: QTRTAiRQ = D∗i � i = 2� 3 . . . � s + 1� y QTRTA1RQ = D∗ . 67
  • 38. 3.4. Diagonalización simultánea Diagonalización de matrices Puesto que R y Q son matrices ortogonales, entonces la matriz P = RQ es ortogonal. En consecuencia, la matriz ortogonal P es tal que PTAiP es una matriz diagonal para i = 2� 3 . . . � s + 1. (Necesidad:) Supongamos ahora que existe una matriz ortogonal P tal que PTAiP = Di es una ma-triz diagonal para cada i = 1� 2� . . . � k. Puesto que DiDj = DjDi� para todo i y todo j, i� j = 1� 2� . . . � k, entonces PTAiPPTAjP = PTAjPPTAiP� de donde se tiene que AiAj = AjAi para todo i y todo j; i� j = 1� 2� . . . � k. � 3.54. Ejemplo. Las matrices simétricas A1 = » 2 1 1 2 – � A2 = » 3 4 4 3 – y A3 = » 5 6 6 5 – son tales que AiAj = AjAi, i = 1� 2. La matriz ortogonal R = 1 √2 2 4 1 1 −1 1 3 5 es tal que RTA1R = D1 = » 1 0 0 3 – RTA2R = D2 = » −1 0 0 7 – RTA3R = D3 = » −1 11 – � es decir, la matriz ortogonal R diagonaliza de manera simultánea a las matrices A1� A2 y A3. 3�4 Ejercicios 1. Si A y B son dos matrices simétricas invertibles de igual orden tales que AB = BA, demuestre entonces existe una matriz ortogonal P tal que PTAP� PTBP� PTABP� PTAB−1P� PTA−1BP y PTA−1B−1P son matrices diagonales. 2. Sean A = 2 4 1 −2 −3 −2 5 5 −3 5 11 3 5 y B = 2 4 1 −4 −1 −4 14 4 −1 4 6 3 5 a) Verifique que todos los valores propios de A son positivos, encontrando una matriz invertible P tal que PTAP = I. b) En una matriz invertible M tal que MTAM = I y MTBM = D sea una matriz diagonal. 3. Considere la matrices S1 = 2 4 1 −2 0 −2 5 0 0 0 4 3 5 � S2 = 2 4 2 −3 0 −3 6 0 0 0 −4 3 5 68
  • 39. Diagonalización de matrices 3.4. Diagonalización simultánea S3 = 2 4 3 −2 0 −2 −2 0 0 0 8 3 5 a) Verifique que todos los valores propios de S1 son positivos, encontrando una matriz invertible P tal que PT S1P = I. b) Haga A = PT S2P y B = PT S3P.. Verifique que AB = BA y encuentre una matriz ortogonal Q tal que QTAQ = D1 y QTBQ = D2 son matrices diagonales. c) Concluya que la matriz invertible M = PQ, siendo P y Q como antes, es tal que MT S1M = I y MTAM = D1 y MTBM = D2 son matrices diagonales. 69