SlideShare uma empresa Scribd logo
1 de 40
Baixar para ler offline
Curso abreviado de Análisis II
Dodovrosky Medrano
basado en los apuntes de clase de Ernst Hairer
Tellement de choses à faire, tellement peu de temps E. Galois
1
Índice
1. Cálculo diferencial en espacios de Banach 3
1.1. La diferenciabilidad en Rn
. . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Espacios de Banach y de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4. Diferenciabilidad en los espacios normados . . . . . . . . . . . . . . . . . . . 12
1.5. Teorema de los incrementos nitos . . . . . . . . . . . . . . . . . . . . . . . 16
1.6. Teorema del punto jo de Banach . . . . . . . . . . . . . . . . . . . . . . . . 19
1.7. Teorema de Inversión local . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.8. Teorema de funciones implícitas . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.9. Aplicaciones bilineales y multilineales . . . . . . . . . . . . . . . . . . . . . . 33
1.10. Derivadas de orden superior . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
contenido
2
1. Cálculo diferencial en espacios de Banach
El cálculo diferencial en R y Rn
era uno de los temas tratados en el curso de Análisis I
(ver ). El primer capítulo del curso Análisis II tiene como objetivo extender este cálculo a
espacios más generales. Esto nos permite no solamente obtener resultados más generales con
aplicaciones interesantes, sino también una mejor comprensión del calculo diferencial en Rn
.
Después de un recordatorio sobre la diferenciabilidad en Rn
, daremos la denición de un
espacio de Banach y discutiremos las diferencias esenciales entre Rn
y los espacios de Banach
de dimensión innita. Extenderemos enseguida la noción de aplicación diferenciable a los
espacios de Banach, daremos varios ejemplos y abordaremos los temas siguientes: el teorema
de incrementos nitos, el teorema del punto jo de Banach, el teorema de inversión local asi
como el teorema de funciones implícitas.
1.1. La diferenciabilidad en Rn
Para una función de una variable f : (a, b) → R, la derivada en el punto x0 está denida
por:
f (x0) = l´ım
x→x0
f(x) − f(x0)
x − x0
(1.1)
Evidentemente, esta denición no tiene sentido para funciones de varias variables.
Para una función f : U → Rm
(U es un abierto de Rn
), decimos que f(x) es diferenciable en
x0 ∈ U, si existe una aplicación lineal f (x0) : Rn
→ Rm
, tal que
f(x) = f(x0) + f (x0)(x − x0) + r(x) x − x0 , (1.2)
donde la función r : U → Rm
(que depende del parámetro x0) satisface r(x) → 0 cuando
x → x0. Escribiendo h = x − x0, la denición de diferenciabilidad puede escribirse también
como
f(x0 + h) = f(x0) + f (x0)h + r(h) h , (1.3)
donde r(h) → 0 cuando h → 0.
Se demuestra que (ver ...) esta denición no depende de la norma elegida y que la aplicación
lineal está dada por la matriz jacobiana
f (x0) =



∂f1
∂x1
(x0) · · · ∂f1
∂xn
(x0)
.
.
. · · ·
.
.
.
∂fm
∂x1
(x0) · · · ∂fm
∂xn
(x0)


 , (1.4)
donde x = (x1, · · · , xn)T
y f(x) = (f1(x), · · · , fm(x))T
. El ejemplo siguiente muestra que
no siempre es ventajoso representar la aplicación lineal f (x) con la ayuda de la matriz
jacobiana.
Ejemplo 1.1. Identiquemos el espacio Rn·n
con el espacio de matrices cuadradas de dimen-
sión n, M(n, R). Consideremos la aplicación f : Rn·n
→ Rn·n
denida por f(X) = X2
, el
cáculo siguiente: f(X0+H) = (X0+H)2
= X2
0 +X0H+HX0+H2
= f(X0)+X0H+HX0+H2
y tomando los términos lineales en H, sugiere la denición
f (X0)H := X0H + HX0, r(H) := H2
/ H . (1.5)
3
Para demostrar realmente que la aplicación lineal f (X0) de (1.5) es la derivada de f(X),
hay que ver que r(H) → 0 si H → 0. Esto se deriva del hecho que, para la norma euclidiana
en Rn·n
, se tiene H2
≤ H 2
.
1.2. Espacios de Banach y de Hilbert
Intentemos extender la denición (1.2) de diferenciabilidad a una función f : E → F. En
los espacios E y F hay que saber sumar, restar, multiplicar por un número real y hay que
tener a disposición una norma.
Denición 1.1. Una norma sobre un espacio vectorial E es una aplicación · : E → R que
verica las tres propiedades:
(N1) x ≥ 0 y x = 0 ⇔ x = 0,
(N2) λx = |λ| x ,
(N3) x + y ≤ x + y (desigualdad triangular).
Denición 1.2. Un producto escalar sobre un espacio vectorial E es una aplicación ·, · :
E × E → R que satisface:
(PE1) x, x ≥ 0 y x, x = 0 ⇔ x = 0 (denida positiva),
(PE2) x, y = y, x (simétrica),
(PE3) λx1 + µx2, y = λ x1, y + µ x2, y (lineal).
Ejemplo 1.2. Un caso particular importante de norma para un espacio vectorial E con
producto escalar es:
x = x, x (1.6)
Como para la norma euclidiana en Rn
, se verica que · denida en el ejemplo 1.2 verica
las propiedades (N1),(N2) y (N3) de una norma.
A partir del momento en que nos damos una norma sobre un espacio vectorial E, pode-
mos denir la convergencia de sucesiones.
Denición 1.3. Sea {xn} una sucesión en un espacio vectorial E con norma. Decimos que la
sucesión converge hacia a ∈ E, si
∀ε  0 ∃N ≥ 1 ∀n ≥ N xn − a  ε. (1.7)
La sucesión (no necesariamente convergente) será una sucesión de Cauchy si
∀ε  0 ∃N ≥ 1 ∀m, n ≥ N xn − xm  ε. (1.8)
Denición 1.4. Un espacio vectorial E dotado de una norma · se llama espacio vectorial
normado. El espacio es completo si cada sucesión de Cauchy en E es convergente. Un espacio
vectorial normado y completo se llama un espacio de Banach.
Un espacio de Banach cuya norma está dada por un producto escalar, se llama espacio de
Hilbert.
4
Observación 1.1. En todo espacio de Banach se cumple que: una sucesión es de Cauchy si
sólo si es convergente.
Ejemplo 1.3. El primer ejemplo de un espacio de Hilbert es el espacio Rn
con la norma
euclidiana. La completitud es una consecuencia de un teorema de análisis I (ver por ejem-
plo...). Con la norma x 1 = n
i=1 |xi| (o x ∞ = m´axi |xi|) el espacio Rn
no es un espacio
de Hilbert, pero es un espacio de Banach, ya que todas las normas son equivalentes en Rn
(ver...).
Proposición 1.1
Sea C([0, 1]) := {f : [0, 1] → R | f es continua}. Con la norma
f ∞ = sup
t∈[0,1]
|f(t)|, (1.9)
C([0, 1]) es un espacio de Banach. Por el contrario, con una de las normas
f 1 =
1
0
|f(t)|dt o f 2 =
1
0
|f(t)|2dt, (1.10)
el espacio C([0, 1]) no es completo.
Observación 1.2. La norma f 2 esta denida a partir del producto escalar f, g =
1
0
f(t)g(t)dt,
pero esta proposición dice que C([0, 1]) con esta norma no es un espacio de Hilbert.
Demostración. Primero se debe probar que f 1, f 2 y f ∞ son normas en el espacio de
funciones continuas C([0, 1]). Esto no es muy difícil de hacer y es un ejercicio de análisis I.
a) Sea {fn}n≥1 una sucesión de Cauchy para la norma f ∞. Entonces, la propiedad
|fn(t) − fm(t)| ≤ fn − fm ∞  ε para n, m ≥ N (1.11)
implica que {fn(t)}n≥1 es una suceción de Cauchy en R. Como R es completo (ver...), la
sucesíon {fn(t)}n≥1 converge hacia un elemento de R, que denotamos por f(t). Queda por
probar que la función f(t) denida de esta manera, es continua. Pasando al límite m → ∞
en (1.11), obtenemos
|fn(t) − f(t)| ≤ ε para n ≥ N,
donde es importante observar que N depende de ε  0 pero no de t ∈ [0, 1]. Entonces, la
sucesión {fn} converge uniformemente hacia f, por lo tanto f es continua (ver...).
b) Consideremos la sucesión {fn} en C([0, 1]), donde fn(t) es lineal denida por pedazos por:
fn(t) =



0 x ∈ [0, 1
2
− 1
n
]
n
2
(x − 1
2
+ 1
n
) x ∈ [1
2
− 1
n
, 1
2
+ 1
n
]
1 x ∈ [1
2
+ 1
n
, 1]
(1.12)
(ver la gura para n = 3, 5 = 10). Para m ≥ n tenemos que
fn −fm 1 =
1/n
−1/n
|fn(t) − fm(t)|
1/2
dt  1
n
y fn −fm 2  1√
2n
. Luego para ambas normas,
la sucesión {fn} es de Cauchy. Como la función límite f(t) no es continua sobre [0, 1], esta
sucesión no converge en C([0, 1]).
5
Proposición 1.2
Para un conjunto arbitrario A consideremos el espacio
B(A) := {f : A → R | f es acotada } con f ∞ = sup
t∈A
|f(t)|. (1.13)
B(A) es un espacio de Banach.
Demostración. La demostración es esencialmente la misma que parte a) de la proposición 1.1.
Observemos que f ∞ está bien denida ya que f está acotada en A y por lo tanto el supremo
existe.
Todas las deniciones topológicas de los espacios Rn
pueden ser extendidas a los espacios
de Banach.
Denición 1.5. Sea E un espacio vectorial normado.
1. Dos normas · p y · q son equivalentes, si existe dos constantes positivas C1 y C2
tales que C1 x p ≤ x q ≤ C2 x p para todo x ∈ E.
2. Una bola de centro a y radio r es el conjunto Br(a) = {x ∈ E | x − a  ε}.
3. Un conjunto V ⊂ E es una vecindad de a ∈ E, si existe ε  0 tal que Bε(a) ⊂ V .
4. Un conjunto U ⊂ E es abierto, si U es vecindad de cada uno de sus elementos, es decir
si
∀x ∈ E ∃ε  0 Bε(x) ⊂ U.
5. Un conjunto V ⊂ E es cerrado si su complemento V c
es abierto. Esto es equivalente a
decir que toda sucesión convergente {xn} con xn ∈ V , tiene su límite en V .
6. Un conjunto K ⊂ E es compacto si cada sucesión {xn} con xn ∈ K posee una subsu-
cesión que converge hacia un elemento de K.
6
7. Sean E y F dos espacios vectoriales normados y U ⊂ E. Una función f : U → F es
continua en x0 ∈ U si
∀ε  0 ∃δ  0 ∀x ∈ U : x − x0  δ ⇒ f(x) − f(x0)  ε (1.14)
8. La aplicación norma x → x es continua (ya que | x − x0 | ≤ x − x0 ).
La mayoría de los resultados probados para espacios Rn
y Rm
siguen siendo válidos si los
reemplazamos por espacios de Banach. Sin embargo, hay que tener precaución ya que ciertas
propiedades se pierden si la dimensión del espacio de Banach es innita. Por ejemplo:
1. La bola cerrada {x ∈ E | x ≤ 1} no necesariamente es compacta.
2. Dos normas en el mismo espacio no siempre son equivalentes.
3. El teorema de Bolzano-Weierstrass cada sucesión acotada posee una subsucesión con-
vergente no es verdadera.
4. La caracterización  K compacto ⇔ K cerrado y acotado  ya no es válida.
Ejemplo 1.4. Consideremos el espacio de funciones acotadas B(R) denida en (1.13) y
consideremos la sucesión fn ∈ B(R) denida por fn(t) = 1 si t ∈ [n, n + 1) y por fn(t) = 0 si
t ∈ [n, n+1). La sucesión {fn} es acotada (tenemos que fn ∞ ≤ 1) y satisface fn −fm ∞ =
1 para m = n. En consecuencia, esta sucesión no puede tener una subsucesión convergente.
Este contra-ejemplo muestra al mismo tiempo que la bola cerrada no es compacta, que el
teorema de Bolzano-Weierstrass no es cierto sobre B(R) y que las caracterización dada más
arriba de compacidad no es válida.
1.3. Aplicaciones lineales
Las aplicaciones lineales juegan un rol muy importante en la denición (1.2) de la dife-
renciabilidad. En Rn
, todas las aplicaciones lineales son continuas, más aún uniformemente
continuas (ver...). Nosotros veremos en este párrafo que esto no siempre es el caso si la
dimensión del espacio vectorial es innita.
Proposición 1.3
Para una aplicación lineal A : E → F (E y F son dos espacios vectoriales normados),
las condiciones siguientes son equivalentes:
(a) A es continua en todo punto de E;
(b) A es continua en el origen 0 ∈ E;
(c) A(x) está acotada sobre la bola unidad {x ∈ E | x ≤ 1}.
Demostración. Es claro que (a)⇒ (b). Mostremos que (b)⇒(c): la continuidad de A(x) en
el origen implica que para ε = 1 existe un δ  0 tal que A(y) − A(0) = A(y) ≤ = 1
para y ≤ δ. Utilizando la linealidad de A, obtenemos
A(x) = A
1
δ
δx =
1
δ
A(δx) ≤
1
δ
para x ≤ 1.
7
Acabamos de probar A(x) está acotada sobre la bola unidad.
Para demostrar que (c)⇒ (a), jemos arbitrariamente un x0 ∈ E y supongamos que A(x) ≤
M sobre la bola unidad. Entonces, para x = x0 tenemos
A(x) − A(x0) = A(x − x0) = x − x0 · A
x − x0)
x − x0
≤ M x − x0 ,
lo que implica la continuidad de A en x0.
En el caso de los espacios de dimensión innita, llamaremos operador lineal a una aplica-
ción lineal. A menudo escribiremos Ax en lugar de A(x) y diremos también aplicación acotada
para una aplicación lineal continua (a causa de la propiedad (c) de la proposición 1.3). Una
aplicación lineal A de Rn
en Rm
está representada por una matriz que denotaremos por
la misma letra A. Entonces, la expresión Ax puede ser interpretada como el valor de la
aplicación A en el punto x, o bien como el producto de la matriz A con el vector x.
Ejemplo 1.5. Existe operadores lineales no continuos. Consideremos el espacio de funciones
continuas C([0, 1]) con la norma f 1 de (1.10) y las funciones fn ∈ C([0, 1]) dadas por
fn(t) = n − n2t
2
si t ∈ [0, 2
n
] y fn(t) = 0 si t ≥ 2
n
. La aplicación denida por
A: C([0, 1]) → R
f → f(0)
es lineal pero no acotada, ya que |A(fn)| = n y fn 1 = 1 para todo n.
Denición 1.6. Sean E y F dos espacios vectoriales normados. Denotamos por L(E, F) el
conjunto de aplicaciones lineales continuas de E en F. Para un elemento A ∈ L(E, F),
denimos
A := sup
x ≤1
Ax = sup
x=0
Ax
x
. (1.15)
Para E = F, escribimos también L(E) en lugar de L(E, E).
La denición 1.6 signica A es el número real más pequeño tal que
Ax ≤ A · x para todo x ∈ E (1.16)
La desigualdad (1.16) es fundamental para todos los cálculos con aplicaciones lineales.
8
Observación 1.3. No es muy difícil vericar la segunda igualdad de (1.15), lo que hace
indiferente con cual de las dos trabajemos. En efecto, pongamos α = sup x ≤1 Ax y
β = supx=0
Ax
x
. Por denición Ay ≤ α si y ≤ 1. Para x = 0 pongamos y = x/ x ,
esto nos da Ax / x ≤ α, luego tomando supremos sobre los x = 0 obtenemos β ≤ α.
Por denición también Ax / x ≤ β si x = 0. Además, si x ≤ 1 tenemos Ax ≤
Ax / x , de donde deducimos Ax ≤ β si x ≤ 1. Tomando supremos se obtiene α ≤ β.
Proposición 1.4
El espacio L(E, F) dotado de la norma de la denición (1.6) es un espacio vectorial
normado. Si además F es un espacio de Banach, entonces L(E, F) también es un
espacio de de Banach.
Demostración. Primero debemos vericar que · de la denición 1.6 es efectivamente una
norma. (N1) es fácil de vericar, para (N2) tenemos por denición que A ≥ 0. Por otro
lado, si A = 0 (la aplicación lineal nula), entonces A = supx=0 Ax = supx=0 0 = 0
y recíprocamente si A = 0, por la desigualdad (1.16) Ax = 0 para todo x ∈ E, en
particular, por propiedad (N2) de la norma en F tenemos Ax = 0 para todo x ∈ E, es decir
A es la aplicación lineal nula. Demostremos (N3): para A, B ∈ L(E, F) tenemos
(A + B)x ≤ Ax + Bx ≤ ( A + B ) x .
Dividiendo esta desigualdad por x y tomando el supremo, obtenemos la desigualdad trian-
gular A + B ≤ A + B .
Supongamos ahora que F es completo. Para demostrar la completitud, tomemos {An} una
sucesión de Cauchy en L(E, F). Para x ≤ 1 obtenemos
Anx − Amx ≤ An − Am · x ≤ ε · x ≤ ε para n, m ≥ N, (1.17)
lo que implica que {Anx} es una sucesión de Cauchy en F. Siendo este espacio completo,
la sucesión {Anx} posee un límite que denotamos por Ax. De esta manera, obtenemos una
aplicación lineal A : E → F. Pasando al límite m → ∞ en (1.17) y dividiendo por x ,
vemos que An − A (y también A) está acotada y que A es el límite de {An}.
Proposición 1.5
Sea I ∈ L(E) la identidad (es decir Ix = x) y consideremos aplicaciones lineales
A ∈ L(E, F) y B ∈ L(G, E), donde E, F y G son espacios vectoriales normados.
Entonces
I = 1, AB ≤ A · B . (1.18)
Demostración. La propiedad I = 1 es evidente. Para demostrar la estimación de AB ,
aplicamos dos veces la desigualdad fundamental (1.16),
(AB)x ≤ A · Bx ≤ A · B · x .
enseguida, dividimos esta relación por x y tomamos el supremo sobre x = 0.
9
Ejemplo 1.6. Sea A una matriz m × n, es decir A ∈ L(Rn
, Rm
y denotemos por
A p = sup
x=0
Ax p
x p
(1.19)
la expresión (1.15) si utilizamos la misma norma en los dos espacios Rn
y Rm
. Entonces,
tenemos las fórmulas explícitas
A 1 = m´ax
j=1,...,n
m
i=1
|aij| , A ∞ = m´ax
j=1,...,m
n
j=1
|aij|
A 2 = valor propio más grande de AT A.
Demostración. Para la norma x 1:
Ax 1 =
m
i=1
n
j=1
aijxj
m
i=1
n
j=1
|aij| · |xj| =
n
j=1
m
i=1
|aij| |xj| ≤ m´ax
j=1,...,n
m
i=1
|aij| x 1.
Deducimos que A 1 ≤ m´axj( i |aij|). Para mostrar la igualdad, elegimos j0 con
m´axj( i |aij|) = i |aij0 | y ponemos x = (0, ..., 0, 1, 0...0)T
, donde 1 está en la posición j0.
Con esta elección de x, tenemos la igualdad en la estimación de arriba, lo cual demuestra
que A 1 no puede ser más pequeño que m´axj( i |aij|). La fórmula para la norma x ∞ se
demuestra de la misma manera.
Para la norma x 2:
La matriz AT
A es simétrica semidenida positiva (xT
AT
Ax = Ax 2
2 ≥ 0), luego existe
una matriz ortogonal U (UT
U = 1) tal que UT
AT
AU = diag(λ1, ..., λn), donde λi ≥ 0 son
los valores propios de AT
A. Con la transformación x = Uy y recordando que las matrices
ortogonales preservan la norma euclidiana x 2 = y 2, tenemos que
Ax 2
2 = xT
AT
Ax = yT
UT
AT
AUy =
n
i=1
λi|yi|2
≤ λmax y 2
2 = λmax x 2
2.
Esto implica que A 2 ≤
√
λmax. Para mostrar la igualdad, ponemos x igual al vector propio
de AT
A que corresponde al valor propio máximo AT
Ax = λmaxx.
Ejemplo 1.7. Para la matriz A =


4 3
−2 5
4 1

 tenemos
A 1 = m´ax(10, 9) = 10
A 2 = (71 +
√
145)/2 ≈ 6.4437
A ∞ = m´ax(7, 7, 5) = 7.
10
Ejemplo 1.8. Sea k : [0, 1] × [0, 1] → R una función continua en dos variables. Consideremos
el operador lineal A : C([0, 1]) → C([0, 1]), denida por
(Af)(t) =
1
0
k(t, s)f(s)ds, (1.20)
y las normas de la proposición proposición 1.1. Con la notación de (1.15) tenemos
A 1 = m´ax
s∈[0,1]
1
0
|k(t, s)|dt, A ∞ = m´ax
t∈[0,1]
1
0
|k(t, s)|ds,
A 2 ≤
1
0
1
0
|k(t, s)|2dsdt.
Las fórmulas para A 1 y A ∞ son obtenidas como en el ejemplo (??), la estimación para
A 2 se hace como en (ver...).
Demostración. Para A ∞:
Af ∞ = m´ax
t∈[0,1]
1
0
k(t, s)f(s)ds ≤ m´ax
t∈[0,1]
1
0
|k(t, s)| |f(s)|
≤ f ∞
ds ≤ m´ax
t∈[0,1]
1
0
|k(t, s)|ds f ∞,
dividiendo por f ∞ y tomando supremo sobre f = 0 obtenemos la estimación A ∞ ≤
m´axt∈[0,1]
1
0
|k(t, s)|ds
Proposición 1.6 (La serie geométrica de Neumann)
Sea E un espacio de Banach y supongamos que el operador A ∈ L(E) satisface A 
1. Entonces, I − A es invertible, (I − A)−1
es continua y tenemos
(I − A)−1
= I + A + A2
+ A3
+ · · · (1.21)
Demostración. Mostremos primero que An := I + A + A2
+ · · · + An
es una sucesión de
Cauchy en L(E). Utilizando que An
≤ A n
, obtenemos para m  n que
An − Am = An+1
+ · · · + Am
≤ An+1
+ · · · + |Am
≤ A n+1
+ A n
≤
A n+1
1 − A
(observemos que A n+1
→ 0 cuando n → ∞). Por la proposición 1.4, L(E) es completo,
luego la sucesión {An} converge hacia un B ∈ L(E). Pasando al límite n → ∞ en la
composición de aplicaciones continuas An(I − A) = (I − A)An = I − An+1, obtenemos
B(I − A) = (I − A)B = I, lo cual demuestra la inversibilidad de I − A y la fórmula
(1.21).
11
1.4. Diferenciabilidad en los espacios normados
Daremos ahora la generalización directa de la denición (1.2)
Denición 1.7. Sean E y F dos espacios vectoriales normados y U ⊂ E abierto. Decimos
que f : U → F es derivable en a ∈ U si existe una aplicación lineal f (a) ∈ L(E, F) tal que
f(x) = f(a) + f (a)(x − a) + r(x) x − a (1.22)
donde la función r : U → F satisface r(x) → 0 para x → a.
Poniendo h = x − a, la expresión de arriba también se escribe
f(a + h) = f(a) + f (a)h + r(h) h (1.23)
donde r satisface r(h) → 0 para h → 0
Respecto a la denición usual de diferenciabilidad en Rn
, pedimos que la aplicación lineal
f (a) sea continua. Esto es importante ya que una aplicación lineal en espacios de dimensión
innita podría no ser continua (ver ejemplo 1.5).
Ejemplo 1.9. Si f : E → F es lineal y continua, tenemos que f (a) = f para todo a ∈ E.
En efecto f(a + h) = f(a) + f(h), lo cual sugiere la denición f (a) = f y r(h) = 0
Ejemplo 1.10. Sea E = R3
, F = R2
y f : E → F dada por
f(x) =
f1(x1, x2, x3)
f2(x1, x2, x3)
=
x2
1 + x2
2 + x2
3
x1x2x3
.
Su derivada en el punto a = (a1, a2, a3)T
es la aplicación lineal f (a) ∈ L(R3
, R2
) denida
por la matriz
f (a) =
2a1 2a2 2a3
a2a3 a1a3 a1a2
.
Se verica que la aplicación r(x) de (1.22) verica r(x) → 0 cuando x → a. Como todas
las normas en Rn
son equivalentes, no es necesario precisar la norma con la que se trabaja.
Además, una aplicación lineal de Rn
en Rm
siempre es continua.
Ejemplo 1.11. Sea E = F = M(n, R) el espacio de matrices de dimensión n. Consideremos
la aplicación f : E → E dada por f(X) = XT
X + 3X. Entonces
f(A + H) − f(A) = AT
H + HT
A + 3H + HT
H
sugiere que f (A) es la aplicación lineal dada por f (A)H = AT
H + HT
A + 3H y r(H) =
(HT
H)/ H . Para ver que se trata efectivamente de la derivada se debe tener r(H) → 0
para H → 0, lo cual se puede ver de HT
H ≤ HT
· H .
Ejemplo 1.12. Sea E = Rn[x] = {P ∈ R[x] | deg ≤ n}. Consideremos f : E → R denida
por f(P) =
1
0
sin(tP(t))dt. Esta aplicación es diferenciable en todo P ∈ E. En efecto
f(P + H) − f(P) =
1
0
(sin(t(P + H)(t)) − sin(tP(t))) dt (1.24)
Utilizando un desarrollo de Taylor de orden 2
sin(tP(t) + tH(t)) = sin(tP(t)) + tH(t) cos(tP(t)) − t2
H(t)2
sin(
12
Ejemplo 1.13. Consideremos el espacio C([0, 1]) con la norma · ∞, notemos sus elementos
por x(t) o a(t), y estudiemos la aplicación f : C([0, 1]) → C([0, 1]),
f(x)(t) =
1
0
k(t, s)g(x(s))ds (1.25)
donde k : [0, 1] × [0, 1] → R es continua y g : R → R es dos veces continuamente derivable.
Para una función a ∈ C([0, 1]), busquemos la derivada f (a). Con un h ∈ C([0, 1]) tenemos
(f(a + h) − f(a))(t) =
1
0
k(t, s) (g(a(s) + h(s)) − g(a(s))) ds
=
1
0
k(t, s) g (a(s)) +
1
2
g (α(s))h(s) h(s)ds,
donde en la última linea hemos aplicado un desarrollo de Taylor de orden 2 y α(s) es una
valor entre a(s) y a(s)+h(s). Este cálculo muestra que la aplicación lineal f (a) : C([0, 1]) →
C([0, 1]) denida por
(f (a)h) (t) :=
1
0
k(t, s)g (a(s))h(s)ds,
es un buen candidato para la derivada de f. Esta aplicación es continua (ver el ejemplo 1.8).
Además, el resto puede ser estimado por
f(a + h) − f(a) − f (a)h ∞ = m´ax
t∈[0,1]
1
0
1
2
k(t, s)g (α(s))h(s)2
ds
≤ C h 2
∞,
donde C es una constante, ya que g (α(s)) está acotada en el intervalo que contiene a a(s)
y a(s) + h(s) para todo s ∈ [0, 1] y desde luego k continua sobre el compacto [0, 1] × [0, 1]
está acotada.
Denición 1.8. Una aplicación A : E → F entre dos espacios vectoriales normados es un
isomorsmo, si A es lineal, biyectiva , continua y si la inversa A−1
es continua
1
.
Denotamos por
GL(E, F) := {A ∈ L(E, F) | A es un isomorsmo }. (1.26)
Para E = F, escribimos también GL(E) en lugar de GL(E, E).
Lema 1.1
Si E y F son dos espacios de Banach, el conjunto GL(E, F) es abierto en L(E, F).
Demostración. Para A ∈ GL(E, F), A + H es un isomorsmo para todo H con H ≤
1/ A−1
. Esto se sigue de A + H = A(I + A−1
H), de A−1
H ≤ A−1
H  1, y de la
proposición 1.6.
1La continuidad de A−1
es una consecuencia de las hipótesis sobre A. La demostración de ese resultado
es difícil y utiliza el teorema de la aplicación abierta del análisis funcional.
13
Ejemplo 1.14. Consideremos la aplicación f(X) = X−1
de GL(E) en L(E) (donde E es un
espacio de Banach). Con la serie de Neumann (proposición 1.6) tenemos
(A + H)−1
= (I + A−1
H)−1
A−1
= A−1
− A−1
HA−1
+
j≥2
(−A−1
H)j
A−1
,
cuya parte lineal es
f (A)H = −A−1
HA−1
. (1.27)
La continuidad de f (A) es una consecuencia de f (A)H ≤ A−1 2
H y la proposición 1.3
ya que f (A) está acotada en la bola unidad. El resto j≥2(−A−1
H)j
A−1
puede ser estimado
por
N
j=2
(−A−1
H)j
A−1
≤ A−1 3
H 2
+ · · · + A−1 N+1
H N
≤
A−1 3
H 2
1 − A−1 H
,
Pasando al límite N → ∞ y gracias a la continuidad de la norma tenemos que
j≥2
(−A−1
H)j
A−1
≤
A−1 3
H 2
1 − A−1 H
.
Dividiendo esta estimación por H , esta tiende a cero si H → 0. Esto demuestra la
diferenciabilidad de f(X) = X−1
asi como la fórmula (1.27).
Denición 1.9. Para dos espacios vectoriales E1 y E2 de normas respectivas · 1 y · 2,
consideremos el producto cartesiano E1 × E2. Si le dotamos de la norma
(x1, x2) := x1 1 + x2 2, (1.28)
obtenemos un espacio vectorial normado llamado espacio producto. Es un espacio de Banach
si los espacios E1 y E2 son espacios de Banach. La vericación de estas armaciones es un
ejercicio de rutina.
Ejemplo 1.15. Sea B : E1 × E2 → F una aplicación bilineal acotada, es decir, esta satisface
B(x1, x2) ≤ M x1 1 x2 2 para todo (x1, x2) ∈ E1 × E2. (1.29)
Una aplicación como esta es diferenciable y su derivada está dada por
B (a1, a2)(h1, h2) = B(a1, h2) + B(h1, a2). (1.30)
En efecto, la bilinealidad
B(a1 + h1, a2 + h2) = B(a1, a2) + B(a1, h2) + B(h1, a2) + B(h1, h2),
nos dice que la derivada está dada por
B (a1, a2)(h1, h2) = B(a1, h2) + B(h1, a2). (1.31)
La continuidad de B (a1, a2) resulta de B (a1, a2)(h1, h2) ≤ M( a1 1 h2 2 + h1 1 a2 2) ≤
M m´ax( a1 1, a2 2) (h1, h2) . En cuanto al resto B(h1, h2) tenemos que B(h1, h2) ≤
M h1 1 h2 2 ≤ M( h1
2
1 + h2 2)2
/4 = M (h1, h2) 2
/4.
2
2Acá utilizamos la desigualdad (a + b)2
≥ 4ab.
14
Teorema 1.1 (Reglas del cálculo diferencial)
i) Linealidad de la derivada. Sean f, g dos aplicaciones U → F (U es un abierto de
E) diferenciables en a ∈ U, y sea λ ∈ R. Entonces, tenemos
(f + g) (a) = f (a) + g (a), (λf) (a) = λf (a). (1.32)
ii) Regla de la cadena. Sean E, F, G tres espacios vectoriales normados, sea U un
abierto de E y sea V un abierto de F. Consideremos dos aplicaciones, f : U → F
diferenciable en a ∈ U y g : V → G diferenciable en b = f(a) ∈ V (supondremos
que f(U) ⊂ V ). Entonces g ◦ f es diferenciable en a ∈ U y tenemos
(g ◦ f) (a) = g (f(a)) ◦ f (a). (1.33)
iii) Fórmula de Leibniz. Sean E, F1, F2, G espacios vectoriales normados, U un abierto
de E, f : U → F1 y g : U → F2 aplicaciones diferenciables en a ∈ U, y B :
F1 ×F2 → G una aplicación bilineal acotada (es decir satisface (1.29)). Entonces,
la función p(x) := B(f(x), g(x)) es diferenciable en a y tenemos
p (a)h = B(f(a), g (a)h) + B(f (a)h, g(a)). (1.34)
Demostración. i) La prueba es trivial.
ii) Es la misma que para funciones en Rn
. Sea k(h) = f(a + h) − f(a). Como g es diferen-
ciable en b = f(a) tenemos
g(f(a + h)) − g(f(a)) = g (f(a))k(h) + r1(k(h)) k(h) con l´ım
k→0
r1(k) = 0.
Además, como f es diferenciable en a, tenemos también
k(h) = f(a + h) − f(a) = f (a)h + r2(h) h con l´ım
h→0
r2(h) = 0.
Luego,
g(f(a + h)) − g(f(a)) = g (f(a))f (a)h + h g (f(a))r2(h) + r1(k(h)) k(h) . (1.35)
El primer término tiene la forma deseada y es una aplicación lineal continua por se com-
posición de dos aplicaciones lineales continuas. En cuanto al resto, primero observemos
que k(h) ≤ f (a) h + r2(h) h y l´ımh→0 r1(k(h)) = 0, lo que permite mostrar
que r1(k(h)) k(h) = o(h). El argumento es similar para el otro término.
iii) Demos p = B ◦ d donde d : U → F1 × F2 es la aplicación dada por d(x) = (f(x), g(x)).
La aplicación d es derivable en a con derivada d (a)h = (f (a)h, g (a)h). Luego por la
regla de la cadena y la fórmula (1.31) la derivada de p está dada por
p (a)h = B (d(a))d (a)h = B (f(a), g(a))(f (a)h, g (a)h)
= B(f(a), g (a)h) + B(f (a)h, g(a)).
15
La regla de la cadena puede ser expresada en términos de matrices cuando los espacios
son de dimensión nita son Rn
, Rm
y Rs
respectivamente. En ese caso, en términos de las
matrices jacobianas tenemos
Jg◦f (x) = Jg(f(x))Jf (x),
la multiplicación de las matrices jacobianas.
1.5. Teorema de los incrementos nitos
Para una función f : [a, b] → R, el teorema de incrementos nitos (o teorema de Lagrange)
arma que existe un ξ ∈ (a, b) tal que
f(b) − f(a) = f (ξ)(b − a),
si f es continua en [a, b] y derivable en (a, b).
Para una función f : [a, b] → Rm
, la armación bajo esa forma ya no es verdadera. Un
contra-ejemplo es la funcíon f(x) = (cos x, sin x)T
y [a, b] = [0, 2π]. Se tiene que f(a) = f(b),
pero no existe ξ con f (ξ) = 0. Por el contrario, vemos que la desigualdad f(b) − f(a) ≤
f (ξ) · b − a todavía es verdadera en este ejemplo.
En un primer teorema vamos a considerar funciones f : [a, b] → F donde F es un espacio
vectorial normado. La demostración será un poco diferente a la que se conoce para funciones
de [a, b] en Rm
(ver...) ya que no necesariamente disponemos de un producto escalar en F.
Luego, extenderemos el resultado a funciones f : U → F, donde U ⊂ E y E es otro espacio
vectorial normado.
Lema 1.2
Sean a  b dos reales, F un espacio vectorial normado, f : [a, b] → F y g : [a, b] → R
dos aplicaciones continuas en [a, b] y derivables en (a, b). Supongamos que f (t) ≤
g (t) para a  t  b. Entonces,
f(b) − f(a) ≤ g(b) − g(a).
Demostración. Para ε  0 dado, consideremos la desigualdad
f(t) − f(a) ≤ g(t) − g(a) + ε(t − a) + ε. (1.36)
Esta se verica estrictamente para t = a y también, por continuidad de f y g, en una
vecindad de a. Entonces, el supremo
c := sup{t ∈ [a, b] | (1.36) se cumple }
existe y tenemos c  a.
Mostremos que la desigualdad (1.36) se cumple también para c. Por denición de supremo,
existe una sucesión {tn}, tn → c tal que f(tn)−f(a) ≤ g(tn)−g(a)+ (tn −a)+ . Pasando
al límite n → ∞, la continuidad de f y g muestra la desigualdad (1.36) para t = c.
16
En realidad c = b. Por el absurdo, supongamos que c  b. La diferenciabilidad de f y g en
el punto c implica que existe un η  0 tal que
f(t) − f(c) ≤ f (c) (t − c) +
ε
2
(t − c)
g(t) − g(c) ≥ g (c)(t − c) −
ε
2
(t − c)
para todo t ∈ [c, c + η]. La hipótesis f (c) ≤ g (c) implica entonces que
f(t) − f(c) g (c)(t − c) +
ε
2
(t − c) ≤ g(t) − g(c) + ε(t − c).
Esto, además de la desigualdad (1.36) para t = c implica que
f(t) − f(a) ≤ f(t) − f(c) + f(c) − f(a)
≤ g(t) − g(c) + ε(t − c) + g(c) − g(a) + ε(c − a) + ε
= g(t) − g(a) + ε(t − a) + ε
para todo t ∈ [c, c + η], lo que contradice que c es el supremo. Por lo tanto, tenemos c = b.
Dejando tender ε hacia 0 en (1.36) con t = b, obtenemos la armación del lema.
Consideremos ahora la situación en la que f está denida sobre una abierto U de un
espacio vectorial normado E, que ya no es necesariamente R.
Denición 1.10. Para a, b ∈ E espacio vectorial normado, llamamos segemento de extremi-
dades a y b al conjunto de puntos x ∈ E de la forma x = a + t(b − a) con 0 ≤ t ≤ 1.
Teorema 1.2 (Teorema de los incrementos nitos)
Sean E, F espacios vectoriales normados y U ⊂ E un abierto. Si f : U → F es
diferenciable en U y si el segmento de extremidades a, b está contenido en U, entonces
f(b) − f(a) ≤ sup
0t1
f (a + t(b − a)) · b − a . (1.37)
Demostración. La aplicación h(t) := f(a + t(b − a)) es una aplicación diferenciable de [0, 1]
en F y por la regla de la cadena tenemos h (t) = f (a + t(b − a))(b − a), entonces
h (t) ≤ f (a + t(b − a) (b − a) .
Luego, basta aplicar el lema 1.2, reemplazando a por 0 , b por 1, f por h y g(t) por Mt
donde M = sup0s1 f (a + s(b − a) b − a .
17
Denición 1.11. Decimos que un conjunto D de un espacio vectorial es convexo si, para
cualesquiera a, b ∈ D, el segmento de extremidades a y b, {a + t(b − a) | t ∈ [0, 1]}, está en
D.
Corolario1.1
Sean E, F dos espacios vectoriales normados, U ⊂ E un abierto, f : U → F derivable
en U y D un conjunto convexo. Entonces,
f(x) − f(y) ≤ sup
z∈D
f (z) · x − y para x, y ∈ D.
Demostración. Es una consecuencia inmediata del Teorema 1.2 ya que por la convexidad,
cualquier segmento con extremidades x, y en D está contenido en D y el supremo sobre ese
segmento es menor o igual al supremo sobre D.
Denición 1.12. Un abierto U de un espacio vectorial normado es conexo, si dos puntos
cualesquiera de U pueden ser unidos por una linea quebrada en U. Una linea quebrada es
la union nita de segmentos ∪m
i=1{ai−1 + t(ai − ai−1) | t ∈ [0, 1]}.
Corolario1.2
Sean E, F dos espacios vectoriales normados, U un abierto conexo de E y f : U → F
una aplicación diferenciable en U. Si f (x) = 0 para todo x ∈ U, entonces f es
constante.
Demostración. Fijemos a ∈ U y tomemos x ∈ U arbitrario. Como U es conexo, existe una
sucesión nita a = a0, a1, ..., am = x tal que los segmentos {ai−1 + t(ai − ai−1) | t ∈ [0, 1]}
están en U. El Teorema 1.2 implica que:
f(ai) − f(ai−1) ≤ sup
0t1
f (ai−1 + t(ai − ai−1)) · ai − ai−1 = 0.
Entonces, f(ai) = f(ai−1) y en consecuencia también f(x) = f(a).
Ejemplo 1.16. Mostrar que el sistema de ecuaciones
x =
1
2
sin(x + y), y =
1
2
cos(x − y)
admite a lo sumo una solución.
Solución. Consideremos la aplicación f : R2
→ R2
denida por
f(x, y) =
1
2
sin(x + y),
1
2
cos(x − y) ,
y busquemos mayorar su derivada con la norma euclidiana · 2. Para (h, k) ∈ R2
tenemos
f (x, y)(h, k) =
1
2
cos(x + y) 1
2
cos(x + y)
1
2
sin(x − y) −1
2
sin(x − y)
h
k
18
1.6. Teorema del punto jo de Banach
Consideremos el problema de resolver una ecuación no lineal en un espacio de Banach.
Para funciones f y g de E en E, el problema puede ser formulado de la manera siguiente:
g(x) = 0, buscar un cero de g, o
f(x) = x, buscar un punto jo de f.
Poniendo f(x) = x + g(x) o g(x) = x + Ag(x) con A ∈ GL(E) podemos pasar de una
formulación a otra. El teorema siguiente nos proporciona una condición suciente para la
existencia y unicidad de una solución a ese problema.
Teorema 1.3 (Teorema del punto jo de Banach 1922)
Sean E un espacio de Banach, D ⊂ E cerrado y f : D → E una aplicación que
satisface
a) f(D) ⊂ D,
b) f es una contracción sobre D, es decir, existe un α  1 tal que
f(x) − f(y) ≤ α x − y para todo x, y ∈ D. (1.38)
Entonces, f posee un único punto jo x = f(x) en D.
Observación 1.4. La condición (1.38) implica que f es uniformemente continua sobre D.
Inversamente, si f es derivable en una vecindad de D, si D es convexo y si supx∈D f (x) 
1, entonces f es una contracción. Esto es una consecuencia del Corolario 1.1.
Demostración. Unicidad. Sean x y y dos puntos jos, es decir, f(x) = x y f(y) = y. La
contractividad implica que
x − y = f(x) − f(y) ≤ α x − y
con α  1, lo cual es posible solamente si x = y.
Existencia. Tomemos x0 ∈ D arbitrario y consideremos la iteración xn+1 = f(xn). La hipó-
tesis f(D) ⊂ D implica que xn ∈ D para todo n ≥ 0. Mostremos que {xn} es una sucesión
de Cauchy. Tenemos que xn+1 −xn = f(xn)−f(xn−1) ≤ α xn −xn−1 y, aplicando esta
desigualdad iterativamente, tenemos que
xn+1 − xn ≤ αn
x1 − x0 .
Para m ≥ n de lo anterior deducimos que
xm − xn ≤ xm − xm−1 + xm−1 − xm−2 + · · · + xn+1 − xn
≤ αm−1
+ αm−2
+ · · · + αn
x1 − x0
≤
αn
1 − α
x1 − x0 .
19
Entonces, {xn} es una sucesión de Cauchy (observemos que αn
→ 0). Como el espacio
E es completo, esta sucesión converge hacia un x ∈ E. El límite x está en D, ya que D
es cerrado. Tomando el límite n → ∞ en xn+1 = f(xn) y utilizando la continuidad de f
(l´ım f(xn) = f (l´ım xn)), obtenemos x = f(x), es decir, x es un punto jo de f.
La demostración del teorema del punto jo de Banach es constructiva y nos conduce al
algoritmo siguiente.
Método de aproximaciones sucesivas. Para resolver un problema x = f(x) en un espacio
de Banach, este método está denido por:
elegir x0 arbitrariamente,
aplicar la iteración xn+1 = f(xn).
Bajo las hipótesis del teorema, este algoritmo converge hacia la solución única del problema.
A menudo, las hipótesis son difíciles de vericar, pero podemos de todas formas aplicar el
algoritmo. Si tenemos convergencia, estamos seguros de haber encontrado un solución (si f
es continua). Esta solución sin embargo, no es necesariamente única.
Ejemplo 1.17. Tomemos la funcíon f(x) = cos x sobre D = [0, 1]. Esta función es una
contracción, ya que |f (x)| = | sin x| ≤ sin 1  1 para x ∈ D. Otro ejemplo es la función
f(x) = ex
/4 sobre D = [0, 1.1]. Para esta función tenemos |f (x)| = ex
/4 ≤ e1.1
/4  1. Las
iteraciones están ilustradas en la gura (...)
Ejemplo 1.18. Consideremos el sistema de dos ecuaciones no lineales con dos incógnitas
x = 2 +
x2
+ y2
20
, y = 1 −
xy3
10
.
La solución de este sistema puede verse como el punto jo de la función
f(x, y) = 2 + (x2
+ y2
)/20, 1 − xy3
/10
T
.
Sin vericar las hipótesis del teorema del punto jo de Banach, aplicando el método iterativo
con los valores iniciales x0 = 2, y0 = 1 se obtiene
20
x1 = 2.2500000 y1 = 0.8000000,
x2 = 2.2851250 y2 = 0.8848000,
x3 = 2.3002333 y3 = 0.8417129,
x4 = 2.2999777 y4 = 0.8628284,
y se observa convergencia hacia la solución x = 2.3014505, y = 0.8557662 del sistema.
Ejemplo 1.19. (Ecuación de Fredolhm) Consideremos el espacio de Banach C([0, 1]) con la
norma · ∞ y el problema de punto jo T(y) = y, donde T : C([0, 1]) → C([0, 1]) el el
operador denido por
T(y)(t) = f(t) + λ
1
0
k(t, s)y(s)ds, (1.39)
donde f y k son funciones continuas y λ es un número tal que |λ|·m´ax0≤t≤1
1
0
|k(t, s)|ds  1
de manera que T es una contracción (ver el ejemplo 1.8). El método de aproximaciones
sucesivas se escribe como sigue: tomamos una aproximación inicial, por ejemplo y0(t) = f(t),
luego iteramos según la fórmula
yn+1(t) = f(t) + λ
1
0
k(t, s)yn(s)ds.
La sucesión {yn(t)} converge hacia la solución única de T(y) = y.
Consideremos ahora el problema de resolver f(x) = y para un vector y dado y busquemos
resultados sobre la existencia y unicidad (local) de una solución, es decir, buscamos resultados
sobre la biyectividad de la función f. Además, desearíamos saber si la solución depende
continuamente del parámetro y. Esto está resumido en la denición siguiente.
Denición 1.13. Sean E y F dos espacios vectoriales normados , U ⊂ E y V ⊂ F. Una
aplicación f : U → V es un homeomorsmo de U sobre V si f es biyectiva, continua y si la
inversa f−1
: V → U es continua.
Método de Newton y Newton simplicado Supongamos f(a) = b y consideremos el problema
f(x) = y para un y dado cerca de b. Sea x0 una aproximación de la solución buscada (por
ejemplo x0 = a). La idea es linealizar el problema alrededor de x0 para obtener una mejor
aproximación x1:
f(x0) + f (x0)(x1 − x0) = y o x1 = x0 − f (x0)−1
(x1 − x0).
Iterando este procedimiento, obtenemos el método de Newton
xn+1 = xn − f (xn)−1
(f(xn) − y)) (1.40)
(ver la gura ...). Esta fórmula puede interpretarse como el método de aproximaciones suce-
sivas aplicado a x = g(x) donde la función de punto jo es g(x) = x − f (x)−1
(f(x) − y).
En la práctica, a menudo reemplazamos f (xn) por una aproximación A que no dependa
de xn (por ejemplo A = f (x0)). Esto simplica el cálculo numérico y la teoría (estudio de
convergencia, etc). En este caso, consideramos una variante del método de Newton conocido
como método de Newton simplicado, que se escribe como xn+1 = g(xn) con
g(x) := x − A−1
(f(x) − y). (1.41)
21
Proposición 1.7
Sean E y F dos espacios de Banach, B := {x ∈ E | x − a ≤ ρ}, A : E → F un
isomorsmo y f : B → F que satisface
x − z − A−1
(f(x) − f(z)) ≤ α x − z para x, z ∈ B (1.42)
con α  1. Entonces
i) f es un homeomorsmo de B en f(B),
ii) con σ =
ρ(1 − α)
A−1
se tiene {y ∈ F | y − f(a) ≤ σ} ⊂ f(B),
iii) para y ∈ F que satisface y − f(a) ≤ σ, la iteración x0 = a, xn+1 = g(xn)
(método de Newton simplicado) converge hacia la solución f(x) = y.
Demostración. I) La aplicación g(x) denida en (1.41) es una contracción sobre B con factor
contractante α por nuestra hipótesis. La continuidad de f(x) es entonces una consecuencia
de
f(x) − f(z) = A(x − g(x)) + y − A(z − g(z)) − y
= A(x − z) − A(g(x) − g(z))
≤ A (1 + α) x − z .
De la denición de g(x) deducimos que x − z = g(x) − g(z) + A−1
(f(x) − f(z)) y obtenemos
la estimación x − z ≤ α x − z + A−1
f(x) − f(z) . Tenemos entonces
x − z ≤
A−1
1 − α
f(x) − f(z) para x, z ∈ B. (1.43)
La función f : B → f(B) es sobreyectiva por denición. La propiedad (1.43) demuestra
que también en inyectiva y por lo tanto biyectiva. Poniendo u = f(x) y v = f(z) en (1.43),
obtenemos
f−1
(u) − f−1
(v) ≤
A−1
1 − α
u − v , (1.44)
lo cual demuestra la continuidad de f−1
sobre f(B).
I y II) Consideremos ahora un y ∈ F con y − f(a) ≤ σ. Mostremos que g(B) ⊂ B. Esto
se desprende de g(x) − a = g(x) − g(a) + g(a) − a = g(x) − g(a) − A−1
(f(a) − y), ya que en
norma
g(x) − a ≤ α x − a + A−1
· f(a) − y ≤ αρ + A−1
σ = ρ
22
para un x ∈ B. Como B es una bola cerrada, podemos aplicar el teorema del punto jo de
Banach. Para un tal y existe un x ∈ B tal que g(x) = x, es decir f(x) = y, lo cual muestra
al mismo tiempo la armación II).
Si f(x) es diferenciable en a (el centro de la bola B), es natural escoger A = f (a) siempre
que esta aplicación sea un isomorsmo. Pero la diferenciabilidad en a no garantiza que la
estimación (1.43) se verique con un α  1. Consideremos entonces una condición más fuerte
que la diferenciabilidad.
Denición 1.14. Sean E y F dos espacios vectoriales normados, U ⊂ E un abierto y a ∈ U.
Decimos que f : U → F es estrictamente diferenciable en a si existe un aplicacioón lineal
continua A : e → F tal que
f(x) − f(z) = A(x − z) + r(x, z) x − z , (1.45)
donde la función r : U × U → F satisface r(x, z) → 0 si (x, z) → (a, a).
Si ponemos z = a en (1.45) econtramos (1.22) con A = f (a). Asi estrictamente dife-
renciable en a implica diferenciable en a, algo que es bueno para la terminología elegida.
Observemos también de (1.45) que una función estrictamente diferenciable en a es continua
en toda una vecindad de a.
Ejemplo 1.20. Existen funciones que son diferenciables en a, pero no estrictamente diferen-
ciables en a. Podemos tomar una función que sea diferenciable en a pero que no continua en
ninguna vecindad de a. Un ejemplo es la función f(x) = x2
cos(1/x) en a = 0. Las sucesiones
xn = (2nπ)−1
y zn = ((2n + 1)π)−1
convergen hacia cero, pero (f(xn) − f(zn))/(xn − zn) =
(x2
n + z2
n)/(xn − zn) no converge hacia f (0) = 0 si n → ∞.
Proposición 1.8
Sean E y F espacios vectoriales normados, U ⊂ E un abierto y a ∈ U. Si f : U → F
es diferenciable en U y si la aplicación f : U → L(E, F) es continua en el punto a,
entonces f es estrictamente diferenciable.
Demostración. Denamos g(x) := f(x) − f (a)x, entonces f(x) − f(z) = f (a)(x − z) +
g(x) − g(z), que podemos escribir también como
f(x) − f(z) = f (a)(x − z) +
g(x) − g(z)
x − z
· x − z ,
De manera que r(x, z) = g(x)−g(z)
x−z
. Apliquemos el teorema de incrementos nitos a g(x).
Como la derivada de g(x) es g (x) = f (x) − f (a), tenemos
g(x) − g(z) ≤ sup
0t1
f (z + t(x − z)) − f (a) · x − z .
La continuidad de f (x) en a implica que la expresión sup0t1 f (z + t(x − z)) − f (a)
tiende a cero si (x, z) → (a, a). Por lo tanto, también r(x, z).
23
Ejemplo 1.21. Retomemos la función f(X) = X−1
del ejemplo 1.14, para el cual la derivada
es f (X)H = −X−1
HX−1
. Mostremos que esta función es estrictamente diferenciable en
GL(E). Como f(X) es continua en A ∈ GL(E), tenemos que para todo ε  0 existe un
δ  0 tal que X−1
− A−1
 0 si X − A  δ. Escribiendo
f (X)H − f (A)H = −X−1
HX−1
+ A−1
HA−1
= −X−1
H(X−1
− A−1
) − (X−1
− A−1
)HA−1
,
se obtiene (f (X) − f (A))H ≤ ε( X−1
+ A−1
) H . Deducimos que f (X) − f(A) ≤
ε( X−1
+ A−1
) y por lo tanto la continuidad de f (X) en el punto A. Esto nos permite
aplicar la proposición proposición 1.8.
Para la mayoría de los ejemplos del párrafo I.4, podemos mostrar sin dicultad que f (x),
considerada como función de x, es continua. Entonces, la proposición proposición 1.8 implica
que son estrictamente diferenciables.
1.7. Teorema de Inversión local
Continuamos el estudio de la resolución de ecuaciones no lineales f(x) = 0 (o f(x) = y
para un y dado) en un espacio de Banach.
Ejemplo 1.22. Consideremos el sistema no lineal
x2
1 + x3
2 − 3x1 = y1
x4
1 − x2
1x2 + 2 = y2
(1.46)
Para (x1, x2) = (1, 2) obtenemos (y1, y2) = (6, 1). La pregunta que nos gustaría responder es
la siguiente: para (y1, y2) cerca de (6, 1), existe una solución (x1, x2) de (1.46) que esté cerca
de (1, 2)? es esta solución única?
Denición 1.15. Sean E, F dos espacios vectoriales normados y U ⊂ E un abierto. Una apli-
cación f : U → F es un homeomorsmo local cerca de a ∈ U si existe una vecindad abierta
U ⊂ U de a y una vecindad V de f(a) tales que la restricción f|U es un homeomorsmo
de U en V .
Lema 1.3
Sean E, F espacios de Banach, U ⊂ E un abierto y a ∈ U. Si f : U → F es estric-
tamente diferenciable en a y si f (a) es un isomorsmo de E en F, entonces f es un
homeomorsmo local cerca de a. Además, la aplicación inversa f−1
es estrictamente
diferenciable en b = f(a) y se tiene
(f−1
) (b) = f (a)−1
. (1.47)
Demostración. La idea es aplicar la proposición 1.7 con A = f (a). La función f es estricta-
mente diferenciable en a, es decir
f(x) − f(z) − f (a)(x − z) = r(x, z) x − z , (1.48)
24
con r(x, z) → (0, 0) cuando (x, z) → (a, a). Esto signica que para todo ε  0 existe un
δ  0 tal que r(x, z)  ε para x, z ∈ B, donde B = {x ∈ E | x − a  δ}. Aplicando
f (a)−1
a (1.48) y pasando a normas tenemos
x − z − f (a)−1
(f(x) − f(z)) ≤ ε f (a)−1
· x − z para x, z ∈ B. (1.49)
Fijemos ε  0 tal que ε f (a)−1
≤ 1/2. Para el δ correspondiente, f es un homeomorsmo
de B en f(B) (proposición 1.7) y f(B) contiene al abierto V = {y ∈ F | y −b  σ} donde
σ := δ/(2 f (a)−1
). Por lo tanto, f es también un homeomorsmo del abierto U := f−1
(V )
en V .
Para mostrar que f−1
es estrictamente diferenciable en b = f(a), pongamos x = f−1
(u) y
z = f−1
(v) en (1.49). Esto nos da para u, v ∈ V que
f−1
(u) − f−1
(v) − f (a)−1
(u − v) ≤ ε f (a)−1
· f−1
(u) − f−1
(v) ≤ 2ε f (a)−1 2
u − v
(acá se ha utilizado la estimación (1.44) con A = f (a) y α = 1/2). Por lo tanto f−1
es
estrictamente diferenciable en b y la derivada está dada por (1.47).
Ejemplo 1.23. Para el problema del ejemplo 1.22 tenemos
f (a) =
2a1 − 3 3a2
2
4a3
1 − 2a1a2 −a2
1
=
−1 12
0 −1
. (1.50)
Para la norma euclidiana, calculamos f (a)−1
≈ 12.1. Si ponemos ε = 0.04, podemos
encontrar un δ  0 tal que (1.49) se cumple. Para todo y ∈ R2
con y − b ≤ 2δ/12.1, el
sistema (1.46) posee una solución x que satisface x − a ≤ δ. En esta bola de radio δ, no
hay otra solución. Además, la demostración del lema 1.3 muestra que el método de Newton
simplicado converge hacia esta solución.
El objetivo siguiente es estudiar si la solución de f(x) = y depende de manera continua
de y. Más precisamente, estudiamos las condiciones bajo las cuales la función inversa es
diferenciable en toda una vecindad de b = f(a).
Denición 1.16. Sean E, F dos espacios vectoriales normados, U ⊂ E y V ⊂ F abiertos.
f : U → F es continuamente diferenciable (o de clase C1
) sobre U, si f es diferenciable
en todo punto de U y si f : U → L(E, F) es continua. Este conjunto de funciones se
denota por C1
(U).
25
f : U → V es un difeomorsmo (de clase C1
) de U en V , si f es biyectiva, continuamente
diferenciable y si la inversa f−1
: V → U es continuamente diferenciable.
f : U → F es un difeomorsmo local cerca de a ∈ U, si existe una vecindad abierta
U ⊂ U de a y una vecindad abierta V de f(a) tales que f es un difeomorsmo de U
en V .
Observemos que un homeomorsmo que es continuamente diferenciable no siempre es
un difeomorsmo. La función f : R → R denida por f(x) = x3
nos sirve de como contra-
ejemplo, ya que la inversa f−1
(y) = 3
√
y es continua pero no diferenciable en el origen.
Una función que es continuamente diferenciable sobre U es estrictamente diferenciable
sobre U. Esto es una consecuencia de la proposición 1.8
Teorema 1.4 (Teorema de inversión local)
Sean E, F espacios de Banach, U ⊂ E un abierto y a ∈ U. Una aplicación f : U → F de
clase C1
es un difeomorsmo local cerca de a, si y solamente si f (a) es un isomorsmo
de E en F. Además, tenemos
(f−1
) (y) = f (x)−1
para y = f(x) en una vecindad de b = f(a).
Demostración. ⇒: Si f : U → F es un difeomorsmo local cerca de a, podemos derivar la
identidad f−1
(f(x)) = x. Esto da
(f−1
) (y)f (x) = I con y = f(x) (1.51)
en una vecindad de a. En consecuencia, f (a) es inversible. La inversa f (a)−1
= (f−1
) (b) es
una aplicación acotada ya que f−1
es diferenciable en b por hipótesis.
⇐: Como f es de clase C1
y f (a) es un isomorsmo, el lema 1.3 implica que f es un ho-
meomorsmo local cerca de a. Queda por probar que f−1
es continuamente diferenciable en
una vecindad de b = f(a). Como f (x) está cerca de f (a) (continuidad de f : U → L(E, F))
y GL(E, F) es abierto (lema 1.1), f (x) es un isomorsmo para todo x en una vecindad de U
de a. Podemos entonces aplicar el lema 1.3 a cada punto x ∈ U , lo cual implica la diferencia-
bilidad de f−1
en V := f(U ). Derivando la identidad f−1
(f(x)) = x, obtenemos (1.51) y por
lo tanto también (f−1
) (y) = f (f−1
(y))−1
para y ∈ V . La función (f−1
) : V → L(E, F)
por ser composición de aplicaciones continuas f−1
, f y (·)−1
, es por lo tanto continua.
El teorema de inversión local asegura la existencia de una vecindad U tal que f realiza
un difeomorsmo de U en f(U ). Nada impide, sin embargo, que exista un c ∈ U  U tal
que f(a) = f(c) = b. De todos modos, este difeomorsmo de U en f(U ) va a sernos de gran
utilidad.
26
Si tuvieramos la inyectividad global de f, mostraríamos que f realiza un difeomorsmo
global y el resultado es el siguiente:
Corolario1.3 (Teorema de inversión global)
Sean E, F espacios de Banach, U ⊂ E un abierto y f : U → F continuamente
diferenciable sobre U. Entonces f es un difeomorsmo de U en f(U) si y solamente si
(i) f es inyectiva sobre U y (ii) f (x) es un isomorsmo para todo x ∈ U.
Demostración. Este resultado es una consecuencia del Teorema 1.4, ya que la diferenciabili-
dad es una propiedad local.
Ejemplo 1.24. El teorema de inversión global (Corolario 1.3) en su versión para espacios
euclidianos nos dice que si U ⊂ Rn
es un abierto, f : U → Rn
es una función de clase
C1
inyectiva y tal que, para todo x ∈ U, la matriz jacobiana Jf (x) es inversible, es decir
det Jf (x) = 0. Entonces la imagen f(U) es un abierto y f es un difeomorsmo de clase C1
de U en f(U).
Ejemplo 1.25. (Coordenadas polares) Sea U = {(r, ϕ) ∈ R2
| r  0}, V = R2
{(0, 0)} y
f : U → V dada por f(r, ϕ) = (r cos ϕ, r sen ϕ). Esta aplicación es un difeomorsmo local
cerca de cada punto de U, ya que
f (r, ϕ) =
cos ϕ −r sin ϕ
sin ϕ r cos ϕ
y det f (r, ϕ) = r  0. Esta aplicación no es inyectiva (tenemos f(r, ϕ + 2π) = f(r, ϕ)). Por
lo tanto, no es un difeomorsmo de U en V . Si restringimos los conjuntos U y V a
U0 = {(r, ϕ) | r  0, −π  ϕ  π}, V0 = R2
 {(x, 0) | x ≤ 0},
f se vuelve un difeomorsmo de U0 en V0.
Ejemplo 1.26. Consideremos la aplicación f(u, v) = (u + v, u2
− v). Su derivada es
f (u, v) =
1 1
2u −1
,
esta aplicación es un difeomorsmo local cerca de todo punto (u, v) de R2
tal que u = −1
2
, ya
que det f (u, v) = −1 − 2u. A partir de f(u, v) = f(a, b) se puede probar que para que f sea
inyectiva, de igual manera 2u + 1 = 0. Luego f dene un difeomorsmo de (−∞, −1
2
) × R
en R2
o bien de (−1
2
, ∞) × R en R2
(un difeomorsmo es en particular un homeomorsmo
y debe preservar la conexidad).
27
Ejemplo 1.27. (Coordenadas esféricas) La aplicación
(r, ϕ, θ) → (r cos ϕ sin θ, r sin ϕ cos θ, r cos θ)
es un difeomorsmo de U = {(r, ϕ, θ) | r  0, −π  ϕ  π, 0  θ  π} sobre el conjunto
V = R3
 {(x, 0, z) | x ≤ 0, z ∈ R}, ya que el determinante de la matriz jacobiana es
det f (r, ϕ, θ) = −r2
sin θ = 0.
Ejemplo 1.28. (Transformación de Cayley) La aplicación
(x, y) →
1 − x2
− y2
(1 − x)2 + y2
,
2y
(1 − x)2 + y2
(1.52)
es un difeomorsmo del semiplano izquierdo {(x, y) | x  0} sobre el disco abierto }(u, v) | u2
+
v2
 1}. Para demostrar esto, identicamos R2
con el plano complejo (poniendo z = x + iy
y w = u + iv) y observemos que la aplicación (1.52) es equivalente a
w =
1 + z
1 − z
con inversa z =
w − 1
w + 1
.
Por lo tanto, la aplicación (1.52) es biyectiva y es continuamente diferenciable (como función
racional), asi como su inversa.
1.8. Teorema de funciones implícitas
En la sección anterior consideramos el problema de resolver f(y) = x y encontramos
condiciones sucientes que nos permiten de escribir la solución bajo la forma y = g(x)
(atención: hemos invertido los roles de x e y). El objetivo de esta sección es de extender el
resultado al problema
f(x, y) = 0 (1.53)
donde x, y y f(x, y) están en espacios de Banach. Buscamos saber si la ecuación (1.53) puede
ser resuelta para obtener y = g(x) tal que (al menos localmente)
f(x, y) = 0 ⇔ y = g(x) (1.54)
Ejemplo 1.29. El caso donde x, y y f(x, y) están en R son tratados en un curso de análisis I
(ver HW...). Consideremos como ejemplo la función
f(x, y) = 16x3
− 84x2
+ 162x − 89 + 27y3
+ 54xy2
− 108y2
+ 36x2
y − 180xy + 162y.
Para un punto (a, b) dado que satisface f(a, b) = 0 y
∂f
∂y
(a, b) = 0, existen vecindades U
de a, V de b y una función diferenciable g : U → V tales que (1.54) es verdadera para
(x, y) ∈ U ×V . Los puntos sobre la curba que tienen una una pendiente vertical u horizontal
pueden ser encontrados por la condición
∂f
∂x
(a, b) = 0 y
∂f
∂y
(a, b) = 0 respectivamente. En el
punto de intersección necesariamente tenemos que f(a, b) = 0,
∂f
∂x
(a, b) = 0 y
∂f
∂y
(a, b) = 0 (3
condiciones para 2 incógnitas).
28
Ejemplo 1.30. Una función f(x1, x2, y) = 0 representa, en general, una supercie en R3
.
¾Cuándo podemos escribir esta ecuación bajo la forma y = g(x1, x2)?
El sistema de dos funciones
f1(x, y1, y2) = 0, f2(x, y1, y2) = 0
representa la intersección de dos supercies en R3
. ¾Bajo qué condiciones podemos escribir
esta intersección bajo la forma y1 = g1(x), y2 = g2(x), lo cual representaría un curva en R3
?
Denición 1.17. Para una función f : U → G, U ⊂ E × F (donde E, F, G son espacios
de Banach), denimos la derivada parcial ∂f
∂y
(a, b) como la derivada de la aplicación h(y) =
f(a, y), donde a es considerada como un parámetro jo, es decir,
∂f
∂y
(a, b) := h (b). Si f es
de clase C1
, h es también de clase C1
, ya que h = f ◦ λ donde la inyección λ : F → E × F,
denida por λ(y) = (a, y), es continuamente diferenciable.
En el caso donde x ∈ Rm
, y ∈ Rn
y f : Rm
× Rn
→ Rn
está dada por
f(x, y) =



f1(x1, ..., xm, y1, ..., yn)
.
.
.
fn(x1, ..., xm, y1, ..., yn)


 tenemos que
∂f
∂y
(x, y) =



∂f1
∂y1
(x, y) · · · ∂f1
∂yn
(x, y)
.
.
.
.
.
.
∂fn
∂y1
(x, y) · · · ∂fn
∂yn
(x, y)



Teorema 1.5 (Teorema de funciones implícitas)
Sean E, F y G espacios de Banach, U ⊂ E y V ⊂ F abiertos y f : U × V → G una
aplicación de clase C1
. Supongamos que en (a, b) ∈ U × V
f(a, b) = 0 y
∂f
∂y
(a, b) es un isomorsmo de F en G.
i) Existe una vecindad U de a, una vecindad V de b y una aplicación única g :
U → V tales que f(x, g(x)) = 0 para x ∈ U .
ii) La aplicación g : U → V es de clase C1
y tenemos
g (x) = −
∂f
∂y
(x, g(x))
−1
∂f
∂x
(x, g(x)) . (1.55)
29
Demostración. La idea es considerar la aplicación
F : U × V → E × G denida por F(x, y) = (x, f(x, y))
y de aplicar el teorema de inversión local. Esta aplicación es de clase C1
y tiene por derivada
F (a, b)(h, k) =
1 0
∂f
∂x
(a, b) ∂f
∂y
(a, b)
h
k
= h,
∂f
∂x
(a, b)h +
∂f
∂y
(a, b)k .
Además, esta satisface F(a, b) = (a, 0). Puesto que
∂f
∂y
(a, b) es un isomorsmo, F (a, b) es
invertible y tiene por inversa
F (a, b)−1
(ˆh, ˆk) = ˆh,
∂f
∂y
(a, b)−1 ˆk −
∂f
∂x
(a, b)ˆh .
Esta inversa es continua ya que
∂f
∂x
(a, b) y
f
∂y
(a, b)−1
lo son. De acuerdo al teorema de inversión
local (Teorema 1.4), F es un difeomorsmo de clase C1
en una vecindad de (a, b) sobre una
vecindad de (a, 0). Podemos suponer que estas vecindades contienen U × V y U × W ,
respectivamente, donde U , V y W son vecindades de a, b y 0 ∈ G. Con riesgo de reducir
U , podemos suponer también que F−1
(U × {0}) ⊂ U × V . El difeomorsmo inverso F−1
es de la forma F−1
(x, z) = (x, ˆg(x, z)) y tenemos entonces f(x, ˆg(x, z)) = z. La aplicación
g(x) := ˆg(x, 0) es la aplicación buscada.
Como F−1
(x, z) es de clase C1
, las aplicaciones ˆg(x, z y g(x) = ˆg(x, 0) son también de clase
C1
. Finalmente, obtenemos la fórmula (1.55) derivando la identidad f(x, g(x)) = 0 respecto
de x.
Ejemplo 1.31. En el caso E = Rm
, F = Rn
, U ⊂ Rm
× Rn
abierto, (a, b) un punto de U,
f : U → Rn
una aplicación de clase C1
tal que f(a, b) = 0 y la matriz jacobiana
∂f
∂y
(a, b)
de las derivadas parciales en y (también denotada por Dyf(a, b)) invertible, es decir con
det Dyf(a, b) = 0. El teorema de funciones implícitas arma que la ecuación f(x, y) = 0
puede ser resuelta localmente respecto a las variables y: existe una vecindad abierta U ⊂ Rm
de a y una vecindad abierta V ⊂ Rn
con U ×V ⊂ U, y una aplicación g : U → V de clase
C1
, única, tal que
x ∈ U , y ∈ V , f(x, y) = 0 ⇐⇒ x ∈ U , y = g(x).
Además Dyf(x, y) es invertible para todo (x, y) ∈ U × V , lo cual permite calcular g (x),
derivando f(x, g(x)) = 0 mediante la regla de la cadena, para obtener la fórmula (1.55).
30
Ejemplo 1.32. (derivada implícita) La relación implícita xy
= sin(xy) + tan(
√
3x + 1) + 1
puede resolverse respecto de y localmente alrededor del punto
π2−1
3
, 0 .
En efecto, la función f(x, y) = xy
− sin(xy) − tan(
√
3x + 1) − 1 satisface f π2−1
3
, 0 = 0
y
∂f
∂y
π2−1
3
, 0 = −1.8725 = 0. Luego, por el teorema de funciones implícitas, cerca de
π2−1
3
, 0 existe una única función g tal que y = g(x) y esta tiene por derivada (derivando
implícitamente) la expresión
g (x) =
(2xy cos(xy) − 2yxy
)
√
3x + 1 + 3x sec2
(
√
3x + 1)
2x
√
3x + 1 (xy ln x − x cos(xy))
.
En la gura, se tiene trazada la recta tangente a la curva f(x, y) = 0 en el punto
π2−1
3
, 0 .
Ejemplo 1.33. (intersección de supercies) Consideremos el sistema de ecuaciones
x2
+ y2
− 2z2
= 0
x2
+ 2y2
+ z2
= 4
31
Para x cerca de cero, existen funciones positivas y(x) y z(x) tales que (x, y(x), z(x)) es
solución del sistema. En efecto, consideremos la función f : R × R2
→ R2
denida por
f(x, y, z) = (x2
+ y2
− 2z2
, x2
+ 2y2
+ z2
− 4). Su matriz jacobiana en (y, z) es
Dy,zf(x, y, z) =
2y −4z
4y 2z
,
Figura 1: cono y elipsoide
con determinante 20yz. Por lo tanto si y, z son diferen-
tes de cero, para x = 0 se tiene det Dy,z(0, y, z) = 0.
Podemos entonces aplicar el teorema de funciones im-
plícitas, que nos garantiza que, para x cerca de cero,
existe una función g tal que (y, z) = g(x), es decir
y = g1(x) y z = g2(x). Para este caso particular tene-
mos g1(x) = 8−3x2
5
y g2(x) = 4+x2
5
.
Las ecuaciones (x, g1(x), g2(x)) representan la para-
metrización de la curva destacada en la intersección
de las dos supercies de la gura.
Ejemplo 1.34. Consideremos las funciones
f1(x, y, u, v) = xeu+v
+ uv − 1,
f2(x, y, u, v) = yeu−v
− 2uv − 1.
Para el punto P = (1, 1, 0, 0) se tiene f1(P) = 0 y f2(P) = 0. Denamos f : R2
× R2
→ R2
por f = (f1, f2). La derivada parcial de f en u, v es
Du,vf(x, y, u, v) =
xeu+v
+ v xeu+v
+ u
yeu−v
− 2v −yeu−v
− 2u
y en el punto P de tiene det fu,v(P) = −2. Por el teorema de funciones implícitas, cerca de P
podemos despejar u, v en términos de x y y, así establecer funciones implícitas u = g1(x, y)
y v = g2(x, y). Además, las derivadas parciales de tales funciones están dadas por
g (x, y) =
∂u
∂x
∂u
∂y
∂v
∂x
∂v
∂y
= −(Du,vf)−1
Dx,yf = −
xeu+v
+ v xeu+v
+ u
yeu−v
− 2v −yeu−v
− 2u
−1
eu+v
0
0 eu−v .
Desde luego, efectuar el cálculo matricial no es lo más indicado, si por ejemplo se quiere
calcular
∂u
∂x
, lo mejor es aplicar la regla de Cramer para Du,vf · g (x, y) = −Dx,yf y resolver
para la derivada parcial deseada:
∂u
∂x
=
− det Dx,vf
det Du,vf
=
−
eu−v
xeu+v
+ v
0 −yeu−v
− 2u
xeu+v
+ v xeu+v
+ u
yeu−v
− 2v −yeu−v
− 2u
=
ye2u
+ 2ueu+v
2xye2u + 2(u − v)xeu+v + (u + v)yeu−v
.
Ejemplo 1.35. Sea Pa(x) = a0 + a1x + a2x2
+ · · · + anxn
con coecientes reales a =
(a0, a1, ..., an). ¾Es la raíz x0 de pa(x) = 0 una función diferenciable de a0, a1, ..., an)? Para
responder a esta pregunta, consideremos la función
f(a0, ..., an, x) = a0 + a1x + a2x2
+ · · · + anxn
= pa(x)
32
de n+2 variables f : Rn+1
×R → R. Para esta función se tiene f(a0, ..., an, x0) = 0 y además
∂f
∂x
(a0, ..., an, x) = a1 + 2a2x + · · · + nanxn−1
= pa(x).
Si para coecientes a∗
= (a∗
0, ..., a∗
n) se tiene pa∗ (x∗
0) = 0 y pa∗ (x∗
0) = 0, la ecuación pa(x) = 0
posee, para a cerca de a∗
, una solución x0(a) cerca de x∗
0 y que además es una función
diferenciable de a0, ..., an.
En particular, el polinomio pε(x) = x6
− x5
+ x3
− 1 + ε posee un cero cerca de x∗
0 = 1 que
depende diferenciablemente de ε (usando un desarrollo de Taylor de una variable tenemos
x0(ε) = 1 − ε/4 + O(ε2
)). Al contrario, los ceros del polinomio pε(x) = x2
− ε satisacen
x0(ε) = ±
√
ε para ε  0 (una función no diferenciable en el origen) y para ε  0 el
polinomio ni siquiera tiene raíces reales.
Ejemplo 1.36. Si A0 ∈ Mn(R) es una matriz que tiene todos sus valores propios reales y
distintos, toda matriz A ∈ Mn(R) sucientemente cerca de A0 posee igualmente n valores
propios distintos y estos depende continuamente de A.
1.9. Aplicaciones bilineales y multilineales
Las derivadas de orden superior son aplicaciones bilineales (para la segunda derivada),
trilineales (para la tercera derivada) y multilineales (para n-ésima derivada). Es la razón por
la cual vamos a estudiar estas aplicaciones un poco más en detalle.
Denición 1.18. Sean E1, ..., En, F espacios vectoriales normados. Una aplicación
A : E1 × · · · En → F
se llama multilineal (bilineal si n = 2) si, para cada i ∈ {1, ..., n} y para cada ai ∈ Ei
la aplicación parcial xi → f(a1, ..., ai−1, xi, ai+1, ..., an) es lineal. El espacio E1 × · · · × En,
dotado de las normas
(x1, ..., xn) := m´ax{ x1 1, ..., xn n}, (1.56)
es un espacio vectorial normado. Es un espacio de Banach si los espacios E1, ..., En son
espacios de Banach.
Vamos a dar ahora un equivalente a la proposición 1.3 para estos espacios producto.
Proposición 1.9
Para una aplicación multilineal A : E1 × · · · × En → F (E1, ..., En y F son espacios
vectoriales normados), las condiciones siguientes son equivalentes:
(a) A es continua en todo punto de E1, ..., En;
(b) A es continua en el origen (0, ..., 0) ∈ E1 × · · · × En;
(c) A(x1, ..., xn) está acotada sobre la bola unidad de E1 × · · · × En.
33
Demostración. La demostración es similar a la de la proposición 1.3. (a)⇒(b) es evidente.
Para (b)⇒(c), como A es continua en el origen, para todo ε  0 existe un δ  0 tal que
xi i ≤ δ para todo i ⇒ A(x1, ..., xn) ≤ ε. (1.57)
Observemos que por multilinealidad A(λ1x1, ..., λnxn) = λ1 · · · λnA(x1, ..., xn). Para xi con
xi i ≤ 1, multipliquemos (x1, ..., xn) por δ y reemplacemos en (1.57), esto nos da
xi i ≤ 1 para todo i ⇒ A(x1, ..., xn) ≤ ε/δn
,
lo cual prueba (c).
Para demostrar (c)⇒ (a), escribamos
A(x1, ..., xn) − A(a1, ..., an) = A(x1 − a1, x2, ..., xn) + A(a1, x2 − a2, x3, ..., an) + · · ·
· · · + A(a1, .., an−1, xn − an).
y estimemos cada término separadamente. Por hipótesis, existe un M  0 tal que
xi i ≤ 1 para todo i ⇒ A(x1, ..., xn) ≤ M, (1.58)
y por lo tanto deducimos que
A(x1, ..., xn) ≤ M x1 1 · · · xn n.
Si x − a ≤ ε, entonces x ≤ a + ε, de donde deducimos que xi i ≤ a + ε para todo
i. Asi, con (1.58), tenemos que
A(x) − A(a) ≤ Mε( a + ε)n−1
n.
Denición 1.19. Sean E1, ..., En y F espacios vectoriales normados. Denotamos por L(E1, ..., En; F)
el conjunto de todas las aplicaciones multilineales continuas de E1 × · · · En en F. Para un
elemento A ∈ L(E1, ..., En; F), denimos
A = sup
(x1,...,xn) ≤1
A(x1, ..., xn) F = sup
x1=0,...,xn=0
A(x1, ..., xn) F
x1 1 · ... · xn n
. (1.59)
Si E1 = ... = En = E, escribimos también Ln
(E; F) en lugar de L(E, ..., E; F).
El espacio L(E1, ..., En; F) dotado de (1.59) es un espacio vectorial normado. Si F es
completo, entonces L(E1, ..., En; F) también es completo. Esta armación se demuestra exac-
tamente como en la proposición 1.4. El resultado de la proposición siguiente es la base para
la interpretación de la segunda derivada de una función como aplicación bilineal.
Proposición 1.10 (Isometría natural)
Sean E, F, G espacios vectoriales normados. Entonces, la aplicación
ψ : L(E, L(F, G)) → L(E, F; G)
denida por ψ(A) = B donde B(x, y) = (Ax)y, es un isomorsmo e igualmente una
isometría, es decir ψ(A) = A para todo A ∈ L(E, L(F, G)).
34
Demostración. La aplicación ψ es lineal y biyectiva. Su inversa está dada por ψ−1
(B) = A
donde, para x ∈ E, Ax ∈ L(F, G) es la aplicación y → B(x, y). Para demostrar la continuidad
de ψ y de ψ−1
, es suciente probar que ψ(A) = A .
Utilizando la estimación (1.16) una vez para Ax y una segunda vez para A, obtenemos
B(x, y) = (Ax)y ≤ Ax · y ≤ A · x · y .
Dividiendo por x · y y tomando supremos sobre x = 0, y = 0, esto implica que B = ψ(A)
satisface B ≤ A .
Por otra parte, la denición 1.59 muestra que
(Ax)y = B(x, y) ≤ B · x · y .
La norma de la aplicación lineal Ax satisface entonces Ax ≤ B · x y, en consecuencia,
A ≤ B . Esta dos desigualdades muestran que la aplicación ψ es una isometría.
Sea entonces A ∈ L(E, L(F, G)) en la bola unidad, es decir A ≤ 1. Como ψ(A) =
A ≤ 1, por la proposición 1.3, ψ es continua. De igual manera, para B ∈ L(E, F; G) con
B ≤ 1 tenemos ψ−1
(B) = A = ψ(A) = B ≤ 1, y por la proposición 1.3 también
es continua.
Podemos entonces identicar las aplicaciones lineales continuas de E en L(F, G) con las
aplicaciones bilineales de E × F en G via el isomorsmo de la proposición 1.10
L(E, L(F, G)) L(E, F; G).
Ejemplo 1.37. Una matriz C ∈ Mm×n(R) puede ser identicada con la aplicación bilineal
B : Rm
× Rn
→ R denida por B(x, y) = xT
Cy. Igualmente, puede ser identicada con un
elemento de L(Rm
, L(Rn
, R)) de la manera siguiente: para x ∈ Rm
, el vector xT
C ∈ L(Rn
, R)
dene la aplicación xT
C : y → xT
Cy.
La armación de la proposición precedente puede ser generalizada a aplicaciones multi-
lineales. Si E1, ..., En y F son espacios vectoriales normados, la aplicación
ψ : L(E1, L(E2, ..., En; F)) → L(E1, ..., En; F), (1.60)
denida por ψ(A) = B donde B(x1, ..., xn) = (Ax1)(x2, ..., xn), es un isomorsmo y una
isometría. La demostración de este hecho es idéntica a la de la proposición 1.10.
1.10. Derivadas de orden superior
La derivada de una función f : U → F (con U ⊂ E) es una aplicación f : U → L(E, F). Co-
mo L(E, F) es un espacio vectorial normado, nada nos impide considerar la diferenciabilidad
de f .
Denición 1.20. Sean E, F dos espacios vectoriales normados, U ⊂ E un abierto y f : U → F
diferenciable en una vecindad de a ∈ U. Decimos que f es dos veces diferenciable en a si
f : U → L(E, F) es diferenciable en a. La derivada de f satisface (f ) (a) ∈ L(E, L(E, F)).
Utilizando la identicación de la proposición 1.10, denimos la segunda derivada de f en a
como la aplicación bilineal
f (a)(h, k) = ((f ) (a)h)) k.
35
En la situación de la denición precedente, consideremos la aplicación gk = U → F
denida por gk(x) := f (x)k (con un k ∈ E jado). Entonces, gk(x) = B(f (x), k) donde
B : L(E, F) × E → F es la aplicación bilineal B(A, v) = Av. Aplicando la fórmula (1.34) de
Leibniz obtenemos
gk(a)h = B(f (a), 0h) + B((f ) (a)h, k) = ((f ) (a)h) k = f (a)(h, k).
Ejemplo 1.38. Consideremos una función f : Rn
→ Rm
y notemos x = (x1, ..., xn)T
y
f(x) = (f1(x), ..., fm(x))T
. Supongamos que todas las derivadas parciales de los fj existen y
son continuas. Para k ∈ Rn
jado, calculemos la derivada de la función gk(x) := f (x)k =
n
j=1
∂f
∂xj
(x)kj, donde
∂f
∂xj
(x) = ∂f1
∂xj
(x), ..., ∂fm
∂xj
(x)
T
. Por linealidad de la derivada tenemos
gk(x)h =
n
j=1
∂f
∂xj
(x)h kj, (1.61)
donde
∂f
∂xj
(x) =




∂2f1
∂x1∂xj
(x) · · · ∂2f1
∂xn∂xj
(x)
.
.
.
.
.
.
∂2fm
∂x1∂xj
(x) · · · ∂2fm
∂xn∂xj
(x)




y deniendo
∂2f
∂xi∂xj
(x) := ∂2f1
∂x1∂xj
(x), ..., ∂2fm
∂x1∂xj
(x)
T
, la fórmula (1.61) puede escribirse gk(x)h =
n
j=1
n
i=1
∂2f
∂xi∂xj
(x)hi kj. La segunda derivada de f es entonces
f (x)(h, k) =
n
i=1
n
j=1
∂2
f
∂xi∂xj
(x)kj hi.
En el caso particular donde m = 1 (es decir f : Rn
→ R), para la fórmula de arriba tenemos
f (x)(h, k) = hT
Hf (x)k, donde Hf (x) es una matriz n × n de segundas derivadas parciales
de f llamada matriz hessiana de f denida por
Hf (x) :=




∂2f
∂x2
1
(x) · · · ∂2f
∂x1∂xn
(x)
.
.
.
.
.
.
∂2f
∂xn∂x1
(x) · · · ∂2f
∂x2
n
(x)



 .
Ejemplo 1.39. Para la función f : R3
→ R3
del ejemplo 1.10, la segunda derivada es
f (a)(h, k) =
2h1k1 + 2h2k2 + 2h3k3
a1(h2k3 + h3k2) + a2(h1k3 + h3k1) + a3(h1k2 + h2k1)
.
Observación 1.5. Dado que para f : U ⊂ Rn
→ Rm
, f (x)(h, k) ∈ Rm
con (f (x)(h, k)))s =
n
i=1
n
j=1
∂2
fs
∂xi∂xj
(x)kjhi para s = 1, .., m. Podemos calcular la segunda derivada mediante
matrices hessianas como sigue: f (x)(h, k) = hT
Hf1 (x)k, ..., hT
Hf2 (x)k
T
.
36
Ejemplo 1.40. Para la función f(X) = X−1
de GL(E) en L(E) el ejemplo 1.14 muestra que
gK(X) := f (X)K = −X−1
KX−1
para K ∈ L(E). La fórmula de Leibniz nos da entonces
f (A)(H, K) = −(−A−1
HA−1
)KA−1
− A−1
K(−A−1
HA−1
)
f (A)(H, K) = A−1
HA−1
KA−1
+ A−1
KA−1
HA−1
.
Ejemplo 1.41. Sea f : L(E) → L(E) denida por f(X) = X3
+ X − I. Un cálculo muestra
que f (X)K = X2
K +XKX +KX2
+K y tomando en cuenta también que para h(X) = X2
se tiene h (X)K = XK + KX, la fórmula de Leibniz nos da
f (A)(H, K) = (AH + HA)K + H(KA) + A(KH) + K(AH + HA)
f (A)(H, K) = AHK + HAK + HKA + AKH + KAH + KHA.
Teorema 1.6 (Teorema de Schwarz)
Sean E, F dos espacios vectoriales normados, U ⊂ E un abierto, y supongamos que
f : U → F es dos veces diferenciable en a ∈ U. Entonces, la aplicación bilineal
f (a) : E × E → F es simétrica, es decir,
f (a)(h, k) = f (a)(h, k) para h, k ∈ E.
Demostración. Vamos a demostrar que
f (a)(h, k) = l´ım
ε→0
1
ε2
(f(a + εh + εk) − f(a + εh) − f(a + εk) + f(a)). (1.62)
Puesto que la expresión de la derecha es simétrica en h y k, f (x)(h, k) también.
Para demostrar (1.62), consideremos la aplicación
gu(v) := f(a + u + v) − f(a + u) − f(a + v) + f(a) − f (a)(u, v)
donde u y v son sucientemente pequeños en norma. Como gu(0) = 0, el teorema de incre-
mentos nitos (Teorema 1.2) implica que
gv(u) ≤ sup
0t1
gu(tv) · v . (1.63)
Queda entonces estimar la derivada
gu(v) = f (a + u + v) − f (a + v) − f (a)(u, ·)
(la notación f (a)(u, ·) es utilizada para la aplicación h → f (a)(u, h)). El hecho de que f
sea dos veces diferenciable en a (es decir x → f (x) es diferenciable en a) implica que
f (a + u + v) = f (a) + f (a)(u + v, ·) + r(u + v) u + v
f (a + v) = f (a) + f (a)(v, ·) + r(v) v
donde r(v) → 0 si v → 0. La sustracción de estas dos ecuaciones da para gu(v) la fórmula
gu(v) = r(u + v) u + v − r(v) v y obtenemos para 0  t  1
gu(tv) ≤ ( r(u + tv) + r(tv) ) ( u + v ). (1.64)
Deducimos de las estimaciones (1.63) y (1.64) que gu(v) /( u + v )2
→ 0 si u + v → 0.
Poniendo u = εh, v = εk obtenemos la armacion (1.62).
37
La denición de tercera derivada es análoga a la denición 1.20.
Denición 1.21. Supongamos que una función f; U → F (E, F espacios vectoriales norma-
dos y U ⊂ E abierto) sea dos veces diferenciable en una vecindad de a ∈ U. Decimos que f
es 3 veces diferenciable en a si f : U → L(
E; F) es diferenciable en a. La derivada satis-
face (f ) (a) ∈ L(E, L2
(E; F)) y, utilizando la isometría entre L(E, L2
(E; F)) y L3
(E; F)
denimos la tercera derivada de f en a como la aplicación trilineal
f (a)(h, k, l) := (f ) (a)h (k, l).
De manera evidente denimos por recurrencia la p-ésima derivada f(p)
(a) como la aplicación
multilineal f(p)
(a) ∈ Lp
(E; F) dada por
f(p)
(h1, h2, ..., hp) := f(p−1)
(a)h1 (h2, ..., hp).
Para un cálculo práctico de la tercera derivada, podemos utilizar la fórmula
gkl(a)h = (f ) (a)h (k, l) = f (a)(h, k, l) (1.65)
donde gkl : U → F denida por gkl(x) := f (x)(k, l) y k, l ∈ E son vectores jados. La tercera
derivada puede igualmente ser interpretada como la segunda derivada de gl(x) := f (x)l, es
decir
gl (a)(h, k) = (f ) (a)(h, k) l = f (a)(h, k, l). (1.66)
Las dos fórmulas (1.65) y (1.66) muestran que podemos intercambiar k y l asi como h y k
sin cambiar el valor del vector f (a)(h, k, l). Tenemos entonces el resultado siguiente:
Corolario1.4
Si bajo las hipótesis del Teorema 1.6, la función f : U → F es p veces diferenciable en
a ∈ U, la aplicación multilineal f(p)
(a) es simétrica, es decir
f(p)
(a)(h1, ..., hp) = f(p)
(a)(hσ(1), ..., hσ(p))
donde σ es una permutación cualquiera de {1, ..., p}.
Ejemplo 1.42. La tercera derivada de una aplicación f : Rn
→ Rm
está dada por
f (x)(h, k, l) =
n
i=1
n
j=1
n
r=1
∂3
f
∂xi∂xj∂xr
(x)hikjlr.
En efecto, como f (x)(k, l) = n
j=1
n
r=1
∂2f
∂xj∂xr
(x)kjlr, entonces
(f ) (x)h (k, l) =
n
j=1
n
r=1
∂2
f
∂xj∂xr
(x)hkjlr
donde
∂2
f
∂xj∂xr
(x) =




∂3f1
∂x1∂xj∂xr
(x) · · · ∂2f1
∂xn∂xj∂xr
(x)
.
.
.
.
.
.
∂3fm
∂x1∂xj∂xr
(x) · · · ∂2fm
∂xn∂xj∂xr
(x)




38
y deniendo
∂3f
∂xi∂xj∂xr
(x) := ∂3f1
∂xi∂xj∂xr
(x), ..., ∂3fm
∂xi∂xj∂xr
(x)
T
, tenemos que
∂2f
∂xj∂xr
(x)h =
n
i=1
∂3f
∂xi∂xj∂xr
(x)hi.
El cálculo anterior muestra que la tercera derivada también puede ser descrita por
f (x)(h, k, l) s
=
n
i=1
n
j=1
n
r=1
∂3
fs
∂xi∂xj∂xr
(x)hikjlr para s = 1, ..., m.
Ejemplo 1.43. Sea f : GL(Rn
) → GL(Rn
) dada por f(X) = X3
, vamos a calculas todas sus
derivadas. Para la primera derivada se tiene
f (X)L = X2
L + XLX + LX2
.
Para la segunda
f (X)(K, L) = XKL + KXL + KLX + XLK + LXK + LKX.
Deniendo gKL(X) = f (X)(K, L), aplicando la fórmula de Leibniz se tiene
f (X)(H, K, L) = gKL(X)H = HKL + KHL + KLH + HLK + LHK + LKH.
Ejemplo 1.44. La función f : GL(E) → L(E), f(X) = X−1
es innitamente diferenciable.
En efecto, derivando la fórmula del ejemplo 1.40 obtenemos
f (A)(H, K, L) = − A−1
HA−1
KA−1
LA−1
− A−1
HA−1
LA−1
KA−1
− A−1
LA−1
HA−1
KA−1
− A−1
KA−1
HA−1
LA−1
− A−1
KA−1
LA−1
HA−1
− A−1
LA−1
KA−1
HA−1
.
vemos por recurrencia que cada derivada es una combinación lineal de expresiones que son
un producto alternado de A−1
con aplicaciones lineales constantes.
Denición 1.22. Sean E, F espacios vectoriales normados, U ⊂ E y V ⊂ F abiertos.
f : U → F es p veces continuamente diferenciable (o de clase Cp
) en U, si f es p veces
diferenciable en todo punto de U y si f(p)
: U → Lp
(E; F) es continua.
f : U → F es innitamente diferenciable (o de clase C∞
) en U, si f es de clase Cp
para
todo p.
f : U → V es un difeomorsmo de clase Cp
de U en V , si f es biyectiva, p veces
continuamente diferenciable, y si la inversa f−1
: V → U es p veces continuamente
diferenciable.
Proposición 1.11
Sean E, F espacios vectoriales normados, U ⊂ E, V ⊂ F abiertos y f : U → V un
difeomorsmo de clase C1
. Si f es de clase Cp
, entonces la función inversa es también
de clase Cp
.
39
Demostración. Por el Teorema 1.4 sabemos que
(f−1
) (y) = f f−1
(y)
−1
,
es decir, (f−1
) es la composición de tres aplicaciones, a saber y → f−1
(y), x → f (x) y
A → A−1
. Las tres aplicaciones con continuamente diferenciables. Por lo tanto f−1
es de
clase C2
. La demostración para p ≥ 3 es análoga.
Una consecuencia inmediata de esta proposición es la siguiente: si en el teorema de inver-
sión local (Teorema 1.4) la función f es de clase Cp
, entonces su inversa es automáticamente
de clase Cp
. Similarmente, si en ele teorema de funciones impícitas (Teorema 1.5) la función
f es de clase Cp
, entonces la aplicación g es también de clase Cp
.
40

Mais conteúdo relacionado

Mais procurados

SOLUCION DE ECUACIONES NO LINEALES
SOLUCION DE ECUACIONES NO LINEALESSOLUCION DE ECUACIONES NO LINEALES
SOLUCION DE ECUACIONES NO LINEALESJagg602
 
Aplicaciones de la derivada 2012
Aplicaciones de la derivada 2012Aplicaciones de la derivada 2012
Aplicaciones de la derivada 2012Gonzalo Fernandez
 
Modelo de gravitación cuántica de Horava Lifshitz sin Invariancia de Lorentz
Modelo de gravitación cuántica de Horava Lifshitz sin Invariancia de LorentzModelo de gravitación cuántica de Horava Lifshitz sin Invariancia de Lorentz
Modelo de gravitación cuántica de Horava Lifshitz sin Invariancia de LorentzYohana Bonilla Gutiérrez
 
Representación de Señales
Representación de SeñalesRepresentación de Señales
Representación de Señalesmarianyelimendez
 
Introduccion a la acustica
Introduccion a la acusticaIntroduccion a la acustica
Introduccion a la acusticaEdecarlo Barron
 
Serie de fourier. Funciones periodicas, funciones pares e impares.
Serie de fourier. Funciones periodicas, funciones pares e impares.Serie de fourier. Funciones periodicas, funciones pares e impares.
Serie de fourier. Funciones periodicas, funciones pares e impares.Carlos Ramos Pérez
 
Convolución y su transformada de Fourier
Convolución y su transformada de Fourier Convolución y su transformada de Fourier
Convolución y su transformada de Fourier Manuel Díaz
 
Aplicaciones conjunto de cantor
Aplicaciones conjunto de cantorAplicaciones conjunto de cantor
Aplicaciones conjunto de cantorJaime Florez
 
Series Numericas
Series NumericasSeries Numericas
Series NumericasERICK CONDE
 
[Matematicas].evolucion.de.la.integral.en.el.siglo.xix.(pedro.jimenez.reina)[...
[Matematicas].evolucion.de.la.integral.en.el.siglo.xix.(pedro.jimenez.reina)[...[Matematicas].evolucion.de.la.integral.en.el.siglo.xix.(pedro.jimenez.reina)[...
[Matematicas].evolucion.de.la.integral.en.el.siglo.xix.(pedro.jimenez.reina)[...Pe Peele
 
Convolución y su transformada de Fourier
Convolución y su transformada de FourierConvolución y su transformada de Fourier
Convolución y su transformada de FourierPSM san cristobal
 
Respuesta generalizada 2015 3
Respuesta generalizada 2015 3Respuesta generalizada 2015 3
Respuesta generalizada 2015 3eduardoeloso
 

Mais procurados (19)

SOLUCION DE ECUACIONES NO LINEALES
SOLUCION DE ECUACIONES NO LINEALESSOLUCION DE ECUACIONES NO LINEALES
SOLUCION DE ECUACIONES NO LINEALES
 
Aplicaciones de la derivada 2012
Aplicaciones de la derivada 2012Aplicaciones de la derivada 2012
Aplicaciones de la derivada 2012
 
Modelo de gravitación cuántica de Horava Lifshitz sin Invariancia de Lorentz
Modelo de gravitación cuántica de Horava Lifshitz sin Invariancia de LorentzModelo de gravitación cuántica de Horava Lifshitz sin Invariancia de Lorentz
Modelo de gravitación cuántica de Horava Lifshitz sin Invariancia de Lorentz
 
Representación de Señales
Representación de SeñalesRepresentación de Señales
Representación de Señales
 
Método de newton
Método de newtonMétodo de newton
Método de newton
 
metodos numericos
metodos numericosmetodos numericos
metodos numericos
 
Introduccion a la acustica
Introduccion a la acusticaIntroduccion a la acustica
Introduccion a la acustica
 
Aclase0802
Aclase0802Aclase0802
Aclase0802
 
Serie de fourier. Funciones periodicas, funciones pares e impares.
Serie de fourier. Funciones periodicas, funciones pares e impares.Serie de fourier. Funciones periodicas, funciones pares e impares.
Serie de fourier. Funciones periodicas, funciones pares e impares.
 
Convolución y su transformada de Fourier
Convolución y su transformada de Fourier Convolución y su transformada de Fourier
Convolución y su transformada de Fourier
 
Funciones ortogonales (1)
Funciones ortogonales (1)Funciones ortogonales (1)
Funciones ortogonales (1)
 
VECINDADES
VECINDADESVECINDADES
VECINDADES
 
Aplicaciones conjunto de cantor
Aplicaciones conjunto de cantorAplicaciones conjunto de cantor
Aplicaciones conjunto de cantor
 
Series Numericas
Series NumericasSeries Numericas
Series Numericas
 
[Matematicas].evolucion.de.la.integral.en.el.siglo.xix.(pedro.jimenez.reina)[...
[Matematicas].evolucion.de.la.integral.en.el.siglo.xix.(pedro.jimenez.reina)[...[Matematicas].evolucion.de.la.integral.en.el.siglo.xix.(pedro.jimenez.reina)[...
[Matematicas].evolucion.de.la.integral.en.el.siglo.xix.(pedro.jimenez.reina)[...
 
Convolución y su transformada de Fourier
Convolución y su transformada de FourierConvolución y su transformada de Fourier
Convolución y su transformada de Fourier
 
Simulación numérica I
Simulación numérica ISimulación numérica I
Simulación numérica I
 
Respuesta generalizada 2015 3
Respuesta generalizada 2015 3Respuesta generalizada 2015 3
Respuesta generalizada 2015 3
 
Oviedo mco nolineales
Oviedo mco nolinealesOviedo mco nolineales
Oviedo mco nolineales
 

Semelhante a Analisis II

Semelhante a Analisis II (20)

C10 lineales orden_superior
C10 lineales orden_superiorC10 lineales orden_superior
C10 lineales orden_superior
 
Geoestadistica
GeoestadisticaGeoestadistica
Geoestadistica
 
Apunte fourier 2do_sem_2014
Apunte fourier 2do_sem_2014Apunte fourier 2do_sem_2014
Apunte fourier 2do_sem_2014
 
Funciones (PRUEBA)
Funciones (PRUEBA)Funciones (PRUEBA)
Funciones (PRUEBA)
 
(2) funciones reales
(2) funciones reales(2) funciones reales
(2) funciones reales
 
Teoria de la homotopia
Teoria de la homotopiaTeoria de la homotopia
Teoria de la homotopia
 
Programacion Convexa Presentacion Definitivo
Programacion Convexa Presentacion DefinitivoProgramacion Convexa Presentacion Definitivo
Programacion Convexa Presentacion Definitivo
 
Unidad1 calculo
Unidad1 calculoUnidad1 calculo
Unidad1 calculo
 
Taylor
TaylorTaylor
Taylor
 
Fourier
FourierFourier
Fourier
 
Tranfomada de fouruer
Tranfomada de fouruerTranfomada de fouruer
Tranfomada de fouruer
 
Fourier.pdf
Fourier.pdfFourier.pdf
Fourier.pdf
 
Representación en series de Fourier
Representación en series de FourierRepresentación en series de Fourier
Representación en series de Fourier
 
Presentacion derivacion e integracion de funciones de varias variables Andrei...
Presentacion derivacion e integracion de funciones de varias variables Andrei...Presentacion derivacion e integracion de funciones de varias variables Andrei...
Presentacion derivacion e integracion de funciones de varias variables Andrei...
 
Aplicaciones de la derivada-UNIDAD 5 CALCULO DIFERENCIAL
Aplicaciones de la derivada-UNIDAD 5 CALCULO DIFERENCIALAplicaciones de la derivada-UNIDAD 5 CALCULO DIFERENCIAL
Aplicaciones de la derivada-UNIDAD 5 CALCULO DIFERENCIAL
 
Ampte8
Ampte8Ampte8
Ampte8
 
pdf-monografia-integrales.docx
pdf-monografia-integrales.docxpdf-monografia-integrales.docx
pdf-monografia-integrales.docx
 
A derivadas
A derivadasA derivadas
A derivadas
 
68908191 ejercicios-resueltos-derivacion
68908191 ejercicios-resueltos-derivacion68908191 ejercicios-resueltos-derivacion
68908191 ejercicios-resueltos-derivacion
 
Elias hidalgo
Elias hidalgoElias hidalgo
Elias hidalgo
 

Mais de Dodovrosky Francisco Medrano Rocha (7)

Cálculo numérico 7 corrección
Cálculo numérico 7 correcciónCálculo numérico 7 corrección
Cálculo numérico 7 corrección
 
Formulario
FormularioFormulario
Formulario
 
Ejemplos2
Ejemplos2Ejemplos2
Ejemplos2
 
Ejemplos1
Ejemplos1Ejemplos1
Ejemplos1
 
Cálculo numérico 2
Cálculo numérico 2Cálculo numérico 2
Cálculo numérico 2
 
Théorie des distributions
Théorie des distributionsThéorie des distributions
Théorie des distributions
 
Calculo numérico 1
Calculo numérico 1Calculo numérico 1
Calculo numérico 1
 

Último

Monitoreo a los coordinadores de las IIEE JEC_28.02.2024.vf.pptx
Monitoreo a los coordinadores de las IIEE JEC_28.02.2024.vf.pptxMonitoreo a los coordinadores de las IIEE JEC_28.02.2024.vf.pptx
Monitoreo a los coordinadores de las IIEE JEC_28.02.2024.vf.pptxJUANCARLOSAPARCANARE
 
sesión de aprendizaje 4 E1 Exposición oral.pdf
sesión de aprendizaje 4 E1 Exposición oral.pdfsesión de aprendizaje 4 E1 Exposición oral.pdf
sesión de aprendizaje 4 E1 Exposición oral.pdfpatriciavsquezbecerr
 
SIMULACROS Y SIMULACIONES DE SISMO 2024.docx
SIMULACROS Y SIMULACIONES DE SISMO 2024.docxSIMULACROS Y SIMULACIONES DE SISMO 2024.docx
SIMULACROS Y SIMULACIONES DE SISMO 2024.docxLudy Ventocilla Napanga
 
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdfTarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdfManuel Molina
 
libro para colorear de Peppa pig, ideal para educación inicial
libro para colorear de Peppa pig, ideal para educación iniciallibro para colorear de Peppa pig, ideal para educación inicial
libro para colorear de Peppa pig, ideal para educación inicialLorenaSanchez350426
 
MODELO DE INFORME DE INDAGACION CIENTIFICA .docx
MODELO DE INFORME DE INDAGACION CIENTIFICA .docxMODELO DE INFORME DE INDAGACION CIENTIFICA .docx
MODELO DE INFORME DE INDAGACION CIENTIFICA .docxRAMON EUSTAQUIO CARO BAYONA
 
EDUCACION FISICA 1° PROGRAMACIÓN ANUAL 2023.docx
EDUCACION FISICA 1°  PROGRAMACIÓN ANUAL 2023.docxEDUCACION FISICA 1°  PROGRAMACIÓN ANUAL 2023.docx
EDUCACION FISICA 1° PROGRAMACIÓN ANUAL 2023.docxLuisAndersonPachasto
 
PROGRAMACION ANUAL DE MATEMATICA 2024.docx
PROGRAMACION ANUAL DE MATEMATICA 2024.docxPROGRAMACION ANUAL DE MATEMATICA 2024.docx
PROGRAMACION ANUAL DE MATEMATICA 2024.docxEribertoPerezRamirez
 
Estrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdf
Estrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdfEstrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdf
Estrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdfAlfredoRamirez953210
 
4º SOY LECTOR PART2- MD EDUCATIVO.p df PARTE
4º SOY LECTOR PART2- MD  EDUCATIVO.p df PARTE4º SOY LECTOR PART2- MD  EDUCATIVO.p df PARTE
4º SOY LECTOR PART2- MD EDUCATIVO.p df PARTESaraNolasco4
 
Fichas de Matemática TERCERO DE SECUNDARIA.pdf
Fichas de Matemática TERCERO DE SECUNDARIA.pdfFichas de Matemática TERCERO DE SECUNDARIA.pdf
Fichas de Matemática TERCERO DE SECUNDARIA.pdfssuser50d1252
 
Manejo del Dengue, generalidades, actualización marzo 2024 minsa
Manejo del Dengue, generalidades, actualización marzo 2024 minsaManejo del Dengue, generalidades, actualización marzo 2024 minsa
Manejo del Dengue, generalidades, actualización marzo 2024 minsaLuis Minaya
 
Secuencia didáctica.DOÑA CLEMENTINA.2024.docx
Secuencia didáctica.DOÑA CLEMENTINA.2024.docxSecuencia didáctica.DOÑA CLEMENTINA.2024.docx
Secuencia didáctica.DOÑA CLEMENTINA.2024.docxNataliaGonzalez619348
 
cuadernillo de lectoescritura para niños de básica
cuadernillo de lectoescritura para niños de básicacuadernillo de lectoescritura para niños de básica
cuadernillo de lectoescritura para niños de básicaGianninaValeskaContr
 
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...fcastellanos3
 
Mapa Mental de estrategias de articulación de las areas curriculares.pdf
Mapa Mental de estrategias de articulación de las areas curriculares.pdfMapa Mental de estrategias de articulación de las areas curriculares.pdf
Mapa Mental de estrategias de articulación de las areas curriculares.pdfvictorbeltuce
 
SISTEMA INMUNE FISIOLOGIA MEDICA UNSL 2024
SISTEMA INMUNE FISIOLOGIA MEDICA UNSL 2024SISTEMA INMUNE FISIOLOGIA MEDICA UNSL 2024
SISTEMA INMUNE FISIOLOGIA MEDICA UNSL 2024gharce
 
Fichas de Matemática DE SEGUNDO DE SECUNDARIA.pdf
Fichas de Matemática DE SEGUNDO DE SECUNDARIA.pdfFichas de Matemática DE SEGUNDO DE SECUNDARIA.pdf
Fichas de Matemática DE SEGUNDO DE SECUNDARIA.pdfssuser50d1252
 

Último (20)

Monitoreo a los coordinadores de las IIEE JEC_28.02.2024.vf.pptx
Monitoreo a los coordinadores de las IIEE JEC_28.02.2024.vf.pptxMonitoreo a los coordinadores de las IIEE JEC_28.02.2024.vf.pptx
Monitoreo a los coordinadores de las IIEE JEC_28.02.2024.vf.pptx
 
recursos naturales america cuarto basico
recursos naturales america cuarto basicorecursos naturales america cuarto basico
recursos naturales america cuarto basico
 
sesión de aprendizaje 4 E1 Exposición oral.pdf
sesión de aprendizaje 4 E1 Exposición oral.pdfsesión de aprendizaje 4 E1 Exposición oral.pdf
sesión de aprendizaje 4 E1 Exposición oral.pdf
 
Sesión La luz brilla en la oscuridad.pdf
Sesión  La luz brilla en la oscuridad.pdfSesión  La luz brilla en la oscuridad.pdf
Sesión La luz brilla en la oscuridad.pdf
 
SIMULACROS Y SIMULACIONES DE SISMO 2024.docx
SIMULACROS Y SIMULACIONES DE SISMO 2024.docxSIMULACROS Y SIMULACIONES DE SISMO 2024.docx
SIMULACROS Y SIMULACIONES DE SISMO 2024.docx
 
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdfTarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
 
libro para colorear de Peppa pig, ideal para educación inicial
libro para colorear de Peppa pig, ideal para educación iniciallibro para colorear de Peppa pig, ideal para educación inicial
libro para colorear de Peppa pig, ideal para educación inicial
 
MODELO DE INFORME DE INDAGACION CIENTIFICA .docx
MODELO DE INFORME DE INDAGACION CIENTIFICA .docxMODELO DE INFORME DE INDAGACION CIENTIFICA .docx
MODELO DE INFORME DE INDAGACION CIENTIFICA .docx
 
EDUCACION FISICA 1° PROGRAMACIÓN ANUAL 2023.docx
EDUCACION FISICA 1°  PROGRAMACIÓN ANUAL 2023.docxEDUCACION FISICA 1°  PROGRAMACIÓN ANUAL 2023.docx
EDUCACION FISICA 1° PROGRAMACIÓN ANUAL 2023.docx
 
PROGRAMACION ANUAL DE MATEMATICA 2024.docx
PROGRAMACION ANUAL DE MATEMATICA 2024.docxPROGRAMACION ANUAL DE MATEMATICA 2024.docx
PROGRAMACION ANUAL DE MATEMATICA 2024.docx
 
Estrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdf
Estrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdfEstrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdf
Estrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdf
 
4º SOY LECTOR PART2- MD EDUCATIVO.p df PARTE
4º SOY LECTOR PART2- MD  EDUCATIVO.p df PARTE4º SOY LECTOR PART2- MD  EDUCATIVO.p df PARTE
4º SOY LECTOR PART2- MD EDUCATIVO.p df PARTE
 
Fichas de Matemática TERCERO DE SECUNDARIA.pdf
Fichas de Matemática TERCERO DE SECUNDARIA.pdfFichas de Matemática TERCERO DE SECUNDARIA.pdf
Fichas de Matemática TERCERO DE SECUNDARIA.pdf
 
Manejo del Dengue, generalidades, actualización marzo 2024 minsa
Manejo del Dengue, generalidades, actualización marzo 2024 minsaManejo del Dengue, generalidades, actualización marzo 2024 minsa
Manejo del Dengue, generalidades, actualización marzo 2024 minsa
 
Secuencia didáctica.DOÑA CLEMENTINA.2024.docx
Secuencia didáctica.DOÑA CLEMENTINA.2024.docxSecuencia didáctica.DOÑA CLEMENTINA.2024.docx
Secuencia didáctica.DOÑA CLEMENTINA.2024.docx
 
cuadernillo de lectoescritura para niños de básica
cuadernillo de lectoescritura para niños de básicacuadernillo de lectoescritura para niños de básica
cuadernillo de lectoescritura para niños de básica
 
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
Estas son las escuelas y colegios que tendrán modalidad no presencial este lu...
 
Mapa Mental de estrategias de articulación de las areas curriculares.pdf
Mapa Mental de estrategias de articulación de las areas curriculares.pdfMapa Mental de estrategias de articulación de las areas curriculares.pdf
Mapa Mental de estrategias de articulación de las areas curriculares.pdf
 
SISTEMA INMUNE FISIOLOGIA MEDICA UNSL 2024
SISTEMA INMUNE FISIOLOGIA MEDICA UNSL 2024SISTEMA INMUNE FISIOLOGIA MEDICA UNSL 2024
SISTEMA INMUNE FISIOLOGIA MEDICA UNSL 2024
 
Fichas de Matemática DE SEGUNDO DE SECUNDARIA.pdf
Fichas de Matemática DE SEGUNDO DE SECUNDARIA.pdfFichas de Matemática DE SEGUNDO DE SECUNDARIA.pdf
Fichas de Matemática DE SEGUNDO DE SECUNDARIA.pdf
 

Analisis II

  • 1. Curso abreviado de Análisis II Dodovrosky Medrano basado en los apuntes de clase de Ernst Hairer Tellement de choses à faire, tellement peu de temps E. Galois 1
  • 2. Índice 1. Cálculo diferencial en espacios de Banach 3 1.1. La diferenciabilidad en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2. Espacios de Banach y de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.3. Aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.4. Diferenciabilidad en los espacios normados . . . . . . . . . . . . . . . . . . . 12 1.5. Teorema de los incrementos nitos . . . . . . . . . . . . . . . . . . . . . . . 16 1.6. Teorema del punto jo de Banach . . . . . . . . . . . . . . . . . . . . . . . . 19 1.7. Teorema de Inversión local . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 1.8. Teorema de funciones implícitas . . . . . . . . . . . . . . . . . . . . . . . . . 28 1.9. Aplicaciones bilineales y multilineales . . . . . . . . . . . . . . . . . . . . . . 33 1.10. Derivadas de orden superior . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 contenido 2
  • 3. 1. Cálculo diferencial en espacios de Banach El cálculo diferencial en R y Rn era uno de los temas tratados en el curso de Análisis I (ver ). El primer capítulo del curso Análisis II tiene como objetivo extender este cálculo a espacios más generales. Esto nos permite no solamente obtener resultados más generales con aplicaciones interesantes, sino también una mejor comprensión del calculo diferencial en Rn . Después de un recordatorio sobre la diferenciabilidad en Rn , daremos la denición de un espacio de Banach y discutiremos las diferencias esenciales entre Rn y los espacios de Banach de dimensión innita. Extenderemos enseguida la noción de aplicación diferenciable a los espacios de Banach, daremos varios ejemplos y abordaremos los temas siguientes: el teorema de incrementos nitos, el teorema del punto jo de Banach, el teorema de inversión local asi como el teorema de funciones implícitas. 1.1. La diferenciabilidad en Rn Para una función de una variable f : (a, b) → R, la derivada en el punto x0 está denida por: f (x0) = l´ım x→x0 f(x) − f(x0) x − x0 (1.1) Evidentemente, esta denición no tiene sentido para funciones de varias variables. Para una función f : U → Rm (U es un abierto de Rn ), decimos que f(x) es diferenciable en x0 ∈ U, si existe una aplicación lineal f (x0) : Rn → Rm , tal que f(x) = f(x0) + f (x0)(x − x0) + r(x) x − x0 , (1.2) donde la función r : U → Rm (que depende del parámetro x0) satisface r(x) → 0 cuando x → x0. Escribiendo h = x − x0, la denición de diferenciabilidad puede escribirse también como f(x0 + h) = f(x0) + f (x0)h + r(h) h , (1.3) donde r(h) → 0 cuando h → 0. Se demuestra que (ver ...) esta denición no depende de la norma elegida y que la aplicación lineal está dada por la matriz jacobiana f (x0) =    ∂f1 ∂x1 (x0) · · · ∂f1 ∂xn (x0) . . . · · · . . . ∂fm ∂x1 (x0) · · · ∂fm ∂xn (x0)    , (1.4) donde x = (x1, · · · , xn)T y f(x) = (f1(x), · · · , fm(x))T . El ejemplo siguiente muestra que no siempre es ventajoso representar la aplicación lineal f (x) con la ayuda de la matriz jacobiana. Ejemplo 1.1. Identiquemos el espacio Rn·n con el espacio de matrices cuadradas de dimen- sión n, M(n, R). Consideremos la aplicación f : Rn·n → Rn·n denida por f(X) = X2 , el cáculo siguiente: f(X0+H) = (X0+H)2 = X2 0 +X0H+HX0+H2 = f(X0)+X0H+HX0+H2 y tomando los términos lineales en H, sugiere la denición f (X0)H := X0H + HX0, r(H) := H2 / H . (1.5) 3
  • 4. Para demostrar realmente que la aplicación lineal f (X0) de (1.5) es la derivada de f(X), hay que ver que r(H) → 0 si H → 0. Esto se deriva del hecho que, para la norma euclidiana en Rn·n , se tiene H2 ≤ H 2 . 1.2. Espacios de Banach y de Hilbert Intentemos extender la denición (1.2) de diferenciabilidad a una función f : E → F. En los espacios E y F hay que saber sumar, restar, multiplicar por un número real y hay que tener a disposición una norma. Denición 1.1. Una norma sobre un espacio vectorial E es una aplicación · : E → R que verica las tres propiedades: (N1) x ≥ 0 y x = 0 ⇔ x = 0, (N2) λx = |λ| x , (N3) x + y ≤ x + y (desigualdad triangular). Denición 1.2. Un producto escalar sobre un espacio vectorial E es una aplicación ·, · : E × E → R que satisface: (PE1) x, x ≥ 0 y x, x = 0 ⇔ x = 0 (denida positiva), (PE2) x, y = y, x (simétrica), (PE3) λx1 + µx2, y = λ x1, y + µ x2, y (lineal). Ejemplo 1.2. Un caso particular importante de norma para un espacio vectorial E con producto escalar es: x = x, x (1.6) Como para la norma euclidiana en Rn , se verica que · denida en el ejemplo 1.2 verica las propiedades (N1),(N2) y (N3) de una norma. A partir del momento en que nos damos una norma sobre un espacio vectorial E, pode- mos denir la convergencia de sucesiones. Denición 1.3. Sea {xn} una sucesión en un espacio vectorial E con norma. Decimos que la sucesión converge hacia a ∈ E, si ∀ε 0 ∃N ≥ 1 ∀n ≥ N xn − a ε. (1.7) La sucesión (no necesariamente convergente) será una sucesión de Cauchy si ∀ε 0 ∃N ≥ 1 ∀m, n ≥ N xn − xm ε. (1.8) Denición 1.4. Un espacio vectorial E dotado de una norma · se llama espacio vectorial normado. El espacio es completo si cada sucesión de Cauchy en E es convergente. Un espacio vectorial normado y completo se llama un espacio de Banach. Un espacio de Banach cuya norma está dada por un producto escalar, se llama espacio de Hilbert. 4
  • 5. Observación 1.1. En todo espacio de Banach se cumple que: una sucesión es de Cauchy si sólo si es convergente. Ejemplo 1.3. El primer ejemplo de un espacio de Hilbert es el espacio Rn con la norma euclidiana. La completitud es una consecuencia de un teorema de análisis I (ver por ejem- plo...). Con la norma x 1 = n i=1 |xi| (o x ∞ = m´axi |xi|) el espacio Rn no es un espacio de Hilbert, pero es un espacio de Banach, ya que todas las normas son equivalentes en Rn (ver...). Proposición 1.1 Sea C([0, 1]) := {f : [0, 1] → R | f es continua}. Con la norma f ∞ = sup t∈[0,1] |f(t)|, (1.9) C([0, 1]) es un espacio de Banach. Por el contrario, con una de las normas f 1 = 1 0 |f(t)|dt o f 2 = 1 0 |f(t)|2dt, (1.10) el espacio C([0, 1]) no es completo. Observación 1.2. La norma f 2 esta denida a partir del producto escalar f, g = 1 0 f(t)g(t)dt, pero esta proposición dice que C([0, 1]) con esta norma no es un espacio de Hilbert. Demostración. Primero se debe probar que f 1, f 2 y f ∞ son normas en el espacio de funciones continuas C([0, 1]). Esto no es muy difícil de hacer y es un ejercicio de análisis I. a) Sea {fn}n≥1 una sucesión de Cauchy para la norma f ∞. Entonces, la propiedad |fn(t) − fm(t)| ≤ fn − fm ∞ ε para n, m ≥ N (1.11) implica que {fn(t)}n≥1 es una suceción de Cauchy en R. Como R es completo (ver...), la sucesíon {fn(t)}n≥1 converge hacia un elemento de R, que denotamos por f(t). Queda por probar que la función f(t) denida de esta manera, es continua. Pasando al límite m → ∞ en (1.11), obtenemos |fn(t) − f(t)| ≤ ε para n ≥ N, donde es importante observar que N depende de ε 0 pero no de t ∈ [0, 1]. Entonces, la sucesión {fn} converge uniformemente hacia f, por lo tanto f es continua (ver...). b) Consideremos la sucesión {fn} en C([0, 1]), donde fn(t) es lineal denida por pedazos por: fn(t) =    0 x ∈ [0, 1 2 − 1 n ] n 2 (x − 1 2 + 1 n ) x ∈ [1 2 − 1 n , 1 2 + 1 n ] 1 x ∈ [1 2 + 1 n , 1] (1.12) (ver la gura para n = 3, 5 = 10). Para m ≥ n tenemos que fn −fm 1 = 1/n −1/n |fn(t) − fm(t)| 1/2 dt 1 n y fn −fm 2 1√ 2n . Luego para ambas normas, la sucesión {fn} es de Cauchy. Como la función límite f(t) no es continua sobre [0, 1], esta sucesión no converge en C([0, 1]). 5
  • 6. Proposición 1.2 Para un conjunto arbitrario A consideremos el espacio B(A) := {f : A → R | f es acotada } con f ∞ = sup t∈A |f(t)|. (1.13) B(A) es un espacio de Banach. Demostración. La demostración es esencialmente la misma que parte a) de la proposición 1.1. Observemos que f ∞ está bien denida ya que f está acotada en A y por lo tanto el supremo existe. Todas las deniciones topológicas de los espacios Rn pueden ser extendidas a los espacios de Banach. Denición 1.5. Sea E un espacio vectorial normado. 1. Dos normas · p y · q son equivalentes, si existe dos constantes positivas C1 y C2 tales que C1 x p ≤ x q ≤ C2 x p para todo x ∈ E. 2. Una bola de centro a y radio r es el conjunto Br(a) = {x ∈ E | x − a ε}. 3. Un conjunto V ⊂ E es una vecindad de a ∈ E, si existe ε 0 tal que Bε(a) ⊂ V . 4. Un conjunto U ⊂ E es abierto, si U es vecindad de cada uno de sus elementos, es decir si ∀x ∈ E ∃ε 0 Bε(x) ⊂ U. 5. Un conjunto V ⊂ E es cerrado si su complemento V c es abierto. Esto es equivalente a decir que toda sucesión convergente {xn} con xn ∈ V , tiene su límite en V . 6. Un conjunto K ⊂ E es compacto si cada sucesión {xn} con xn ∈ K posee una subsu- cesión que converge hacia un elemento de K. 6
  • 7. 7. Sean E y F dos espacios vectoriales normados y U ⊂ E. Una función f : U → F es continua en x0 ∈ U si ∀ε 0 ∃δ 0 ∀x ∈ U : x − x0 δ ⇒ f(x) − f(x0) ε (1.14) 8. La aplicación norma x → x es continua (ya que | x − x0 | ≤ x − x0 ). La mayoría de los resultados probados para espacios Rn y Rm siguen siendo válidos si los reemplazamos por espacios de Banach. Sin embargo, hay que tener precaución ya que ciertas propiedades se pierden si la dimensión del espacio de Banach es innita. Por ejemplo: 1. La bola cerrada {x ∈ E | x ≤ 1} no necesariamente es compacta. 2. Dos normas en el mismo espacio no siempre son equivalentes. 3. El teorema de Bolzano-Weierstrass cada sucesión acotada posee una subsucesión con- vergente no es verdadera. 4. La caracterización K compacto ⇔ K cerrado y acotado ya no es válida. Ejemplo 1.4. Consideremos el espacio de funciones acotadas B(R) denida en (1.13) y consideremos la sucesión fn ∈ B(R) denida por fn(t) = 1 si t ∈ [n, n + 1) y por fn(t) = 0 si t ∈ [n, n+1). La sucesión {fn} es acotada (tenemos que fn ∞ ≤ 1) y satisface fn −fm ∞ = 1 para m = n. En consecuencia, esta sucesión no puede tener una subsucesión convergente. Este contra-ejemplo muestra al mismo tiempo que la bola cerrada no es compacta, que el teorema de Bolzano-Weierstrass no es cierto sobre B(R) y que las caracterización dada más arriba de compacidad no es válida. 1.3. Aplicaciones lineales Las aplicaciones lineales juegan un rol muy importante en la denición (1.2) de la dife- renciabilidad. En Rn , todas las aplicaciones lineales son continuas, más aún uniformemente continuas (ver...). Nosotros veremos en este párrafo que esto no siempre es el caso si la dimensión del espacio vectorial es innita. Proposición 1.3 Para una aplicación lineal A : E → F (E y F son dos espacios vectoriales normados), las condiciones siguientes son equivalentes: (a) A es continua en todo punto de E; (b) A es continua en el origen 0 ∈ E; (c) A(x) está acotada sobre la bola unidad {x ∈ E | x ≤ 1}. Demostración. Es claro que (a)⇒ (b). Mostremos que (b)⇒(c): la continuidad de A(x) en el origen implica que para ε = 1 existe un δ 0 tal que A(y) − A(0) = A(y) ≤ = 1 para y ≤ δ. Utilizando la linealidad de A, obtenemos A(x) = A 1 δ δx = 1 δ A(δx) ≤ 1 δ para x ≤ 1. 7
  • 8. Acabamos de probar A(x) está acotada sobre la bola unidad. Para demostrar que (c)⇒ (a), jemos arbitrariamente un x0 ∈ E y supongamos que A(x) ≤ M sobre la bola unidad. Entonces, para x = x0 tenemos A(x) − A(x0) = A(x − x0) = x − x0 · A x − x0) x − x0 ≤ M x − x0 , lo que implica la continuidad de A en x0. En el caso de los espacios de dimensión innita, llamaremos operador lineal a una aplica- ción lineal. A menudo escribiremos Ax en lugar de A(x) y diremos también aplicación acotada para una aplicación lineal continua (a causa de la propiedad (c) de la proposición 1.3). Una aplicación lineal A de Rn en Rm está representada por una matriz que denotaremos por la misma letra A. Entonces, la expresión Ax puede ser interpretada como el valor de la aplicación A en el punto x, o bien como el producto de la matriz A con el vector x. Ejemplo 1.5. Existe operadores lineales no continuos. Consideremos el espacio de funciones continuas C([0, 1]) con la norma f 1 de (1.10) y las funciones fn ∈ C([0, 1]) dadas por fn(t) = n − n2t 2 si t ∈ [0, 2 n ] y fn(t) = 0 si t ≥ 2 n . La aplicación denida por A: C([0, 1]) → R f → f(0) es lineal pero no acotada, ya que |A(fn)| = n y fn 1 = 1 para todo n. Denición 1.6. Sean E y F dos espacios vectoriales normados. Denotamos por L(E, F) el conjunto de aplicaciones lineales continuas de E en F. Para un elemento A ∈ L(E, F), denimos A := sup x ≤1 Ax = sup x=0 Ax x . (1.15) Para E = F, escribimos también L(E) en lugar de L(E, E). La denición 1.6 signica A es el número real más pequeño tal que Ax ≤ A · x para todo x ∈ E (1.16) La desigualdad (1.16) es fundamental para todos los cálculos con aplicaciones lineales. 8
  • 9. Observación 1.3. No es muy difícil vericar la segunda igualdad de (1.15), lo que hace indiferente con cual de las dos trabajemos. En efecto, pongamos α = sup x ≤1 Ax y β = supx=0 Ax x . Por denición Ay ≤ α si y ≤ 1. Para x = 0 pongamos y = x/ x , esto nos da Ax / x ≤ α, luego tomando supremos sobre los x = 0 obtenemos β ≤ α. Por denición también Ax / x ≤ β si x = 0. Además, si x ≤ 1 tenemos Ax ≤ Ax / x , de donde deducimos Ax ≤ β si x ≤ 1. Tomando supremos se obtiene α ≤ β. Proposición 1.4 El espacio L(E, F) dotado de la norma de la denición (1.6) es un espacio vectorial normado. Si además F es un espacio de Banach, entonces L(E, F) también es un espacio de de Banach. Demostración. Primero debemos vericar que · de la denición 1.6 es efectivamente una norma. (N1) es fácil de vericar, para (N2) tenemos por denición que A ≥ 0. Por otro lado, si A = 0 (la aplicación lineal nula), entonces A = supx=0 Ax = supx=0 0 = 0 y recíprocamente si A = 0, por la desigualdad (1.16) Ax = 0 para todo x ∈ E, en particular, por propiedad (N2) de la norma en F tenemos Ax = 0 para todo x ∈ E, es decir A es la aplicación lineal nula. Demostremos (N3): para A, B ∈ L(E, F) tenemos (A + B)x ≤ Ax + Bx ≤ ( A + B ) x . Dividiendo esta desigualdad por x y tomando el supremo, obtenemos la desigualdad trian- gular A + B ≤ A + B . Supongamos ahora que F es completo. Para demostrar la completitud, tomemos {An} una sucesión de Cauchy en L(E, F). Para x ≤ 1 obtenemos Anx − Amx ≤ An − Am · x ≤ ε · x ≤ ε para n, m ≥ N, (1.17) lo que implica que {Anx} es una sucesión de Cauchy en F. Siendo este espacio completo, la sucesión {Anx} posee un límite que denotamos por Ax. De esta manera, obtenemos una aplicación lineal A : E → F. Pasando al límite m → ∞ en (1.17) y dividiendo por x , vemos que An − A (y también A) está acotada y que A es el límite de {An}. Proposición 1.5 Sea I ∈ L(E) la identidad (es decir Ix = x) y consideremos aplicaciones lineales A ∈ L(E, F) y B ∈ L(G, E), donde E, F y G son espacios vectoriales normados. Entonces I = 1, AB ≤ A · B . (1.18) Demostración. La propiedad I = 1 es evidente. Para demostrar la estimación de AB , aplicamos dos veces la desigualdad fundamental (1.16), (AB)x ≤ A · Bx ≤ A · B · x . enseguida, dividimos esta relación por x y tomamos el supremo sobre x = 0. 9
  • 10. Ejemplo 1.6. Sea A una matriz m × n, es decir A ∈ L(Rn , Rm y denotemos por A p = sup x=0 Ax p x p (1.19) la expresión (1.15) si utilizamos la misma norma en los dos espacios Rn y Rm . Entonces, tenemos las fórmulas explícitas A 1 = m´ax j=1,...,n m i=1 |aij| , A ∞ = m´ax j=1,...,m n j=1 |aij| A 2 = valor propio más grande de AT A. Demostración. Para la norma x 1: Ax 1 = m i=1 n j=1 aijxj m i=1 n j=1 |aij| · |xj| = n j=1 m i=1 |aij| |xj| ≤ m´ax j=1,...,n m i=1 |aij| x 1. Deducimos que A 1 ≤ m´axj( i |aij|). Para mostrar la igualdad, elegimos j0 con m´axj( i |aij|) = i |aij0 | y ponemos x = (0, ..., 0, 1, 0...0)T , donde 1 está en la posición j0. Con esta elección de x, tenemos la igualdad en la estimación de arriba, lo cual demuestra que A 1 no puede ser más pequeño que m´axj( i |aij|). La fórmula para la norma x ∞ se demuestra de la misma manera. Para la norma x 2: La matriz AT A es simétrica semidenida positiva (xT AT Ax = Ax 2 2 ≥ 0), luego existe una matriz ortogonal U (UT U = 1) tal que UT AT AU = diag(λ1, ..., λn), donde λi ≥ 0 son los valores propios de AT A. Con la transformación x = Uy y recordando que las matrices ortogonales preservan la norma euclidiana x 2 = y 2, tenemos que Ax 2 2 = xT AT Ax = yT UT AT AUy = n i=1 λi|yi|2 ≤ λmax y 2 2 = λmax x 2 2. Esto implica que A 2 ≤ √ λmax. Para mostrar la igualdad, ponemos x igual al vector propio de AT A que corresponde al valor propio máximo AT Ax = λmaxx. Ejemplo 1.7. Para la matriz A =   4 3 −2 5 4 1   tenemos A 1 = m´ax(10, 9) = 10 A 2 = (71 + √ 145)/2 ≈ 6.4437 A ∞ = m´ax(7, 7, 5) = 7. 10
  • 11. Ejemplo 1.8. Sea k : [0, 1] × [0, 1] → R una función continua en dos variables. Consideremos el operador lineal A : C([0, 1]) → C([0, 1]), denida por (Af)(t) = 1 0 k(t, s)f(s)ds, (1.20) y las normas de la proposición proposición 1.1. Con la notación de (1.15) tenemos A 1 = m´ax s∈[0,1] 1 0 |k(t, s)|dt, A ∞ = m´ax t∈[0,1] 1 0 |k(t, s)|ds, A 2 ≤ 1 0 1 0 |k(t, s)|2dsdt. Las fórmulas para A 1 y A ∞ son obtenidas como en el ejemplo (??), la estimación para A 2 se hace como en (ver...). Demostración. Para A ∞: Af ∞ = m´ax t∈[0,1] 1 0 k(t, s)f(s)ds ≤ m´ax t∈[0,1] 1 0 |k(t, s)| |f(s)| ≤ f ∞ ds ≤ m´ax t∈[0,1] 1 0 |k(t, s)|ds f ∞, dividiendo por f ∞ y tomando supremo sobre f = 0 obtenemos la estimación A ∞ ≤ m´axt∈[0,1] 1 0 |k(t, s)|ds Proposición 1.6 (La serie geométrica de Neumann) Sea E un espacio de Banach y supongamos que el operador A ∈ L(E) satisface A 1. Entonces, I − A es invertible, (I − A)−1 es continua y tenemos (I − A)−1 = I + A + A2 + A3 + · · · (1.21) Demostración. Mostremos primero que An := I + A + A2 + · · · + An es una sucesión de Cauchy en L(E). Utilizando que An ≤ A n , obtenemos para m n que An − Am = An+1 + · · · + Am ≤ An+1 + · · · + |Am ≤ A n+1 + A n ≤ A n+1 1 − A (observemos que A n+1 → 0 cuando n → ∞). Por la proposición 1.4, L(E) es completo, luego la sucesión {An} converge hacia un B ∈ L(E). Pasando al límite n → ∞ en la composición de aplicaciones continuas An(I − A) = (I − A)An = I − An+1, obtenemos B(I − A) = (I − A)B = I, lo cual demuestra la inversibilidad de I − A y la fórmula (1.21). 11
  • 12. 1.4. Diferenciabilidad en los espacios normados Daremos ahora la generalización directa de la denición (1.2) Denición 1.7. Sean E y F dos espacios vectoriales normados y U ⊂ E abierto. Decimos que f : U → F es derivable en a ∈ U si existe una aplicación lineal f (a) ∈ L(E, F) tal que f(x) = f(a) + f (a)(x − a) + r(x) x − a (1.22) donde la función r : U → F satisface r(x) → 0 para x → a. Poniendo h = x − a, la expresión de arriba también se escribe f(a + h) = f(a) + f (a)h + r(h) h (1.23) donde r satisface r(h) → 0 para h → 0 Respecto a la denición usual de diferenciabilidad en Rn , pedimos que la aplicación lineal f (a) sea continua. Esto es importante ya que una aplicación lineal en espacios de dimensión innita podría no ser continua (ver ejemplo 1.5). Ejemplo 1.9. Si f : E → F es lineal y continua, tenemos que f (a) = f para todo a ∈ E. En efecto f(a + h) = f(a) + f(h), lo cual sugiere la denición f (a) = f y r(h) = 0 Ejemplo 1.10. Sea E = R3 , F = R2 y f : E → F dada por f(x) = f1(x1, x2, x3) f2(x1, x2, x3) = x2 1 + x2 2 + x2 3 x1x2x3 . Su derivada en el punto a = (a1, a2, a3)T es la aplicación lineal f (a) ∈ L(R3 , R2 ) denida por la matriz f (a) = 2a1 2a2 2a3 a2a3 a1a3 a1a2 . Se verica que la aplicación r(x) de (1.22) verica r(x) → 0 cuando x → a. Como todas las normas en Rn son equivalentes, no es necesario precisar la norma con la que se trabaja. Además, una aplicación lineal de Rn en Rm siempre es continua. Ejemplo 1.11. Sea E = F = M(n, R) el espacio de matrices de dimensión n. Consideremos la aplicación f : E → E dada por f(X) = XT X + 3X. Entonces f(A + H) − f(A) = AT H + HT A + 3H + HT H sugiere que f (A) es la aplicación lineal dada por f (A)H = AT H + HT A + 3H y r(H) = (HT H)/ H . Para ver que se trata efectivamente de la derivada se debe tener r(H) → 0 para H → 0, lo cual se puede ver de HT H ≤ HT · H . Ejemplo 1.12. Sea E = Rn[x] = {P ∈ R[x] | deg ≤ n}. Consideremos f : E → R denida por f(P) = 1 0 sin(tP(t))dt. Esta aplicación es diferenciable en todo P ∈ E. En efecto f(P + H) − f(P) = 1 0 (sin(t(P + H)(t)) − sin(tP(t))) dt (1.24) Utilizando un desarrollo de Taylor de orden 2 sin(tP(t) + tH(t)) = sin(tP(t)) + tH(t) cos(tP(t)) − t2 H(t)2 sin( 12
  • 13. Ejemplo 1.13. Consideremos el espacio C([0, 1]) con la norma · ∞, notemos sus elementos por x(t) o a(t), y estudiemos la aplicación f : C([0, 1]) → C([0, 1]), f(x)(t) = 1 0 k(t, s)g(x(s))ds (1.25) donde k : [0, 1] × [0, 1] → R es continua y g : R → R es dos veces continuamente derivable. Para una función a ∈ C([0, 1]), busquemos la derivada f (a). Con un h ∈ C([0, 1]) tenemos (f(a + h) − f(a))(t) = 1 0 k(t, s) (g(a(s) + h(s)) − g(a(s))) ds = 1 0 k(t, s) g (a(s)) + 1 2 g (α(s))h(s) h(s)ds, donde en la última linea hemos aplicado un desarrollo de Taylor de orden 2 y α(s) es una valor entre a(s) y a(s)+h(s). Este cálculo muestra que la aplicación lineal f (a) : C([0, 1]) → C([0, 1]) denida por (f (a)h) (t) := 1 0 k(t, s)g (a(s))h(s)ds, es un buen candidato para la derivada de f. Esta aplicación es continua (ver el ejemplo 1.8). Además, el resto puede ser estimado por f(a + h) − f(a) − f (a)h ∞ = m´ax t∈[0,1] 1 0 1 2 k(t, s)g (α(s))h(s)2 ds ≤ C h 2 ∞, donde C es una constante, ya que g (α(s)) está acotada en el intervalo que contiene a a(s) y a(s) + h(s) para todo s ∈ [0, 1] y desde luego k continua sobre el compacto [0, 1] × [0, 1] está acotada. Denición 1.8. Una aplicación A : E → F entre dos espacios vectoriales normados es un isomorsmo, si A es lineal, biyectiva , continua y si la inversa A−1 es continua 1 . Denotamos por GL(E, F) := {A ∈ L(E, F) | A es un isomorsmo }. (1.26) Para E = F, escribimos también GL(E) en lugar de GL(E, E). Lema 1.1 Si E y F son dos espacios de Banach, el conjunto GL(E, F) es abierto en L(E, F). Demostración. Para A ∈ GL(E, F), A + H es un isomorsmo para todo H con H ≤ 1/ A−1 . Esto se sigue de A + H = A(I + A−1 H), de A−1 H ≤ A−1 H 1, y de la proposición 1.6. 1La continuidad de A−1 es una consecuencia de las hipótesis sobre A. La demostración de ese resultado es difícil y utiliza el teorema de la aplicación abierta del análisis funcional. 13
  • 14. Ejemplo 1.14. Consideremos la aplicación f(X) = X−1 de GL(E) en L(E) (donde E es un espacio de Banach). Con la serie de Neumann (proposición 1.6) tenemos (A + H)−1 = (I + A−1 H)−1 A−1 = A−1 − A−1 HA−1 + j≥2 (−A−1 H)j A−1 , cuya parte lineal es f (A)H = −A−1 HA−1 . (1.27) La continuidad de f (A) es una consecuencia de f (A)H ≤ A−1 2 H y la proposición 1.3 ya que f (A) está acotada en la bola unidad. El resto j≥2(−A−1 H)j A−1 puede ser estimado por N j=2 (−A−1 H)j A−1 ≤ A−1 3 H 2 + · · · + A−1 N+1 H N ≤ A−1 3 H 2 1 − A−1 H , Pasando al límite N → ∞ y gracias a la continuidad de la norma tenemos que j≥2 (−A−1 H)j A−1 ≤ A−1 3 H 2 1 − A−1 H . Dividiendo esta estimación por H , esta tiende a cero si H → 0. Esto demuestra la diferenciabilidad de f(X) = X−1 asi como la fórmula (1.27). Denición 1.9. Para dos espacios vectoriales E1 y E2 de normas respectivas · 1 y · 2, consideremos el producto cartesiano E1 × E2. Si le dotamos de la norma (x1, x2) := x1 1 + x2 2, (1.28) obtenemos un espacio vectorial normado llamado espacio producto. Es un espacio de Banach si los espacios E1 y E2 son espacios de Banach. La vericación de estas armaciones es un ejercicio de rutina. Ejemplo 1.15. Sea B : E1 × E2 → F una aplicación bilineal acotada, es decir, esta satisface B(x1, x2) ≤ M x1 1 x2 2 para todo (x1, x2) ∈ E1 × E2. (1.29) Una aplicación como esta es diferenciable y su derivada está dada por B (a1, a2)(h1, h2) = B(a1, h2) + B(h1, a2). (1.30) En efecto, la bilinealidad B(a1 + h1, a2 + h2) = B(a1, a2) + B(a1, h2) + B(h1, a2) + B(h1, h2), nos dice que la derivada está dada por B (a1, a2)(h1, h2) = B(a1, h2) + B(h1, a2). (1.31) La continuidad de B (a1, a2) resulta de B (a1, a2)(h1, h2) ≤ M( a1 1 h2 2 + h1 1 a2 2) ≤ M m´ax( a1 1, a2 2) (h1, h2) . En cuanto al resto B(h1, h2) tenemos que B(h1, h2) ≤ M h1 1 h2 2 ≤ M( h1 2 1 + h2 2)2 /4 = M (h1, h2) 2 /4. 2 2Acá utilizamos la desigualdad (a + b)2 ≥ 4ab. 14
  • 15. Teorema 1.1 (Reglas del cálculo diferencial) i) Linealidad de la derivada. Sean f, g dos aplicaciones U → F (U es un abierto de E) diferenciables en a ∈ U, y sea λ ∈ R. Entonces, tenemos (f + g) (a) = f (a) + g (a), (λf) (a) = λf (a). (1.32) ii) Regla de la cadena. Sean E, F, G tres espacios vectoriales normados, sea U un abierto de E y sea V un abierto de F. Consideremos dos aplicaciones, f : U → F diferenciable en a ∈ U y g : V → G diferenciable en b = f(a) ∈ V (supondremos que f(U) ⊂ V ). Entonces g ◦ f es diferenciable en a ∈ U y tenemos (g ◦ f) (a) = g (f(a)) ◦ f (a). (1.33) iii) Fórmula de Leibniz. Sean E, F1, F2, G espacios vectoriales normados, U un abierto de E, f : U → F1 y g : U → F2 aplicaciones diferenciables en a ∈ U, y B : F1 ×F2 → G una aplicación bilineal acotada (es decir satisface (1.29)). Entonces, la función p(x) := B(f(x), g(x)) es diferenciable en a y tenemos p (a)h = B(f(a), g (a)h) + B(f (a)h, g(a)). (1.34) Demostración. i) La prueba es trivial. ii) Es la misma que para funciones en Rn . Sea k(h) = f(a + h) − f(a). Como g es diferen- ciable en b = f(a) tenemos g(f(a + h)) − g(f(a)) = g (f(a))k(h) + r1(k(h)) k(h) con l´ım k→0 r1(k) = 0. Además, como f es diferenciable en a, tenemos también k(h) = f(a + h) − f(a) = f (a)h + r2(h) h con l´ım h→0 r2(h) = 0. Luego, g(f(a + h)) − g(f(a)) = g (f(a))f (a)h + h g (f(a))r2(h) + r1(k(h)) k(h) . (1.35) El primer término tiene la forma deseada y es una aplicación lineal continua por se com- posición de dos aplicaciones lineales continuas. En cuanto al resto, primero observemos que k(h) ≤ f (a) h + r2(h) h y l´ımh→0 r1(k(h)) = 0, lo que permite mostrar que r1(k(h)) k(h) = o(h). El argumento es similar para el otro término. iii) Demos p = B ◦ d donde d : U → F1 × F2 es la aplicación dada por d(x) = (f(x), g(x)). La aplicación d es derivable en a con derivada d (a)h = (f (a)h, g (a)h). Luego por la regla de la cadena y la fórmula (1.31) la derivada de p está dada por p (a)h = B (d(a))d (a)h = B (f(a), g(a))(f (a)h, g (a)h) = B(f(a), g (a)h) + B(f (a)h, g(a)). 15
  • 16. La regla de la cadena puede ser expresada en términos de matrices cuando los espacios son de dimensión nita son Rn , Rm y Rs respectivamente. En ese caso, en términos de las matrices jacobianas tenemos Jg◦f (x) = Jg(f(x))Jf (x), la multiplicación de las matrices jacobianas. 1.5. Teorema de los incrementos nitos Para una función f : [a, b] → R, el teorema de incrementos nitos (o teorema de Lagrange) arma que existe un ξ ∈ (a, b) tal que f(b) − f(a) = f (ξ)(b − a), si f es continua en [a, b] y derivable en (a, b). Para una función f : [a, b] → Rm , la armación bajo esa forma ya no es verdadera. Un contra-ejemplo es la funcíon f(x) = (cos x, sin x)T y [a, b] = [0, 2π]. Se tiene que f(a) = f(b), pero no existe ξ con f (ξ) = 0. Por el contrario, vemos que la desigualdad f(b) − f(a) ≤ f (ξ) · b − a todavía es verdadera en este ejemplo. En un primer teorema vamos a considerar funciones f : [a, b] → F donde F es un espacio vectorial normado. La demostración será un poco diferente a la que se conoce para funciones de [a, b] en Rm (ver...) ya que no necesariamente disponemos de un producto escalar en F. Luego, extenderemos el resultado a funciones f : U → F, donde U ⊂ E y E es otro espacio vectorial normado. Lema 1.2 Sean a b dos reales, F un espacio vectorial normado, f : [a, b] → F y g : [a, b] → R dos aplicaciones continuas en [a, b] y derivables en (a, b). Supongamos que f (t) ≤ g (t) para a t b. Entonces, f(b) − f(a) ≤ g(b) − g(a). Demostración. Para ε 0 dado, consideremos la desigualdad f(t) − f(a) ≤ g(t) − g(a) + ε(t − a) + ε. (1.36) Esta se verica estrictamente para t = a y también, por continuidad de f y g, en una vecindad de a. Entonces, el supremo c := sup{t ∈ [a, b] | (1.36) se cumple } existe y tenemos c a. Mostremos que la desigualdad (1.36) se cumple también para c. Por denición de supremo, existe una sucesión {tn}, tn → c tal que f(tn)−f(a) ≤ g(tn)−g(a)+ (tn −a)+ . Pasando al límite n → ∞, la continuidad de f y g muestra la desigualdad (1.36) para t = c. 16
  • 17. En realidad c = b. Por el absurdo, supongamos que c b. La diferenciabilidad de f y g en el punto c implica que existe un η 0 tal que f(t) − f(c) ≤ f (c) (t − c) + ε 2 (t − c) g(t) − g(c) ≥ g (c)(t − c) − ε 2 (t − c) para todo t ∈ [c, c + η]. La hipótesis f (c) ≤ g (c) implica entonces que f(t) − f(c) g (c)(t − c) + ε 2 (t − c) ≤ g(t) − g(c) + ε(t − c). Esto, además de la desigualdad (1.36) para t = c implica que f(t) − f(a) ≤ f(t) − f(c) + f(c) − f(a) ≤ g(t) − g(c) + ε(t − c) + g(c) − g(a) + ε(c − a) + ε = g(t) − g(a) + ε(t − a) + ε para todo t ∈ [c, c + η], lo que contradice que c es el supremo. Por lo tanto, tenemos c = b. Dejando tender ε hacia 0 en (1.36) con t = b, obtenemos la armación del lema. Consideremos ahora la situación en la que f está denida sobre una abierto U de un espacio vectorial normado E, que ya no es necesariamente R. Denición 1.10. Para a, b ∈ E espacio vectorial normado, llamamos segemento de extremi- dades a y b al conjunto de puntos x ∈ E de la forma x = a + t(b − a) con 0 ≤ t ≤ 1. Teorema 1.2 (Teorema de los incrementos nitos) Sean E, F espacios vectoriales normados y U ⊂ E un abierto. Si f : U → F es diferenciable en U y si el segmento de extremidades a, b está contenido en U, entonces f(b) − f(a) ≤ sup 0t1 f (a + t(b − a)) · b − a . (1.37) Demostración. La aplicación h(t) := f(a + t(b − a)) es una aplicación diferenciable de [0, 1] en F y por la regla de la cadena tenemos h (t) = f (a + t(b − a))(b − a), entonces h (t) ≤ f (a + t(b − a) (b − a) . Luego, basta aplicar el lema 1.2, reemplazando a por 0 , b por 1, f por h y g(t) por Mt donde M = sup0s1 f (a + s(b − a) b − a . 17
  • 18. Denición 1.11. Decimos que un conjunto D de un espacio vectorial es convexo si, para cualesquiera a, b ∈ D, el segmento de extremidades a y b, {a + t(b − a) | t ∈ [0, 1]}, está en D. Corolario1.1 Sean E, F dos espacios vectoriales normados, U ⊂ E un abierto, f : U → F derivable en U y D un conjunto convexo. Entonces, f(x) − f(y) ≤ sup z∈D f (z) · x − y para x, y ∈ D. Demostración. Es una consecuencia inmediata del Teorema 1.2 ya que por la convexidad, cualquier segmento con extremidades x, y en D está contenido en D y el supremo sobre ese segmento es menor o igual al supremo sobre D. Denición 1.12. Un abierto U de un espacio vectorial normado es conexo, si dos puntos cualesquiera de U pueden ser unidos por una linea quebrada en U. Una linea quebrada es la union nita de segmentos ∪m i=1{ai−1 + t(ai − ai−1) | t ∈ [0, 1]}. Corolario1.2 Sean E, F dos espacios vectoriales normados, U un abierto conexo de E y f : U → F una aplicación diferenciable en U. Si f (x) = 0 para todo x ∈ U, entonces f es constante. Demostración. Fijemos a ∈ U y tomemos x ∈ U arbitrario. Como U es conexo, existe una sucesión nita a = a0, a1, ..., am = x tal que los segmentos {ai−1 + t(ai − ai−1) | t ∈ [0, 1]} están en U. El Teorema 1.2 implica que: f(ai) − f(ai−1) ≤ sup 0t1 f (ai−1 + t(ai − ai−1)) · ai − ai−1 = 0. Entonces, f(ai) = f(ai−1) y en consecuencia también f(x) = f(a). Ejemplo 1.16. Mostrar que el sistema de ecuaciones x = 1 2 sin(x + y), y = 1 2 cos(x − y) admite a lo sumo una solución. Solución. Consideremos la aplicación f : R2 → R2 denida por f(x, y) = 1 2 sin(x + y), 1 2 cos(x − y) , y busquemos mayorar su derivada con la norma euclidiana · 2. Para (h, k) ∈ R2 tenemos f (x, y)(h, k) = 1 2 cos(x + y) 1 2 cos(x + y) 1 2 sin(x − y) −1 2 sin(x − y) h k 18
  • 19. 1.6. Teorema del punto jo de Banach Consideremos el problema de resolver una ecuación no lineal en un espacio de Banach. Para funciones f y g de E en E, el problema puede ser formulado de la manera siguiente: g(x) = 0, buscar un cero de g, o f(x) = x, buscar un punto jo de f. Poniendo f(x) = x + g(x) o g(x) = x + Ag(x) con A ∈ GL(E) podemos pasar de una formulación a otra. El teorema siguiente nos proporciona una condición suciente para la existencia y unicidad de una solución a ese problema. Teorema 1.3 (Teorema del punto jo de Banach 1922) Sean E un espacio de Banach, D ⊂ E cerrado y f : D → E una aplicación que satisface a) f(D) ⊂ D, b) f es una contracción sobre D, es decir, existe un α 1 tal que f(x) − f(y) ≤ α x − y para todo x, y ∈ D. (1.38) Entonces, f posee un único punto jo x = f(x) en D. Observación 1.4. La condición (1.38) implica que f es uniformemente continua sobre D. Inversamente, si f es derivable en una vecindad de D, si D es convexo y si supx∈D f (x) 1, entonces f es una contracción. Esto es una consecuencia del Corolario 1.1. Demostración. Unicidad. Sean x y y dos puntos jos, es decir, f(x) = x y f(y) = y. La contractividad implica que x − y = f(x) − f(y) ≤ α x − y con α 1, lo cual es posible solamente si x = y. Existencia. Tomemos x0 ∈ D arbitrario y consideremos la iteración xn+1 = f(xn). La hipó- tesis f(D) ⊂ D implica que xn ∈ D para todo n ≥ 0. Mostremos que {xn} es una sucesión de Cauchy. Tenemos que xn+1 −xn = f(xn)−f(xn−1) ≤ α xn −xn−1 y, aplicando esta desigualdad iterativamente, tenemos que xn+1 − xn ≤ αn x1 − x0 . Para m ≥ n de lo anterior deducimos que xm − xn ≤ xm − xm−1 + xm−1 − xm−2 + · · · + xn+1 − xn ≤ αm−1 + αm−2 + · · · + αn x1 − x0 ≤ αn 1 − α x1 − x0 . 19
  • 20. Entonces, {xn} es una sucesión de Cauchy (observemos que αn → 0). Como el espacio E es completo, esta sucesión converge hacia un x ∈ E. El límite x está en D, ya que D es cerrado. Tomando el límite n → ∞ en xn+1 = f(xn) y utilizando la continuidad de f (l´ım f(xn) = f (l´ım xn)), obtenemos x = f(x), es decir, x es un punto jo de f. La demostración del teorema del punto jo de Banach es constructiva y nos conduce al algoritmo siguiente. Método de aproximaciones sucesivas. Para resolver un problema x = f(x) en un espacio de Banach, este método está denido por: elegir x0 arbitrariamente, aplicar la iteración xn+1 = f(xn). Bajo las hipótesis del teorema, este algoritmo converge hacia la solución única del problema. A menudo, las hipótesis son difíciles de vericar, pero podemos de todas formas aplicar el algoritmo. Si tenemos convergencia, estamos seguros de haber encontrado un solución (si f es continua). Esta solución sin embargo, no es necesariamente única. Ejemplo 1.17. Tomemos la funcíon f(x) = cos x sobre D = [0, 1]. Esta función es una contracción, ya que |f (x)| = | sin x| ≤ sin 1 1 para x ∈ D. Otro ejemplo es la función f(x) = ex /4 sobre D = [0, 1.1]. Para esta función tenemos |f (x)| = ex /4 ≤ e1.1 /4 1. Las iteraciones están ilustradas en la gura (...) Ejemplo 1.18. Consideremos el sistema de dos ecuaciones no lineales con dos incógnitas x = 2 + x2 + y2 20 , y = 1 − xy3 10 . La solución de este sistema puede verse como el punto jo de la función f(x, y) = 2 + (x2 + y2 )/20, 1 − xy3 /10 T . Sin vericar las hipótesis del teorema del punto jo de Banach, aplicando el método iterativo con los valores iniciales x0 = 2, y0 = 1 se obtiene 20
  • 21. x1 = 2.2500000 y1 = 0.8000000, x2 = 2.2851250 y2 = 0.8848000, x3 = 2.3002333 y3 = 0.8417129, x4 = 2.2999777 y4 = 0.8628284, y se observa convergencia hacia la solución x = 2.3014505, y = 0.8557662 del sistema. Ejemplo 1.19. (Ecuación de Fredolhm) Consideremos el espacio de Banach C([0, 1]) con la norma · ∞ y el problema de punto jo T(y) = y, donde T : C([0, 1]) → C([0, 1]) el el operador denido por T(y)(t) = f(t) + λ 1 0 k(t, s)y(s)ds, (1.39) donde f y k son funciones continuas y λ es un número tal que |λ|·m´ax0≤t≤1 1 0 |k(t, s)|ds 1 de manera que T es una contracción (ver el ejemplo 1.8). El método de aproximaciones sucesivas se escribe como sigue: tomamos una aproximación inicial, por ejemplo y0(t) = f(t), luego iteramos según la fórmula yn+1(t) = f(t) + λ 1 0 k(t, s)yn(s)ds. La sucesión {yn(t)} converge hacia la solución única de T(y) = y. Consideremos ahora el problema de resolver f(x) = y para un vector y dado y busquemos resultados sobre la existencia y unicidad (local) de una solución, es decir, buscamos resultados sobre la biyectividad de la función f. Además, desearíamos saber si la solución depende continuamente del parámetro y. Esto está resumido en la denición siguiente. Denición 1.13. Sean E y F dos espacios vectoriales normados , U ⊂ E y V ⊂ F. Una aplicación f : U → V es un homeomorsmo de U sobre V si f es biyectiva, continua y si la inversa f−1 : V → U es continua. Método de Newton y Newton simplicado Supongamos f(a) = b y consideremos el problema f(x) = y para un y dado cerca de b. Sea x0 una aproximación de la solución buscada (por ejemplo x0 = a). La idea es linealizar el problema alrededor de x0 para obtener una mejor aproximación x1: f(x0) + f (x0)(x1 − x0) = y o x1 = x0 − f (x0)−1 (x1 − x0). Iterando este procedimiento, obtenemos el método de Newton xn+1 = xn − f (xn)−1 (f(xn) − y)) (1.40) (ver la gura ...). Esta fórmula puede interpretarse como el método de aproximaciones suce- sivas aplicado a x = g(x) donde la función de punto jo es g(x) = x − f (x)−1 (f(x) − y). En la práctica, a menudo reemplazamos f (xn) por una aproximación A que no dependa de xn (por ejemplo A = f (x0)). Esto simplica el cálculo numérico y la teoría (estudio de convergencia, etc). En este caso, consideramos una variante del método de Newton conocido como método de Newton simplicado, que se escribe como xn+1 = g(xn) con g(x) := x − A−1 (f(x) − y). (1.41) 21
  • 22. Proposición 1.7 Sean E y F dos espacios de Banach, B := {x ∈ E | x − a ≤ ρ}, A : E → F un isomorsmo y f : B → F que satisface x − z − A−1 (f(x) − f(z)) ≤ α x − z para x, z ∈ B (1.42) con α 1. Entonces i) f es un homeomorsmo de B en f(B), ii) con σ = ρ(1 − α) A−1 se tiene {y ∈ F | y − f(a) ≤ σ} ⊂ f(B), iii) para y ∈ F que satisface y − f(a) ≤ σ, la iteración x0 = a, xn+1 = g(xn) (método de Newton simplicado) converge hacia la solución f(x) = y. Demostración. I) La aplicación g(x) denida en (1.41) es una contracción sobre B con factor contractante α por nuestra hipótesis. La continuidad de f(x) es entonces una consecuencia de f(x) − f(z) = A(x − g(x)) + y − A(z − g(z)) − y = A(x − z) − A(g(x) − g(z)) ≤ A (1 + α) x − z . De la denición de g(x) deducimos que x − z = g(x) − g(z) + A−1 (f(x) − f(z)) y obtenemos la estimación x − z ≤ α x − z + A−1 f(x) − f(z) . Tenemos entonces x − z ≤ A−1 1 − α f(x) − f(z) para x, z ∈ B. (1.43) La función f : B → f(B) es sobreyectiva por denición. La propiedad (1.43) demuestra que también en inyectiva y por lo tanto biyectiva. Poniendo u = f(x) y v = f(z) en (1.43), obtenemos f−1 (u) − f−1 (v) ≤ A−1 1 − α u − v , (1.44) lo cual demuestra la continuidad de f−1 sobre f(B). I y II) Consideremos ahora un y ∈ F con y − f(a) ≤ σ. Mostremos que g(B) ⊂ B. Esto se desprende de g(x) − a = g(x) − g(a) + g(a) − a = g(x) − g(a) − A−1 (f(a) − y), ya que en norma g(x) − a ≤ α x − a + A−1 · f(a) − y ≤ αρ + A−1 σ = ρ 22
  • 23. para un x ∈ B. Como B es una bola cerrada, podemos aplicar el teorema del punto jo de Banach. Para un tal y existe un x ∈ B tal que g(x) = x, es decir f(x) = y, lo cual muestra al mismo tiempo la armación II). Si f(x) es diferenciable en a (el centro de la bola B), es natural escoger A = f (a) siempre que esta aplicación sea un isomorsmo. Pero la diferenciabilidad en a no garantiza que la estimación (1.43) se verique con un α 1. Consideremos entonces una condición más fuerte que la diferenciabilidad. Denición 1.14. Sean E y F dos espacios vectoriales normados, U ⊂ E un abierto y a ∈ U. Decimos que f : U → F es estrictamente diferenciable en a si existe un aplicacioón lineal continua A : e → F tal que f(x) − f(z) = A(x − z) + r(x, z) x − z , (1.45) donde la función r : U × U → F satisface r(x, z) → 0 si (x, z) → (a, a). Si ponemos z = a en (1.45) econtramos (1.22) con A = f (a). Asi estrictamente dife- renciable en a implica diferenciable en a, algo que es bueno para la terminología elegida. Observemos también de (1.45) que una función estrictamente diferenciable en a es continua en toda una vecindad de a. Ejemplo 1.20. Existen funciones que son diferenciables en a, pero no estrictamente diferen- ciables en a. Podemos tomar una función que sea diferenciable en a pero que no continua en ninguna vecindad de a. Un ejemplo es la función f(x) = x2 cos(1/x) en a = 0. Las sucesiones xn = (2nπ)−1 y zn = ((2n + 1)π)−1 convergen hacia cero, pero (f(xn) − f(zn))/(xn − zn) = (x2 n + z2 n)/(xn − zn) no converge hacia f (0) = 0 si n → ∞. Proposición 1.8 Sean E y F espacios vectoriales normados, U ⊂ E un abierto y a ∈ U. Si f : U → F es diferenciable en U y si la aplicación f : U → L(E, F) es continua en el punto a, entonces f es estrictamente diferenciable. Demostración. Denamos g(x) := f(x) − f (a)x, entonces f(x) − f(z) = f (a)(x − z) + g(x) − g(z), que podemos escribir también como f(x) − f(z) = f (a)(x − z) + g(x) − g(z) x − z · x − z , De manera que r(x, z) = g(x)−g(z) x−z . Apliquemos el teorema de incrementos nitos a g(x). Como la derivada de g(x) es g (x) = f (x) − f (a), tenemos g(x) − g(z) ≤ sup 0t1 f (z + t(x − z)) − f (a) · x − z . La continuidad de f (x) en a implica que la expresión sup0t1 f (z + t(x − z)) − f (a) tiende a cero si (x, z) → (a, a). Por lo tanto, también r(x, z). 23
  • 24. Ejemplo 1.21. Retomemos la función f(X) = X−1 del ejemplo 1.14, para el cual la derivada es f (X)H = −X−1 HX−1 . Mostremos que esta función es estrictamente diferenciable en GL(E). Como f(X) es continua en A ∈ GL(E), tenemos que para todo ε 0 existe un δ 0 tal que X−1 − A−1 0 si X − A δ. Escribiendo f (X)H − f (A)H = −X−1 HX−1 + A−1 HA−1 = −X−1 H(X−1 − A−1 ) − (X−1 − A−1 )HA−1 , se obtiene (f (X) − f (A))H ≤ ε( X−1 + A−1 ) H . Deducimos que f (X) − f(A) ≤ ε( X−1 + A−1 ) y por lo tanto la continuidad de f (X) en el punto A. Esto nos permite aplicar la proposición proposición 1.8. Para la mayoría de los ejemplos del párrafo I.4, podemos mostrar sin dicultad que f (x), considerada como función de x, es continua. Entonces, la proposición proposición 1.8 implica que son estrictamente diferenciables. 1.7. Teorema de Inversión local Continuamos el estudio de la resolución de ecuaciones no lineales f(x) = 0 (o f(x) = y para un y dado) en un espacio de Banach. Ejemplo 1.22. Consideremos el sistema no lineal x2 1 + x3 2 − 3x1 = y1 x4 1 − x2 1x2 + 2 = y2 (1.46) Para (x1, x2) = (1, 2) obtenemos (y1, y2) = (6, 1). La pregunta que nos gustaría responder es la siguiente: para (y1, y2) cerca de (6, 1), existe una solución (x1, x2) de (1.46) que esté cerca de (1, 2)? es esta solución única? Denición 1.15. Sean E, F dos espacios vectoriales normados y U ⊂ E un abierto. Una apli- cación f : U → F es un homeomorsmo local cerca de a ∈ U si existe una vecindad abierta U ⊂ U de a y una vecindad V de f(a) tales que la restricción f|U es un homeomorsmo de U en V . Lema 1.3 Sean E, F espacios de Banach, U ⊂ E un abierto y a ∈ U. Si f : U → F es estric- tamente diferenciable en a y si f (a) es un isomorsmo de E en F, entonces f es un homeomorsmo local cerca de a. Además, la aplicación inversa f−1 es estrictamente diferenciable en b = f(a) y se tiene (f−1 ) (b) = f (a)−1 . (1.47) Demostración. La idea es aplicar la proposición 1.7 con A = f (a). La función f es estricta- mente diferenciable en a, es decir f(x) − f(z) − f (a)(x − z) = r(x, z) x − z , (1.48) 24
  • 25. con r(x, z) → (0, 0) cuando (x, z) → (a, a). Esto signica que para todo ε 0 existe un δ 0 tal que r(x, z) ε para x, z ∈ B, donde B = {x ∈ E | x − a δ}. Aplicando f (a)−1 a (1.48) y pasando a normas tenemos x − z − f (a)−1 (f(x) − f(z)) ≤ ε f (a)−1 · x − z para x, z ∈ B. (1.49) Fijemos ε 0 tal que ε f (a)−1 ≤ 1/2. Para el δ correspondiente, f es un homeomorsmo de B en f(B) (proposición 1.7) y f(B) contiene al abierto V = {y ∈ F | y −b σ} donde σ := δ/(2 f (a)−1 ). Por lo tanto, f es también un homeomorsmo del abierto U := f−1 (V ) en V . Para mostrar que f−1 es estrictamente diferenciable en b = f(a), pongamos x = f−1 (u) y z = f−1 (v) en (1.49). Esto nos da para u, v ∈ V que f−1 (u) − f−1 (v) − f (a)−1 (u − v) ≤ ε f (a)−1 · f−1 (u) − f−1 (v) ≤ 2ε f (a)−1 2 u − v (acá se ha utilizado la estimación (1.44) con A = f (a) y α = 1/2). Por lo tanto f−1 es estrictamente diferenciable en b y la derivada está dada por (1.47). Ejemplo 1.23. Para el problema del ejemplo 1.22 tenemos f (a) = 2a1 − 3 3a2 2 4a3 1 − 2a1a2 −a2 1 = −1 12 0 −1 . (1.50) Para la norma euclidiana, calculamos f (a)−1 ≈ 12.1. Si ponemos ε = 0.04, podemos encontrar un δ 0 tal que (1.49) se cumple. Para todo y ∈ R2 con y − b ≤ 2δ/12.1, el sistema (1.46) posee una solución x que satisface x − a ≤ δ. En esta bola de radio δ, no hay otra solución. Además, la demostración del lema 1.3 muestra que el método de Newton simplicado converge hacia esta solución. El objetivo siguiente es estudiar si la solución de f(x) = y depende de manera continua de y. Más precisamente, estudiamos las condiciones bajo las cuales la función inversa es diferenciable en toda una vecindad de b = f(a). Denición 1.16. Sean E, F dos espacios vectoriales normados, U ⊂ E y V ⊂ F abiertos. f : U → F es continuamente diferenciable (o de clase C1 ) sobre U, si f es diferenciable en todo punto de U y si f : U → L(E, F) es continua. Este conjunto de funciones se denota por C1 (U). 25
  • 26. f : U → V es un difeomorsmo (de clase C1 ) de U en V , si f es biyectiva, continuamente diferenciable y si la inversa f−1 : V → U es continuamente diferenciable. f : U → F es un difeomorsmo local cerca de a ∈ U, si existe una vecindad abierta U ⊂ U de a y una vecindad abierta V de f(a) tales que f es un difeomorsmo de U en V . Observemos que un homeomorsmo que es continuamente diferenciable no siempre es un difeomorsmo. La función f : R → R denida por f(x) = x3 nos sirve de como contra- ejemplo, ya que la inversa f−1 (y) = 3 √ y es continua pero no diferenciable en el origen. Una función que es continuamente diferenciable sobre U es estrictamente diferenciable sobre U. Esto es una consecuencia de la proposición 1.8 Teorema 1.4 (Teorema de inversión local) Sean E, F espacios de Banach, U ⊂ E un abierto y a ∈ U. Una aplicación f : U → F de clase C1 es un difeomorsmo local cerca de a, si y solamente si f (a) es un isomorsmo de E en F. Además, tenemos (f−1 ) (y) = f (x)−1 para y = f(x) en una vecindad de b = f(a). Demostración. ⇒: Si f : U → F es un difeomorsmo local cerca de a, podemos derivar la identidad f−1 (f(x)) = x. Esto da (f−1 ) (y)f (x) = I con y = f(x) (1.51) en una vecindad de a. En consecuencia, f (a) es inversible. La inversa f (a)−1 = (f−1 ) (b) es una aplicación acotada ya que f−1 es diferenciable en b por hipótesis. ⇐: Como f es de clase C1 y f (a) es un isomorsmo, el lema 1.3 implica que f es un ho- meomorsmo local cerca de a. Queda por probar que f−1 es continuamente diferenciable en una vecindad de b = f(a). Como f (x) está cerca de f (a) (continuidad de f : U → L(E, F)) y GL(E, F) es abierto (lema 1.1), f (x) es un isomorsmo para todo x en una vecindad de U de a. Podemos entonces aplicar el lema 1.3 a cada punto x ∈ U , lo cual implica la diferencia- bilidad de f−1 en V := f(U ). Derivando la identidad f−1 (f(x)) = x, obtenemos (1.51) y por lo tanto también (f−1 ) (y) = f (f−1 (y))−1 para y ∈ V . La función (f−1 ) : V → L(E, F) por ser composición de aplicaciones continuas f−1 , f y (·)−1 , es por lo tanto continua. El teorema de inversión local asegura la existencia de una vecindad U tal que f realiza un difeomorsmo de U en f(U ). Nada impide, sin embargo, que exista un c ∈ U U tal que f(a) = f(c) = b. De todos modos, este difeomorsmo de U en f(U ) va a sernos de gran utilidad. 26
  • 27. Si tuvieramos la inyectividad global de f, mostraríamos que f realiza un difeomorsmo global y el resultado es el siguiente: Corolario1.3 (Teorema de inversión global) Sean E, F espacios de Banach, U ⊂ E un abierto y f : U → F continuamente diferenciable sobre U. Entonces f es un difeomorsmo de U en f(U) si y solamente si (i) f es inyectiva sobre U y (ii) f (x) es un isomorsmo para todo x ∈ U. Demostración. Este resultado es una consecuencia del Teorema 1.4, ya que la diferenciabili- dad es una propiedad local. Ejemplo 1.24. El teorema de inversión global (Corolario 1.3) en su versión para espacios euclidianos nos dice que si U ⊂ Rn es un abierto, f : U → Rn es una función de clase C1 inyectiva y tal que, para todo x ∈ U, la matriz jacobiana Jf (x) es inversible, es decir det Jf (x) = 0. Entonces la imagen f(U) es un abierto y f es un difeomorsmo de clase C1 de U en f(U). Ejemplo 1.25. (Coordenadas polares) Sea U = {(r, ϕ) ∈ R2 | r 0}, V = R2 {(0, 0)} y f : U → V dada por f(r, ϕ) = (r cos ϕ, r sen ϕ). Esta aplicación es un difeomorsmo local cerca de cada punto de U, ya que f (r, ϕ) = cos ϕ −r sin ϕ sin ϕ r cos ϕ y det f (r, ϕ) = r 0. Esta aplicación no es inyectiva (tenemos f(r, ϕ + 2π) = f(r, ϕ)). Por lo tanto, no es un difeomorsmo de U en V . Si restringimos los conjuntos U y V a U0 = {(r, ϕ) | r 0, −π ϕ π}, V0 = R2 {(x, 0) | x ≤ 0}, f se vuelve un difeomorsmo de U0 en V0. Ejemplo 1.26. Consideremos la aplicación f(u, v) = (u + v, u2 − v). Su derivada es f (u, v) = 1 1 2u −1 , esta aplicación es un difeomorsmo local cerca de todo punto (u, v) de R2 tal que u = −1 2 , ya que det f (u, v) = −1 − 2u. A partir de f(u, v) = f(a, b) se puede probar que para que f sea inyectiva, de igual manera 2u + 1 = 0. Luego f dene un difeomorsmo de (−∞, −1 2 ) × R en R2 o bien de (−1 2 , ∞) × R en R2 (un difeomorsmo es en particular un homeomorsmo y debe preservar la conexidad). 27
  • 28. Ejemplo 1.27. (Coordenadas esféricas) La aplicación (r, ϕ, θ) → (r cos ϕ sin θ, r sin ϕ cos θ, r cos θ) es un difeomorsmo de U = {(r, ϕ, θ) | r 0, −π ϕ π, 0 θ π} sobre el conjunto V = R3 {(x, 0, z) | x ≤ 0, z ∈ R}, ya que el determinante de la matriz jacobiana es det f (r, ϕ, θ) = −r2 sin θ = 0. Ejemplo 1.28. (Transformación de Cayley) La aplicación (x, y) → 1 − x2 − y2 (1 − x)2 + y2 , 2y (1 − x)2 + y2 (1.52) es un difeomorsmo del semiplano izquierdo {(x, y) | x 0} sobre el disco abierto }(u, v) | u2 + v2 1}. Para demostrar esto, identicamos R2 con el plano complejo (poniendo z = x + iy y w = u + iv) y observemos que la aplicación (1.52) es equivalente a w = 1 + z 1 − z con inversa z = w − 1 w + 1 . Por lo tanto, la aplicación (1.52) es biyectiva y es continuamente diferenciable (como función racional), asi como su inversa. 1.8. Teorema de funciones implícitas En la sección anterior consideramos el problema de resolver f(y) = x y encontramos condiciones sucientes que nos permiten de escribir la solución bajo la forma y = g(x) (atención: hemos invertido los roles de x e y). El objetivo de esta sección es de extender el resultado al problema f(x, y) = 0 (1.53) donde x, y y f(x, y) están en espacios de Banach. Buscamos saber si la ecuación (1.53) puede ser resuelta para obtener y = g(x) tal que (al menos localmente) f(x, y) = 0 ⇔ y = g(x) (1.54) Ejemplo 1.29. El caso donde x, y y f(x, y) están en R son tratados en un curso de análisis I (ver HW...). Consideremos como ejemplo la función f(x, y) = 16x3 − 84x2 + 162x − 89 + 27y3 + 54xy2 − 108y2 + 36x2 y − 180xy + 162y. Para un punto (a, b) dado que satisface f(a, b) = 0 y ∂f ∂y (a, b) = 0, existen vecindades U de a, V de b y una función diferenciable g : U → V tales que (1.54) es verdadera para (x, y) ∈ U ×V . Los puntos sobre la curba que tienen una una pendiente vertical u horizontal pueden ser encontrados por la condición ∂f ∂x (a, b) = 0 y ∂f ∂y (a, b) = 0 respectivamente. En el punto de intersección necesariamente tenemos que f(a, b) = 0, ∂f ∂x (a, b) = 0 y ∂f ∂y (a, b) = 0 (3 condiciones para 2 incógnitas). 28
  • 29. Ejemplo 1.30. Una función f(x1, x2, y) = 0 representa, en general, una supercie en R3 . ¾Cuándo podemos escribir esta ecuación bajo la forma y = g(x1, x2)? El sistema de dos funciones f1(x, y1, y2) = 0, f2(x, y1, y2) = 0 representa la intersección de dos supercies en R3 . ¾Bajo qué condiciones podemos escribir esta intersección bajo la forma y1 = g1(x), y2 = g2(x), lo cual representaría un curva en R3 ? Denición 1.17. Para una función f : U → G, U ⊂ E × F (donde E, F, G son espacios de Banach), denimos la derivada parcial ∂f ∂y (a, b) como la derivada de la aplicación h(y) = f(a, y), donde a es considerada como un parámetro jo, es decir, ∂f ∂y (a, b) := h (b). Si f es de clase C1 , h es también de clase C1 , ya que h = f ◦ λ donde la inyección λ : F → E × F, denida por λ(y) = (a, y), es continuamente diferenciable. En el caso donde x ∈ Rm , y ∈ Rn y f : Rm × Rn → Rn está dada por f(x, y) =    f1(x1, ..., xm, y1, ..., yn) . . . fn(x1, ..., xm, y1, ..., yn)    tenemos que ∂f ∂y (x, y) =    ∂f1 ∂y1 (x, y) · · · ∂f1 ∂yn (x, y) . . . . . . ∂fn ∂y1 (x, y) · · · ∂fn ∂yn (x, y)    Teorema 1.5 (Teorema de funciones implícitas) Sean E, F y G espacios de Banach, U ⊂ E y V ⊂ F abiertos y f : U × V → G una aplicación de clase C1 . Supongamos que en (a, b) ∈ U × V f(a, b) = 0 y ∂f ∂y (a, b) es un isomorsmo de F en G. i) Existe una vecindad U de a, una vecindad V de b y una aplicación única g : U → V tales que f(x, g(x)) = 0 para x ∈ U . ii) La aplicación g : U → V es de clase C1 y tenemos g (x) = − ∂f ∂y (x, g(x)) −1 ∂f ∂x (x, g(x)) . (1.55) 29
  • 30. Demostración. La idea es considerar la aplicación F : U × V → E × G denida por F(x, y) = (x, f(x, y)) y de aplicar el teorema de inversión local. Esta aplicación es de clase C1 y tiene por derivada F (a, b)(h, k) = 1 0 ∂f ∂x (a, b) ∂f ∂y (a, b) h k = h, ∂f ∂x (a, b)h + ∂f ∂y (a, b)k . Además, esta satisface F(a, b) = (a, 0). Puesto que ∂f ∂y (a, b) es un isomorsmo, F (a, b) es invertible y tiene por inversa F (a, b)−1 (ˆh, ˆk) = ˆh, ∂f ∂y (a, b)−1 ˆk − ∂f ∂x (a, b)ˆh . Esta inversa es continua ya que ∂f ∂x (a, b) y f ∂y (a, b)−1 lo son. De acuerdo al teorema de inversión local (Teorema 1.4), F es un difeomorsmo de clase C1 en una vecindad de (a, b) sobre una vecindad de (a, 0). Podemos suponer que estas vecindades contienen U × V y U × W , respectivamente, donde U , V y W son vecindades de a, b y 0 ∈ G. Con riesgo de reducir U , podemos suponer también que F−1 (U × {0}) ⊂ U × V . El difeomorsmo inverso F−1 es de la forma F−1 (x, z) = (x, ˆg(x, z)) y tenemos entonces f(x, ˆg(x, z)) = z. La aplicación g(x) := ˆg(x, 0) es la aplicación buscada. Como F−1 (x, z) es de clase C1 , las aplicaciones ˆg(x, z y g(x) = ˆg(x, 0) son también de clase C1 . Finalmente, obtenemos la fórmula (1.55) derivando la identidad f(x, g(x)) = 0 respecto de x. Ejemplo 1.31. En el caso E = Rm , F = Rn , U ⊂ Rm × Rn abierto, (a, b) un punto de U, f : U → Rn una aplicación de clase C1 tal que f(a, b) = 0 y la matriz jacobiana ∂f ∂y (a, b) de las derivadas parciales en y (también denotada por Dyf(a, b)) invertible, es decir con det Dyf(a, b) = 0. El teorema de funciones implícitas arma que la ecuación f(x, y) = 0 puede ser resuelta localmente respecto a las variables y: existe una vecindad abierta U ⊂ Rm de a y una vecindad abierta V ⊂ Rn con U ×V ⊂ U, y una aplicación g : U → V de clase C1 , única, tal que x ∈ U , y ∈ V , f(x, y) = 0 ⇐⇒ x ∈ U , y = g(x). Además Dyf(x, y) es invertible para todo (x, y) ∈ U × V , lo cual permite calcular g (x), derivando f(x, g(x)) = 0 mediante la regla de la cadena, para obtener la fórmula (1.55). 30
  • 31. Ejemplo 1.32. (derivada implícita) La relación implícita xy = sin(xy) + tan( √ 3x + 1) + 1 puede resolverse respecto de y localmente alrededor del punto π2−1 3 , 0 . En efecto, la función f(x, y) = xy − sin(xy) − tan( √ 3x + 1) − 1 satisface f π2−1 3 , 0 = 0 y ∂f ∂y π2−1 3 , 0 = −1.8725 = 0. Luego, por el teorema de funciones implícitas, cerca de π2−1 3 , 0 existe una única función g tal que y = g(x) y esta tiene por derivada (derivando implícitamente) la expresión g (x) = (2xy cos(xy) − 2yxy ) √ 3x + 1 + 3x sec2 ( √ 3x + 1) 2x √ 3x + 1 (xy ln x − x cos(xy)) . En la gura, se tiene trazada la recta tangente a la curva f(x, y) = 0 en el punto π2−1 3 , 0 . Ejemplo 1.33. (intersección de supercies) Consideremos el sistema de ecuaciones x2 + y2 − 2z2 = 0 x2 + 2y2 + z2 = 4 31
  • 32. Para x cerca de cero, existen funciones positivas y(x) y z(x) tales que (x, y(x), z(x)) es solución del sistema. En efecto, consideremos la función f : R × R2 → R2 denida por f(x, y, z) = (x2 + y2 − 2z2 , x2 + 2y2 + z2 − 4). Su matriz jacobiana en (y, z) es Dy,zf(x, y, z) = 2y −4z 4y 2z , Figura 1: cono y elipsoide con determinante 20yz. Por lo tanto si y, z son diferen- tes de cero, para x = 0 se tiene det Dy,z(0, y, z) = 0. Podemos entonces aplicar el teorema de funciones im- plícitas, que nos garantiza que, para x cerca de cero, existe una función g tal que (y, z) = g(x), es decir y = g1(x) y z = g2(x). Para este caso particular tene- mos g1(x) = 8−3x2 5 y g2(x) = 4+x2 5 . Las ecuaciones (x, g1(x), g2(x)) representan la para- metrización de la curva destacada en la intersección de las dos supercies de la gura. Ejemplo 1.34. Consideremos las funciones f1(x, y, u, v) = xeu+v + uv − 1, f2(x, y, u, v) = yeu−v − 2uv − 1. Para el punto P = (1, 1, 0, 0) se tiene f1(P) = 0 y f2(P) = 0. Denamos f : R2 × R2 → R2 por f = (f1, f2). La derivada parcial de f en u, v es Du,vf(x, y, u, v) = xeu+v + v xeu+v + u yeu−v − 2v −yeu−v − 2u y en el punto P de tiene det fu,v(P) = −2. Por el teorema de funciones implícitas, cerca de P podemos despejar u, v en términos de x y y, así establecer funciones implícitas u = g1(x, y) y v = g2(x, y). Además, las derivadas parciales de tales funciones están dadas por g (x, y) = ∂u ∂x ∂u ∂y ∂v ∂x ∂v ∂y = −(Du,vf)−1 Dx,yf = − xeu+v + v xeu+v + u yeu−v − 2v −yeu−v − 2u −1 eu+v 0 0 eu−v . Desde luego, efectuar el cálculo matricial no es lo más indicado, si por ejemplo se quiere calcular ∂u ∂x , lo mejor es aplicar la regla de Cramer para Du,vf · g (x, y) = −Dx,yf y resolver para la derivada parcial deseada: ∂u ∂x = − det Dx,vf det Du,vf = − eu−v xeu+v + v 0 −yeu−v − 2u xeu+v + v xeu+v + u yeu−v − 2v −yeu−v − 2u = ye2u + 2ueu+v 2xye2u + 2(u − v)xeu+v + (u + v)yeu−v . Ejemplo 1.35. Sea Pa(x) = a0 + a1x + a2x2 + · · · + anxn con coecientes reales a = (a0, a1, ..., an). ¾Es la raíz x0 de pa(x) = 0 una función diferenciable de a0, a1, ..., an)? Para responder a esta pregunta, consideremos la función f(a0, ..., an, x) = a0 + a1x + a2x2 + · · · + anxn = pa(x) 32
  • 33. de n+2 variables f : Rn+1 ×R → R. Para esta función se tiene f(a0, ..., an, x0) = 0 y además ∂f ∂x (a0, ..., an, x) = a1 + 2a2x + · · · + nanxn−1 = pa(x). Si para coecientes a∗ = (a∗ 0, ..., a∗ n) se tiene pa∗ (x∗ 0) = 0 y pa∗ (x∗ 0) = 0, la ecuación pa(x) = 0 posee, para a cerca de a∗ , una solución x0(a) cerca de x∗ 0 y que además es una función diferenciable de a0, ..., an. En particular, el polinomio pε(x) = x6 − x5 + x3 − 1 + ε posee un cero cerca de x∗ 0 = 1 que depende diferenciablemente de ε (usando un desarrollo de Taylor de una variable tenemos x0(ε) = 1 − ε/4 + O(ε2 )). Al contrario, los ceros del polinomio pε(x) = x2 − ε satisacen x0(ε) = ± √ ε para ε 0 (una función no diferenciable en el origen) y para ε 0 el polinomio ni siquiera tiene raíces reales. Ejemplo 1.36. Si A0 ∈ Mn(R) es una matriz que tiene todos sus valores propios reales y distintos, toda matriz A ∈ Mn(R) sucientemente cerca de A0 posee igualmente n valores propios distintos y estos depende continuamente de A. 1.9. Aplicaciones bilineales y multilineales Las derivadas de orden superior son aplicaciones bilineales (para la segunda derivada), trilineales (para la tercera derivada) y multilineales (para n-ésima derivada). Es la razón por la cual vamos a estudiar estas aplicaciones un poco más en detalle. Denición 1.18. Sean E1, ..., En, F espacios vectoriales normados. Una aplicación A : E1 × · · · En → F se llama multilineal (bilineal si n = 2) si, para cada i ∈ {1, ..., n} y para cada ai ∈ Ei la aplicación parcial xi → f(a1, ..., ai−1, xi, ai+1, ..., an) es lineal. El espacio E1 × · · · × En, dotado de las normas (x1, ..., xn) := m´ax{ x1 1, ..., xn n}, (1.56) es un espacio vectorial normado. Es un espacio de Banach si los espacios E1, ..., En son espacios de Banach. Vamos a dar ahora un equivalente a la proposición 1.3 para estos espacios producto. Proposición 1.9 Para una aplicación multilineal A : E1 × · · · × En → F (E1, ..., En y F son espacios vectoriales normados), las condiciones siguientes son equivalentes: (a) A es continua en todo punto de E1, ..., En; (b) A es continua en el origen (0, ..., 0) ∈ E1 × · · · × En; (c) A(x1, ..., xn) está acotada sobre la bola unidad de E1 × · · · × En. 33
  • 34. Demostración. La demostración es similar a la de la proposición 1.3. (a)⇒(b) es evidente. Para (b)⇒(c), como A es continua en el origen, para todo ε 0 existe un δ 0 tal que xi i ≤ δ para todo i ⇒ A(x1, ..., xn) ≤ ε. (1.57) Observemos que por multilinealidad A(λ1x1, ..., λnxn) = λ1 · · · λnA(x1, ..., xn). Para xi con xi i ≤ 1, multipliquemos (x1, ..., xn) por δ y reemplacemos en (1.57), esto nos da xi i ≤ 1 para todo i ⇒ A(x1, ..., xn) ≤ ε/δn , lo cual prueba (c). Para demostrar (c)⇒ (a), escribamos A(x1, ..., xn) − A(a1, ..., an) = A(x1 − a1, x2, ..., xn) + A(a1, x2 − a2, x3, ..., an) + · · · · · · + A(a1, .., an−1, xn − an). y estimemos cada término separadamente. Por hipótesis, existe un M 0 tal que xi i ≤ 1 para todo i ⇒ A(x1, ..., xn) ≤ M, (1.58) y por lo tanto deducimos que A(x1, ..., xn) ≤ M x1 1 · · · xn n. Si x − a ≤ ε, entonces x ≤ a + ε, de donde deducimos que xi i ≤ a + ε para todo i. Asi, con (1.58), tenemos que A(x) − A(a) ≤ Mε( a + ε)n−1 n. Denición 1.19. Sean E1, ..., En y F espacios vectoriales normados. Denotamos por L(E1, ..., En; F) el conjunto de todas las aplicaciones multilineales continuas de E1 × · · · En en F. Para un elemento A ∈ L(E1, ..., En; F), denimos A = sup (x1,...,xn) ≤1 A(x1, ..., xn) F = sup x1=0,...,xn=0 A(x1, ..., xn) F x1 1 · ... · xn n . (1.59) Si E1 = ... = En = E, escribimos también Ln (E; F) en lugar de L(E, ..., E; F). El espacio L(E1, ..., En; F) dotado de (1.59) es un espacio vectorial normado. Si F es completo, entonces L(E1, ..., En; F) también es completo. Esta armación se demuestra exac- tamente como en la proposición 1.4. El resultado de la proposición siguiente es la base para la interpretación de la segunda derivada de una función como aplicación bilineal. Proposición 1.10 (Isometría natural) Sean E, F, G espacios vectoriales normados. Entonces, la aplicación ψ : L(E, L(F, G)) → L(E, F; G) denida por ψ(A) = B donde B(x, y) = (Ax)y, es un isomorsmo e igualmente una isometría, es decir ψ(A) = A para todo A ∈ L(E, L(F, G)). 34
  • 35. Demostración. La aplicación ψ es lineal y biyectiva. Su inversa está dada por ψ−1 (B) = A donde, para x ∈ E, Ax ∈ L(F, G) es la aplicación y → B(x, y). Para demostrar la continuidad de ψ y de ψ−1 , es suciente probar que ψ(A) = A . Utilizando la estimación (1.16) una vez para Ax y una segunda vez para A, obtenemos B(x, y) = (Ax)y ≤ Ax · y ≤ A · x · y . Dividiendo por x · y y tomando supremos sobre x = 0, y = 0, esto implica que B = ψ(A) satisface B ≤ A . Por otra parte, la denición 1.59 muestra que (Ax)y = B(x, y) ≤ B · x · y . La norma de la aplicación lineal Ax satisface entonces Ax ≤ B · x y, en consecuencia, A ≤ B . Esta dos desigualdades muestran que la aplicación ψ es una isometría. Sea entonces A ∈ L(E, L(F, G)) en la bola unidad, es decir A ≤ 1. Como ψ(A) = A ≤ 1, por la proposición 1.3, ψ es continua. De igual manera, para B ∈ L(E, F; G) con B ≤ 1 tenemos ψ−1 (B) = A = ψ(A) = B ≤ 1, y por la proposición 1.3 también es continua. Podemos entonces identicar las aplicaciones lineales continuas de E en L(F, G) con las aplicaciones bilineales de E × F en G via el isomorsmo de la proposición 1.10 L(E, L(F, G)) L(E, F; G). Ejemplo 1.37. Una matriz C ∈ Mm×n(R) puede ser identicada con la aplicación bilineal B : Rm × Rn → R denida por B(x, y) = xT Cy. Igualmente, puede ser identicada con un elemento de L(Rm , L(Rn , R)) de la manera siguiente: para x ∈ Rm , el vector xT C ∈ L(Rn , R) dene la aplicación xT C : y → xT Cy. La armación de la proposición precedente puede ser generalizada a aplicaciones multi- lineales. Si E1, ..., En y F son espacios vectoriales normados, la aplicación ψ : L(E1, L(E2, ..., En; F)) → L(E1, ..., En; F), (1.60) denida por ψ(A) = B donde B(x1, ..., xn) = (Ax1)(x2, ..., xn), es un isomorsmo y una isometría. La demostración de este hecho es idéntica a la de la proposición 1.10. 1.10. Derivadas de orden superior La derivada de una función f : U → F (con U ⊂ E) es una aplicación f : U → L(E, F). Co- mo L(E, F) es un espacio vectorial normado, nada nos impide considerar la diferenciabilidad de f . Denición 1.20. Sean E, F dos espacios vectoriales normados, U ⊂ E un abierto y f : U → F diferenciable en una vecindad de a ∈ U. Decimos que f es dos veces diferenciable en a si f : U → L(E, F) es diferenciable en a. La derivada de f satisface (f ) (a) ∈ L(E, L(E, F)). Utilizando la identicación de la proposición 1.10, denimos la segunda derivada de f en a como la aplicación bilineal f (a)(h, k) = ((f ) (a)h)) k. 35
  • 36. En la situación de la denición precedente, consideremos la aplicación gk = U → F denida por gk(x) := f (x)k (con un k ∈ E jado). Entonces, gk(x) = B(f (x), k) donde B : L(E, F) × E → F es la aplicación bilineal B(A, v) = Av. Aplicando la fórmula (1.34) de Leibniz obtenemos gk(a)h = B(f (a), 0h) + B((f ) (a)h, k) = ((f ) (a)h) k = f (a)(h, k). Ejemplo 1.38. Consideremos una función f : Rn → Rm y notemos x = (x1, ..., xn)T y f(x) = (f1(x), ..., fm(x))T . Supongamos que todas las derivadas parciales de los fj existen y son continuas. Para k ∈ Rn jado, calculemos la derivada de la función gk(x) := f (x)k = n j=1 ∂f ∂xj (x)kj, donde ∂f ∂xj (x) = ∂f1 ∂xj (x), ..., ∂fm ∂xj (x) T . Por linealidad de la derivada tenemos gk(x)h = n j=1 ∂f ∂xj (x)h kj, (1.61) donde ∂f ∂xj (x) =     ∂2f1 ∂x1∂xj (x) · · · ∂2f1 ∂xn∂xj (x) . . . . . . ∂2fm ∂x1∂xj (x) · · · ∂2fm ∂xn∂xj (x)     y deniendo ∂2f ∂xi∂xj (x) := ∂2f1 ∂x1∂xj (x), ..., ∂2fm ∂x1∂xj (x) T , la fórmula (1.61) puede escribirse gk(x)h = n j=1 n i=1 ∂2f ∂xi∂xj (x)hi kj. La segunda derivada de f es entonces f (x)(h, k) = n i=1 n j=1 ∂2 f ∂xi∂xj (x)kj hi. En el caso particular donde m = 1 (es decir f : Rn → R), para la fórmula de arriba tenemos f (x)(h, k) = hT Hf (x)k, donde Hf (x) es una matriz n × n de segundas derivadas parciales de f llamada matriz hessiana de f denida por Hf (x) :=     ∂2f ∂x2 1 (x) · · · ∂2f ∂x1∂xn (x) . . . . . . ∂2f ∂xn∂x1 (x) · · · ∂2f ∂x2 n (x)     . Ejemplo 1.39. Para la función f : R3 → R3 del ejemplo 1.10, la segunda derivada es f (a)(h, k) = 2h1k1 + 2h2k2 + 2h3k3 a1(h2k3 + h3k2) + a2(h1k3 + h3k1) + a3(h1k2 + h2k1) . Observación 1.5. Dado que para f : U ⊂ Rn → Rm , f (x)(h, k) ∈ Rm con (f (x)(h, k)))s = n i=1 n j=1 ∂2 fs ∂xi∂xj (x)kjhi para s = 1, .., m. Podemos calcular la segunda derivada mediante matrices hessianas como sigue: f (x)(h, k) = hT Hf1 (x)k, ..., hT Hf2 (x)k T . 36
  • 37. Ejemplo 1.40. Para la función f(X) = X−1 de GL(E) en L(E) el ejemplo 1.14 muestra que gK(X) := f (X)K = −X−1 KX−1 para K ∈ L(E). La fórmula de Leibniz nos da entonces f (A)(H, K) = −(−A−1 HA−1 )KA−1 − A−1 K(−A−1 HA−1 ) f (A)(H, K) = A−1 HA−1 KA−1 + A−1 KA−1 HA−1 . Ejemplo 1.41. Sea f : L(E) → L(E) denida por f(X) = X3 + X − I. Un cálculo muestra que f (X)K = X2 K +XKX +KX2 +K y tomando en cuenta también que para h(X) = X2 se tiene h (X)K = XK + KX, la fórmula de Leibniz nos da f (A)(H, K) = (AH + HA)K + H(KA) + A(KH) + K(AH + HA) f (A)(H, K) = AHK + HAK + HKA + AKH + KAH + KHA. Teorema 1.6 (Teorema de Schwarz) Sean E, F dos espacios vectoriales normados, U ⊂ E un abierto, y supongamos que f : U → F es dos veces diferenciable en a ∈ U. Entonces, la aplicación bilineal f (a) : E × E → F es simétrica, es decir, f (a)(h, k) = f (a)(h, k) para h, k ∈ E. Demostración. Vamos a demostrar que f (a)(h, k) = l´ım ε→0 1 ε2 (f(a + εh + εk) − f(a + εh) − f(a + εk) + f(a)). (1.62) Puesto que la expresión de la derecha es simétrica en h y k, f (x)(h, k) también. Para demostrar (1.62), consideremos la aplicación gu(v) := f(a + u + v) − f(a + u) − f(a + v) + f(a) − f (a)(u, v) donde u y v son sucientemente pequeños en norma. Como gu(0) = 0, el teorema de incre- mentos nitos (Teorema 1.2) implica que gv(u) ≤ sup 0t1 gu(tv) · v . (1.63) Queda entonces estimar la derivada gu(v) = f (a + u + v) − f (a + v) − f (a)(u, ·) (la notación f (a)(u, ·) es utilizada para la aplicación h → f (a)(u, h)). El hecho de que f sea dos veces diferenciable en a (es decir x → f (x) es diferenciable en a) implica que f (a + u + v) = f (a) + f (a)(u + v, ·) + r(u + v) u + v f (a + v) = f (a) + f (a)(v, ·) + r(v) v donde r(v) → 0 si v → 0. La sustracción de estas dos ecuaciones da para gu(v) la fórmula gu(v) = r(u + v) u + v − r(v) v y obtenemos para 0 t 1 gu(tv) ≤ ( r(u + tv) + r(tv) ) ( u + v ). (1.64) Deducimos de las estimaciones (1.63) y (1.64) que gu(v) /( u + v )2 → 0 si u + v → 0. Poniendo u = εh, v = εk obtenemos la armacion (1.62). 37
  • 38. La denición de tercera derivada es análoga a la denición 1.20. Denición 1.21. Supongamos que una función f; U → F (E, F espacios vectoriales norma- dos y U ⊂ E abierto) sea dos veces diferenciable en una vecindad de a ∈ U. Decimos que f es 3 veces diferenciable en a si f : U → L( E; F) es diferenciable en a. La derivada satis- face (f ) (a) ∈ L(E, L2 (E; F)) y, utilizando la isometría entre L(E, L2 (E; F)) y L3 (E; F) denimos la tercera derivada de f en a como la aplicación trilineal f (a)(h, k, l) := (f ) (a)h (k, l). De manera evidente denimos por recurrencia la p-ésima derivada f(p) (a) como la aplicación multilineal f(p) (a) ∈ Lp (E; F) dada por f(p) (h1, h2, ..., hp) := f(p−1) (a)h1 (h2, ..., hp). Para un cálculo práctico de la tercera derivada, podemos utilizar la fórmula gkl(a)h = (f ) (a)h (k, l) = f (a)(h, k, l) (1.65) donde gkl : U → F denida por gkl(x) := f (x)(k, l) y k, l ∈ E son vectores jados. La tercera derivada puede igualmente ser interpretada como la segunda derivada de gl(x) := f (x)l, es decir gl (a)(h, k) = (f ) (a)(h, k) l = f (a)(h, k, l). (1.66) Las dos fórmulas (1.65) y (1.66) muestran que podemos intercambiar k y l asi como h y k sin cambiar el valor del vector f (a)(h, k, l). Tenemos entonces el resultado siguiente: Corolario1.4 Si bajo las hipótesis del Teorema 1.6, la función f : U → F es p veces diferenciable en a ∈ U, la aplicación multilineal f(p) (a) es simétrica, es decir f(p) (a)(h1, ..., hp) = f(p) (a)(hσ(1), ..., hσ(p)) donde σ es una permutación cualquiera de {1, ..., p}. Ejemplo 1.42. La tercera derivada de una aplicación f : Rn → Rm está dada por f (x)(h, k, l) = n i=1 n j=1 n r=1 ∂3 f ∂xi∂xj∂xr (x)hikjlr. En efecto, como f (x)(k, l) = n j=1 n r=1 ∂2f ∂xj∂xr (x)kjlr, entonces (f ) (x)h (k, l) = n j=1 n r=1 ∂2 f ∂xj∂xr (x)hkjlr donde ∂2 f ∂xj∂xr (x) =     ∂3f1 ∂x1∂xj∂xr (x) · · · ∂2f1 ∂xn∂xj∂xr (x) . . . . . . ∂3fm ∂x1∂xj∂xr (x) · · · ∂2fm ∂xn∂xj∂xr (x)     38
  • 39. y deniendo ∂3f ∂xi∂xj∂xr (x) := ∂3f1 ∂xi∂xj∂xr (x), ..., ∂3fm ∂xi∂xj∂xr (x) T , tenemos que ∂2f ∂xj∂xr (x)h = n i=1 ∂3f ∂xi∂xj∂xr (x)hi. El cálculo anterior muestra que la tercera derivada también puede ser descrita por f (x)(h, k, l) s = n i=1 n j=1 n r=1 ∂3 fs ∂xi∂xj∂xr (x)hikjlr para s = 1, ..., m. Ejemplo 1.43. Sea f : GL(Rn ) → GL(Rn ) dada por f(X) = X3 , vamos a calculas todas sus derivadas. Para la primera derivada se tiene f (X)L = X2 L + XLX + LX2 . Para la segunda f (X)(K, L) = XKL + KXL + KLX + XLK + LXK + LKX. Deniendo gKL(X) = f (X)(K, L), aplicando la fórmula de Leibniz se tiene f (X)(H, K, L) = gKL(X)H = HKL + KHL + KLH + HLK + LHK + LKH. Ejemplo 1.44. La función f : GL(E) → L(E), f(X) = X−1 es innitamente diferenciable. En efecto, derivando la fórmula del ejemplo 1.40 obtenemos f (A)(H, K, L) = − A−1 HA−1 KA−1 LA−1 − A−1 HA−1 LA−1 KA−1 − A−1 LA−1 HA−1 KA−1 − A−1 KA−1 HA−1 LA−1 − A−1 KA−1 LA−1 HA−1 − A−1 LA−1 KA−1 HA−1 . vemos por recurrencia que cada derivada es una combinación lineal de expresiones que son un producto alternado de A−1 con aplicaciones lineales constantes. Denición 1.22. Sean E, F espacios vectoriales normados, U ⊂ E y V ⊂ F abiertos. f : U → F es p veces continuamente diferenciable (o de clase Cp ) en U, si f es p veces diferenciable en todo punto de U y si f(p) : U → Lp (E; F) es continua. f : U → F es innitamente diferenciable (o de clase C∞ ) en U, si f es de clase Cp para todo p. f : U → V es un difeomorsmo de clase Cp de U en V , si f es biyectiva, p veces continuamente diferenciable, y si la inversa f−1 : V → U es p veces continuamente diferenciable. Proposición 1.11 Sean E, F espacios vectoriales normados, U ⊂ E, V ⊂ F abiertos y f : U → V un difeomorsmo de clase C1 . Si f es de clase Cp , entonces la función inversa es también de clase Cp . 39
  • 40. Demostración. Por el Teorema 1.4 sabemos que (f−1 ) (y) = f f−1 (y) −1 , es decir, (f−1 ) es la composición de tres aplicaciones, a saber y → f−1 (y), x → f (x) y A → A−1 . Las tres aplicaciones con continuamente diferenciables. Por lo tanto f−1 es de clase C2 . La demostración para p ≥ 3 es análoga. Una consecuencia inmediata de esta proposición es la siguiente: si en el teorema de inver- sión local (Teorema 1.4) la función f es de clase Cp , entonces su inversa es automáticamente de clase Cp . Similarmente, si en ele teorema de funciones impícitas (Teorema 1.5) la función f es de clase Cp , entonces la aplicación g es también de clase Cp . 40