SlideShare uma empresa Scribd logo
1 de 47
Baixar para ler offline
Ferramentas Matemáticas da Mecânica Quântica
Quantum Mechanics  Concepts and Applications, cap. 3
Nouredini Zetilli
15 de novembro de 2011
1 Introdução
Lidamos aqui com o maquinário matemático necessário ao estudo da mecânica quântica.
Embora este capítulo seja de escopo matemático, nenhuma tentativa de ser matematicamente
completo e rigoroso é feita. Nos limitamos àquelas questões práticas que são relevantes ao
formalismo da mecânica quântica.
A equação de Schrödinger é uma das pedras angulares da teoria da mecânica quântica;
ela tem a estrutura de uma equação linear. O formalismo da mecânica quântica lida com
operadores que são lineares e funções de onda que pertencem a um espaço abstrato de Hilbert.
As propriedades matemáticas e a estrutura dos espaços de Hilbert são essenciais para uma
devida compreensão do formalismo da mecânica quântica. Por isso, revisaremos brevemente
as propriedades dos espaços de Hilbert e desses operadores lineares. Depois consideraremos a
notação bra-ket de Dirac.
A mecânica quântica foi formulada de dois modos diferentes por Schrödinger e Heisenberg.
A mecânica ondulatória de Schrödinger e a mecânica matricial de Heisenberg são as represen-
tações do formalismo geral da mecânica quântica em sistemas de bases contínuas e discretas,
respectivamente. Por isso, também examinaremos a matemática envolvida na representação
de kets, bras, bra-kets e operadores em bases discretas e contínuas.
2 O Espaço de Hilbert e as Funções de Onda
2.1 O Espaço Vetorial Linear
Um espaço vetorial linear consiste de dois conjuntos de elementos e duas regras algébricas:
• um conjunto de vetores ψ, ϕ, χ, . . . , e um conjunto de escalares a, b, c;
• uma regra para a adição vetorial e uma regra para a multiplicação escalar.
(a) Regra da Adição: a regra da adição tem as propriedades e a estrutura de um grupo
abeliano:
• Se ψ e ϕ são vetores (elementos) de um espaço, sua soma, ψ + ϕ, é também um vetor
do mesmo espaço.
• Comutatividade: ψ + ϕ = ϕ + ψ.
• Associatividade: (ψ + ϕ) + χ = ψ + (ϕ + χ).
1
• Elemento neutro (ou vetor nulo): para cada vetor ψ, deve existir um vetor O, do mesmo
espaço, tal que: O + ψ = ψ + O = ψ.
• Elemento simétrico (ou vetor inverso): para cada vetor ψ, deve existir um vetor simétrico
(−ψ), do mesmo espaço, tal que: ψ + (−ψ) = (−ψ) + ψ = O.
(b) Regra da Multiplicação: a multiplicação de vetores por escalares
 tem as seguintes
propriedades:
• O produto de um escalar por um vetor dá um outro vetor. Em geral, se ψ e ϕ são dois
vetores do espaço, qualquer combinação linear aψ + bϕ é também um vetor do espaço,
sendo a e b escalares.
• Distributividade com relação à adição:
a (ψ + ϕ) = aψ + aϕ , (a + b) ψ = aψ + bψ . (1)
• Associatividade com relação à multiplicação de escalares:
a (bψ) = (ab) ψ . (2)
• Para cada elemento ψ deve existir um escalar unitário I e um escalar nulo o, tais que:
Iψ = ψI = ψ e oψ = ψo = o . (3)
2.2 O Espaço de Hilbert
Um espaço de Hilbert H consiste de um conjunto de vetores ψ, ϕ, χ, . . . , e um conjunto
de escalares a, b, c, os quais satisfazem às seguintes quatro propriedades:
(a) H é um espaço linear.
As propriedades de um espaço linear foram consideradas na seção anterior.
(b) H tem um produto escalar denido que é estritamente positivo.
O produto escalar de um elemento ψ por outro elemento ϕ é, em geral, um número
complexo, denotado por (ψ, ϕ), onde (ψ, ϕ) = número complexo. Nota: cuidado com a
ordem! Como o produto escalar é um número complexo, a quantidade (ψ, ϕ) geralmente
não é igual a (ϕ, ψ): (ψ, ϕ) = ψ∗ϕ, enquanto que (ϕ, ψ) = ϕ∗ψ. O produto escalar
satisfaz às seguintes propriedades:
 O produto escalar de ψ e ϕ é igual ao complexo conjugado do produto escalar de
ϕ e ψ:
(ψ, ϕ) = (ϕ, ψ)∗
. (4)
 O produto escalar de ψ e ϕ é linear com relação ao segundo fator se ϕ = aϕ2 + bϕ2:
(ψ, aϕ2 + bϕ2) = a (ψ, ϕ1) + b (ψ, ϕ2) , (5)
e anti-linear com relação ao primeiro fator se ψ = aψ2 + bψ2:
(aψ1 + bψ2, ϕ) = a∗
(ψ1, ϕ) + b∗
(ψ2, ϕ) . (6)

Escalares podem ser números reais ou complexos
2
O produto escalar de um vetor ψ por ele mesmo é um número real positivo:
(ψ, ψ) = ∥ψ∥2
≥ 0 , (7)
onde a igualdade vale apenas para ψ = O.
(c) H é separável.
Existe uma sequência de Cauchy ψn ∈ H (n = 1, 2, . . .) tal que para cada ψ de H e ε  0,
existe pelo menos um ψn da sequência para o qual
∥ψ − ψn∥  ε . (8)
(d) H é completo.
Toda sequência de Cauchy ψn ∈ H converge para um elemento de H. Isto é, para
qualquer ψn, a relação
lim
n,m→∞
∥ψn − ψm∥ = 0 (9)
dene um único elemento ψ de H tal que
lim
n→∞
∥ψ − ψn∥ = 0 . (10)
Nota: Deve-se perceber que em um produto escalar (ψ, ϕ), o segundo fator, ϕ, pertence ao
espaço de Hilbert H, enquanto o primeiro fator, ψ, pertence a seu espaço dual de Hilbert Hd.
A distinção entre H e Hd é devida ao fato de que, como mencionado acima, o produto escalar
não é comutativo: (ψ, ϕ) ̸= (ϕ, ψ); a ordem importa! Da álgebra linear, sabemos que todo
espaço vetorial pode ser associado com um espaço vetorial dual.
2.3 Dimensão e Base de um Espaço Vetorial
Um conjunto de N vetores não-nulos ϕ1, ϕ2, . . . , ϕN é dito ser linearmente independente
(LI) se, e somente se, a solução da equação
N∑
i=1
aiϕi = 0 (11)
é a1 = a2 = . . . = aN = 0. Mas se existir um conjunto de escalares, nem todos nulos, tal que
um dos vetores (digamos, ϕn) possa ser expresso como uma combinação linear dos outros,
ϕn =
n−1∑
i=1
aiϕi +
N∑
i=n+1
aiϕi , (12)
então o conjunto {ϕi} é dito ser linearmente dependente (LD).
Dimensão: A dimensão de um espaço vetorial é dada pelo número máximo de vetores LI
que o espaço pode ter. Por exemplo, se o número máximo de vetores LI que um espaço tem
é N (isto é, ϕ1, ϕ2, . . . , ϕN ), esse espaço é dito ser N-dimensional. Nesse espaço vetorial
N-dimensional, qualquer vetor ψ pode ser expresso como uma combinação linear:
ψ =
N∑
i=1
aiϕi . (13)
3
Base: A base de um espaço vetorial consiste de um conjunto contendo o máximo número
possível de vetores LI pertencentes àquele espaço. O conjunto de vetores ϕ1, ϕ2, . . . , ϕN , de-
notado abreviadamente por {ϕi}, é chamado de base do espaço vetorial, enquanto os vetores
ϕ1, ϕ2, . . . , ϕN são chamados de vetores da base. Embora o conjunto desses vetores LI seja
arbitrário, é conveniente escolhê-lhos como sendo ortonormais, isto é, com produto escalar
satisfazendo à relação (ϕj, ϕj) = δij, onde δij = 1 se i = j, e δij = 0 se i ̸= j. A base é dita
ser ortonormal se consistir de um conjunto de vetores ortonormais. Além disso, a base é dita
ser completa se gera o espaço inteiro, isto é, se não há necessidade de se introduzir qualquer
vetor de base adicional. Os coecientes ai na expansão (13) são chamados de componentes do
vetor ψ com relação à base. Cada componente é dada pelo produto escalar de ψ pelo vetor
de base correspondente , aj = (ϕj, ψ).
Exemplos de espaços vetoriais lineares: Vamos dar dois exemplos de espaços lineares
que são espaços de Hilbert: um tendo um conjunto nito (discreto) de vetores de base, o outro
tendo uma base innita (contínua).
• Espaço vetorial Euclideano tridimensional: a base deste espaço consiste de três
vetores LI, geralmente denotados por i, j e k. Qualquer vetor do espaço Euclideano pode
ser escrito em termos dos vetores da base como A = a1i+a2j+a3k, onde a1, a2 e a3 são
os componentes de A nessa base, e cada componente pode ser determinada tomando-se
o produto escalar de A pelo vetor de base correspondente: a1 = i · A, a2 = j · A e
a3 = k · A. Note-se que o produto escalar no espaço Euclideano é real e, portanto,
simétrico. A norma nesse espaço é o comprimento usual de vetores: ∥A∥ = A. Note-se
também que sempre que a1i + a2j + a3k = 0, temos a1 = a2 = a3 = 0, e nenhum dos
vetores unitários i, j, k pode ser expresso como combinação linear dos outros dois.
• Espaço vetorial das funções complexas inteiras ψ(x): a dimensão desse espaço é
innita, pois ele tem um número innito de vetores de base LI.
2.4 Funções Quadrado-Integráveis: Funções de Onda
No caso de espaços de funções, um vetor é dado por uma função complexa e o produto
escalar é dado por integrais. Ou seja, o produto escalar de duas funções ψ(x) e ϕ(x) é dado
por
(ψ, ϕ) =
∫
ψ∗
(x) ϕ(x) dx . (14)
Se essa integral diverge, o produto escalar não existe. Resulta que se quisermos que o espaço
de funções tenha um produto escalar, devemos selecionar apenas aquelas funções para as quais
(ψ, ϕ) seja nito. Em particular, uma função ψ(x) é dita ser quadrado-integrável se o produto
escalar de ψ consigo mesma,
(ψ, ψ) =
∫
|ψ(x)|2
dx , (15)
for nito.
(ϕj, ψ) =
(
ϕj,
N∑
i=1
aiϕi
)
=
n∑
i=1
ai (ϕj, ϕi) =
n∑
i=1
aiδij = aj .
4
É fácil vericar que o espaço das funções quadrado-integráveis possui as propriedades de um
espaço de Hilbert. Por exemplo, qualquer combinação linear de funções quadrado-integráveis
é também uma função quadrado-integrável e (14) satisfaz a todas as propriedades do produto
escalar de um espaço de Hilbert.
Note que a dimensão do espaço de Hilbert das funções quadrado-integráveis é innito, já
que cada função de onda pode ser expandida em termos de um número innito de funções LI.
A dimensão de um espaço é dada pelo número máximo de vetores de base LI necessários para
gerar aquele espaço.
Um bom exemplo de função quadrado-integrável é a função de onda da mecânica quân-
tica, denotada por ψ(r, t). De acordo com a interpretação probabilística de ψ(r, t), dada por
Max Born, a quantidade |ψ(r, t)|2
d3r representa a probabilidade de encontrar, no tempo t, a
partícula em um volume d3r, centrado no ponto r. A probabilidade de encontrar a partícula
em algum lugar do espaço deve ser igual a 1:
∫
|ψ(r, t)|2
d3
r =
∫ +∞
−∞
∫ +∞
−∞
∫ +∞
−∞
|ψ(r, t)|2
dx dy dz = 1 . (16)
Portanto, as funções de onda da mecânica quântica são quadrado-integráveis. Funções de
onda que satisfazem a (16)
3 Notação de Dirac
O estado físico de um sistema é representado na mecânica quântica por elementos de um
espaço de Hilbert; esses elementos são chamados de vetores de estado. Podemos representar
os vetores de estado em diferentes bases por meio de expansões de funções. Isto é análogo a
especicar um vetor ordinário (Euclideano) por suas componentes em vários sistemas de coor-
denadas. Por exemplo, podemos representar equivalentemente um vetor por suas componentes
num sistema de coordenadas cartesianas, num sistema de coordenadas esféricas, ou num sis-
tema de coordenadas cilíndricas. O signicado de um vetor, obviamente, é independente do
sistema de coordenadas escolhido para representar suas componentes. Similarmente, o estado
de um sistema microscópico tem um signicado independente da base na qual é expandido.
Dirac introduziu uma notação para vetores de estado extremamente valiosa na mecânica
quântica; ela permite manipular o formalismo da mecânica quântica com facilidade e clareza.
Ele introduziu os conceitos de bras, kets e bra-kets, que serão explicados abaixo.
Kets: elementos de um espaço vetorial
Dirac denotou o vetor de estado ψ pelo símbolo |ψ⟩, que denominou de um vetor ket, ou, sim-
plesmente, um ket. Os kets pertencem ao espaço (vetorial) de Hilbert H, ou, abreviadamente,
ao espaço ket.
Bras: elementos de um espaço dual
Como mencionado anteriormente, sabemos da álgebra linear que um espaço dual pode ser
associado a cada espaço vetorial. Dirac denotou os elementos de um espaço dual pelo símbolo
⟨ |, que ele denominou de vetor bra, ou simplesmente bra. Por exemplo, o elemento ⟨ψ| re-
presenta um bra. Para cada ket |ψ⟩ existe um único bra ⟨ψ| e vice-versa. Enquanto os kets
pertencem ao espaço de Hilbert H, os correspondentes bras pertencem a seu espaço dual de
5
Hilbert Hd.
Bra-ket: notação de Dirac para o produto escalar
Dirac denotou o produto escalar (ou interno) pelo símbolo ⟨|⟩, que é chamado de bra-ket. Por
exemplo, o produto escalar (ϕ, ψ) é denotado pelo bra-ket ⟨ϕ|ψ⟩:
(ϕ, ψ) → ⟨ϕ|ψ⟩ . (17)
Nota: Quando um ket (bra) é multiplicado por um número complexo, também obtemos um
ket (bra).
Na mecânica quântica lidamos com funções de onda ψ(r, t), mas no formalismo mais geral
da mecânica quântica lidamos com kets abstratos |ψ⟩. Funções de onda, assim como kets, são
elementos de um espaço de Hilbert. Deve-se notar que, assim como uma função de onda, um
ket representa completamente o sistema, e portanto conhecer |ψ⟩ signica conhecer todas as
suas amplitudes em todas as possíveis representações. Como foi dito, kets são independentes de
qualquer representação particular. Não há razão para particularizar uma base de representação
tal como se faz no espaço de posição. Obviamente, se quisermos saber a probabilidade de
encontrar a partícula em alguma posição no espaço, precisamos desenvolver o formalismo
dentro da representação de coordenadas. O vetor de estado dessa partícula no tempo t será
dado pela função de onda espacial ⟨r, t|ψ⟩ = ψ(r, t). Na representação de coordenadas, o
produto escalar ⟨ϕ|ψ⟩ é dado por
⟨ϕ|ψ⟩ =
∫
ϕ∗
(r, t) ψ(r, t) d3
r . (18)
Similarmente, se estivermos considerando o momento tridimensional de uma partícula, o ket
|ψ⟩ terá que ser expresso no espaço de momento. Nesse caso, o estado da partícula será des-
crito por uma função de onda ψ(p, t), onde p é o momento da partícula.
Propriedades de kets, bras e bra-kets
• Todo ket tem um bra correspondente
A cada ket |ψ⟩ corresponde um único bra ⟨ψ| e vice-versa:
|ψ⟩ ←→ ⟨ψ| . (19)
Existe uma correspondência um-a-um entre bras e kets:
a|ψ⟩ + b|ϕ⟩ ←→ a∗
⟨ψ| + b∗
⟨ϕ| , (20)
onde a e b são números complexos. A notação a seguir é bastante comum:
|aψ⟩ = a|ψ⟩ , ⟨aψ| = a∗
⟨ψ| . (21)
• Propriedades do produto escalar
Como na mecânica quântica o produto escalar é um número complexo, a ordem importa
muito. Devemos distinguir com cuidado um produto escalar de seu complexo conjugado;
⟨ψ|ϕ⟩ não é a mesma coisa que ⟨ϕ|ψ⟩:
⟨ϕ|ψ⟩∗
= ⟨ψ|ϕ⟩ . (22)
6
Esta propriedade se torna clara se a aplicarmos em (14):
⟨ϕ|ψ⟩∗
=
(∫
ϕ∗
(r, t) ψ(r, t) d3
r
)∗
=
∫
ψ∗
(r, t) ϕ(r, t) d3
r = ⟨ψ|ϕ⟩ . (23)
Se |ψ⟩ e |ϕ⟩ fossem reais, teríamos ⟨ψ|ϕ⟩ = ⟨ϕ|ψ⟩. Vamos listar agora algumas proprie-
dades adicionais do produto escalar:
⟨ϕ|a1ψ1 + a2ψ2⟩ = a1⟨ϕ|ψ1⟩ + a2⟨ϕ|ψ2⟩ , (24)
⟨a1ϕ1 + a2ϕ2|ψ⟩ = a∗
1⟨ϕ1|ψ⟩ + a∗
2⟨ϕ2|ψ⟩ , (25)
⟨a1ϕ1 + a2ϕ2|b1ψ1 + b2ψ2⟩ = a∗
1b1⟨ϕ1|ψ1⟩ + a∗
1b2⟨ϕ1|ψ2⟩
+ a∗
2b1⟨ϕ2|ψ1⟩ + a∗
2b2⟨ϕ2|ψ2⟩ . (26)
• A norma é real e positiva
Para qualquer vetor de estado |ψ⟩ do espaço de Hilbert H, a norma é real e positiva;
⟨ψ|ψ⟩ é igual a zero apenas quando |ψ⟩ = O, onde O é o vetor nulo. Se o estado |ψ⟩ é
normalizado, então ⟨ψ|ψ⟩ = 1.
• Desigualdade de Schwarz
Para quaisquer dois estados |ψ⟩ e |ϕ⟩ do espaço de Hilbert, pode-se mostrar que
|⟨ψ|ϕ⟩|2
≤ ⟨ψ|ψ⟩⟨ϕ|ϕ⟩ . (27)
Se |ψ⟩ e |ϕ⟩ forem linearmente dependentes (isto é, proporcionais: |ψ⟩ = α|ϕ⟩, onde α
é um escalar), essa relação se torna uma igualdade. A desigualdade de Schwarz (27) é
análoga à seguinte relação do espaço real Euclideano:
|A · B|2
≤ |A|2
|B|2
. (28)
• Desigualdade triangular
√
⟨ψ + ϕ|ψ + ϕ⟩ ≤
√
⟨ψ|ψ⟩ +
√
⟨ϕ|ϕ⟩ . (29)
Se |ψ⟩ e |ϕ⟩ forem linearmente dependentes (isto é, proporcionais: |ψ⟩ = α|ϕ⟩, onde α
é um escalar), a desigualdade triangular se torna uma igualdade. Sua contrapartida é a
seguinte desigualdade no espaço real Euclideano: |A + A| ≤ |B| + |B|.
• Estados ortogonais
Dois kets |ψ⟩ e |ϕ⟩ são ditos ortogonais se seu produto escalar é nulo:
⟨ψ|ϕ⟩ = 0 . (30)
• Estados ortonormais
Dois kets |ψ⟩ e |ϕ⟩ são ditos ortonormais se forem ortogonais e cada um tiver norma
unitária:
⟨ψ|ϕ⟩ = 0 , ⟨ψ|ψ⟩ = 1 , ⟨ϕ|ϕ⟩ = 1 . (31)
7
• Quantidades proibidas
Se |ψ⟩ e |ϕ⟩ pertencem ao mesmo espaço vetorial (de Hilbert), produtos do tipo |ψ⟩|ϕ⟩
e ⟨ψ|⟨ϕ| são proibidos. Eles não fazem sentido, pois |ψ⟩|ϕ⟩ e ⟨ψ|⟨ϕ| não são bras nem
kets. Contudo se |ψ⟩ e |ϕ⟩ pertencem a espaços vetoriais diferentes (por exemplo, |ψ⟩
pertence a um espaço de spin e |ϕ⟩ pertence a um espaço de momento angular orbital),
então seu produto |ψ⟩|ϕ⟩, escrito como |ψ⟩⊗|ϕ⟩, representa um produto tensorial de |ψ⟩
e |ϕ⟩. Apenas nesses casos típicos esses produtos tem signicado.
Signicado físico do produto escalar
O produto escalar pode ser interpretado de dois modos. Primeiro, por analogia com o produto
escalar de vetores comuns no espaço Euclideano, onde A·B representa a projeção de B sobre A,
o produto ⟨ϕ|ψ⟩ também representa a projeção de |ψ⟩ sobre |ϕ⟩. Segundo, no caso de estados
normalizados e de acordo com a interpretação probabilística de Max Born, a quantidade ⟨ϕ|ψ⟩
representa a amplitude da probabilidade que o estado |ψ⟩ do sistema terá, após uma medição
ser feita no sistema, seja outro estado |ϕ⟩.
4 Operadores
4.1 Denições Gerais
Denição de um operador: Um operador
! ˆA é uma regra matemática que, aplicada a um
ket |ψ⟩, o transforma em outro ket |ψ′⟩ do mesmo espaço, e quando age sobre um bra ⟨ϕ|, o
transforma em outro bra ⟨ϕ′|
ˆA|ψ⟩ = |ψ′
⟩ , ⟨ϕ| ˆA = ⟨ϕ′
| . (32)
Uma denição semelhante aplica-se a funções de onda:
ˆAψ(r) = ψ′
(r) , ϕ(r) ˆA = ϕ′
(r) . (33)
Exemplos de operadores
• Operador unidade: deixa qualquer ket inalterado, ˆI|ψ⟩ = |ψ⟩.
• Operador gradiente: ∇ψ(r) =
∂ψ(r)
∂x
i +
∂ψ(r)
∂y
j +
∂ψ(r)
∂z
k.
• Operador momento linear: Pψ(r) = −i ∇ψ(r).
• Operador Laplaciano: ∇2ψ(r) =
∂2ψ(r)
∂x2
+
∂2ψ(r)
∂y2
+
∂2ψ(r)
∂z2
.
• Operador de paridade: ˆPψ(r) = ψ(−r).
Produtos de operadores
O produto de dois operadores é, em geral, não comutativo:
ˆA ˆB ̸= ˆB ˆA . (34)
!
O símbolo ˆ é usado para distingui um operador ˆA de um número complexo ou de uma matriz A.
8
Entretanto, o produto de operadores é associativo:
ˆA ˆB ˆC = ˆA
(
ˆB ˆC
)
=
(
ˆA ˆB
)
ˆC . (35)
Podemos também escrever ˆAn ˆAm = ˆAn+m. Quando o produto ˆA ˆB opera sobre um ket |ψ⟩ (a
ordem é importante!), o operador ˆB atua primeiro sobre o ket |ψ⟩ e então o operador ˆA atua
sobre o novo ket ( ˆB|ψ⟩):
ˆA ˆB|ψ⟩ = ˆA
(
ˆB|ψ⟩
)
. (36)
Da mesma forma, quando ˆA ˆB ˆC ˆD opera sobre um ket |ψ⟩, o operador ˆD atua primeiro, depois
ˆC, em seguida ˆB e, por m, atua o operador ˆA.
Quando um operador ˆA é imprensado entre um bra ⟨ϕ| e um ket |ψ⟩, resulta em geral
um número complexo. A quantidade ⟨ψ| ˆA|ϕ⟩ pode também ser um número puramente real
ou puramente imaginário.
Nota: ao avaliar ⟨ψ| ˆA|ϕ⟩, não importa se o operador ˆA age primeiro no ket ou primeiro no
bra; isto é: (⟨ϕ| ˆA)|ψ⟩ = ⟨ϕ|( ˆA|ψ⟩).
Operadores lineares
Um operador ˆA é dito linear se obedecer à lei distributiva e se comutar com constantes (como
qualquer operador). Ou seja, um operador ˆA é linear se, para quaisquer vetores |ψ1⟩ e |ψ2⟩, e
para quaisquer números complexos a1 e a2, tivermos:
ˆA (a1|ψ1⟩ + a2|ψ2⟩) = a1
ˆA|ψ1⟩ + a2
ˆA|ψ2⟩ , (37)
e
(⟨ψ1|a1 + ⟨ψ2|a2) ˆA = a1⟨ψ1| ˆA + a2⟨ψ2| ˆA . (38)
Observações:
• O valor esperado ⟨ ˆA⟩ de um operador ˆA com relação a um estado |ψ⟩ é denido por
⟨ ˆA⟩ =
⟨ψ| ˆA|ψ⟩
⟨ψ|ψ⟩
. (39)
• A quantidade |ϕ⟩⟨ψ| (ou seja, o produto de um ket com um bra) é um operador linear
na notação de Dirac. Quando |ϕ⟩⟨ψ| é aplicado a um ket |ψ′⟩, obtemos outro ket:
|ϕ⟩⟨ψ|ψ′
⟩ = ⟨ψ|ψ′
⟩|ϕ⟩ , (40)
já que ⟨ψ|ψ′⟩ é um número complexo.
• Produtos do tipo |ψ⟩ ˆA e ˆA⟨ψ| são proibidos. Eles não são operadores, kets ou bras, e
não tem nenhum signicado matemático ou físico.
9
4.2 Adjunto Hermitiano
O adjunto Hermitiano ou conjugado
, α†, de um número complexo α é o complexo conju-
gado desse número: α† = α∗. O adjunto Hermitiano, ou simplesmente o adjunto, ˆA†, de um
operador ˆA é denido por essa relação:
⟨ψ| ˆA†
|ϕ⟩ = ⟨ϕ| ˆA|ψ⟩∗
. (41)
Propriedades da regra do conjugado Hermitiano
Para obter o adjunto Hermitiano de qualquer expressão, deve-se reverter ciclicamente a ordem
dos fatores e fazer três substituições:
• Substituir constantes por seus complexos conjugados: α† = α∗.
• Substituir kets (bras) pelos correspondentes bras (kets): (|ψ⟩)† = ⟨ψ| e (⟨ψ|)† = |ψ⟩.
• Substituir operadores por seus adjuntos.
Seguindo essas regras, podemos escrever:
(
ˆA†
)†
= ˆA , (42)
(
a ˆA
)†
= a∗ ˆA†
, (43)
(
ˆAn
)†
=
(
ˆA†
)n
, (44)
(
ˆA + ˆB + ˆC + ˆD
)†
= ˆA†
+ ˆB†
+ ˆC†
+ ˆD†
, (45)
(
ˆA ˆB ˆC ˆD
)†
= ˆD† ˆC† ˆB† ˆA†
, (46)
(
ˆA ˆB ˆC ˆD|ψ⟩
)†
= ⟨ψ| ˆD† ˆC† ˆB† ˆA†
. (47)
O adjunto Hermitiano do operador |ψ⟩⟨ϕ| é dado por
(|ψ⟩⟨ϕ|)†
= |ϕ⟩⟨ψ| . (48)
Operadores atuam dentro de kets e bras, respectivamente, da seguinte maneira:
|α ˆAψ⟩ = α ˆA|ψ⟩ , ⟨α ˆAψ| = α∗
⟨ψ| ˆA†
. (49)
Note-se também que ⟨α ˆA†ψ| = α∗⟨ψ|( ˆA†)† = α∗⟨ψ| ˆA. Portanto, podemos também escrever:
⟨ψ| ˆA|ϕ⟩ = ⟨ ˆA†
ψ|ϕ⟩ = ⟨ψ| ˆAϕ⟩ . (50)
Operadores Hermitianos e anti-Hermitianos
Um operador ˆA é dito ser Hermitiano se for igual ao seu adjunto ˆA†:
ˆA = ˆA† ou ⟨ψ| ˆA|ϕ⟩ = ⟨ϕ| ˆA|ψ⟩∗ (51)

Os termos adjunto e conjugado são usados indiscriminadamente.
10
Por outro lado, um operador ˆB é dito ser anti-Hermitiano se
ˆB = − ˆB† ou ⟨ψ| ˆB|ϕ⟩ = −⟨ϕ| ˆB|ψ⟩∗ (52)
Nota: O adjunto Hermitiano de um operador não é, em geral, igual ao seu complexo conju-
gado: ˆA† ̸= ˆA∗.
De (51) podemos inferir que o valor esperado de um operador Hermitiano é um número
real, pois satisfaz à seguinte propriedade:
⟨ψ| ˆA|ψ⟩ = ⟨ψ| ˆA†
|ψ⟩∗
= ⟨ψ| ˆA|ψ⟩∗
. (53)
E de (52), o valor esperado de um operador anti-Hermitiano é
⟨ψ| ˆB|ψ⟩ = −⟨ψ| ˆB†
|ψ⟩∗
= −⟨ψ| ˆB|ψ⟩∗
, (54)
o que signica que seu valor esperado é um número puramente imaginário.
4.3 Operadores de Projeção
Um operador ˆP é dito ser um operador de projeção se for Hermitiano e igual ao seu próprio
quadrado:
ˆP†
= ˆP , ˆP2
= ˆP . (55)
O operador unidade ˆI é um exemplo simples de operador de projeção, já que ˆI† = ˆI e ˆI2 = ˆI.
Propriedades dos operadores de projeção
• O produto de dois operadores de projeção que comutam, ˆP1 e ˆP2, é também um operador
de projeção, já que
(
ˆP1
ˆP2
)†
= ˆP†
2
ˆP†
1 = ˆP2
ˆP1 = ˆP1
ˆP2 (56)
e (
ˆP1
ˆP2
)2
= ˆP1
ˆP2
ˆP1
ˆP2 = ˆP1
ˆP1
ˆP2
ˆP2 = ˆP2
1
ˆP2
2 = ˆP1
ˆP2 . (57)
• A soma de dois operadores de projeção geralmente não é um operador de projeção.
• Dois operadores de projeção são ortogonais se seu produto é zero.
• Para que uma soma de operadores de projeção ˆP1 + ˆP2 + ˆP3 + . . . seja um operador de
projeção, é necessário e suciente que esses operadores sejam mutuamente ortogonais
(ou seja, os termos com produtos cruzados devem se anular).
Vamos mostrar que |ψ⟩⟨ψ| é um operador de projeção apenas quando |ψ⟩ for normalizado.
É imediato vericar que |ψ⟩⟨ψ| é Hermitiano:
(|ψ⟩⟨ψ|)†
= |ψ⟩⟨ψ| .
Veriquemos agora seu quadrado:
(|ψ⟩⟨ψ|)2
= (|ψ⟩⟨ψ|) (|ψ⟩⟨ψ|) = |ψ⟩⟨ψ|ψ⟩⟨ψ| .
Se |ψ⟩for normalizado, então ⟨ψ|ψ⟩ = 1 e concluímos que (|ψ⟩⟨ψ|)2
= |ψ⟩⟨ψ|, ou seja, se o
estado |ψ⟩ é normalizado, o produto |ψ⟩⟨ψ| é um operador de projeção.
11
4.4 Álgebra de Comutadores
O comutador de dois operadores ˆA e ˆB, denotado por [ ˆA, ˆB], é denido como
[ ˆA, ˆB] = ˆA ˆB − ˆB ˆA (58)
e o anticomutador é denido como
{ ˆA, ˆB} = ˆA ˆB + ˆB ˆA (59)
Dois operadores comutam se seu comutador for igual a zero, o que leva a ˆA ˆB = ˆB ˆA. Qualquer
operador comuta com ele mesmo:
[ ˆA, ˆA] = 0 . (60)
Note que se dois operadores forem Hermitianos,
(
ˆA ˆB
)†
= ˆB† ˆA†
= ˆB ˆA ,
e se seu produto for Hermitiano,
(
ˆA ˆB
)†
= ˆA ˆB ,
ou seja, e esses operadores comutam.
Como um exemplo, podemos mencionar os comutadores envolvendo a componente x do
operador posição, ˆX, e a componente x do operador momento, ˆPx = −i ∂x, bem como as
componentes y e z:
[ ˆX, ˆPx] = i ˆI , [ ˆY , ˆPy] = i ˆI e [ ˆZ, ˆPz] = i ˆI , (61)
onde ˆI é o operador unidade.
Propriedades dos operadores
Usando a relação (58), podemos estabelecer as seguintes propriedades:
• Anti-simetria:
[ ˆA, ˆB] = −[ ˆB, ˆA] . (62)
• Linearidade:
[ ˆA, ˆB + ˆC + ˆD + . . .] = [ ˆA, ˆB] + [ ˆA, ˆC] + [ ˆA, ˆD] + . . . . (63)
• Conjugado Hermitiano de um comutador:
[ ˆA, ˆB]†
= [ ˆB†
, ˆA†
] . (64)
• Distributividade:
[ ˆA, ˆB ˆC] = [ ˆA, ˆB] ˆC + ˆB[ ˆA, ˆC] , (65)
[ ˆA ˆB, ˆC] = ˆA[ ˆB, ˆC] + [ ˆA, ˆC] ˆB . (66)
12
• Identidade de Jacobi:
[ ˆA, [ ˆB, ˆC]] + [ ˆB, [ ˆC, ˆA]] + [ ˆC, [ ˆA, ˆB]] = 0 . (67)
• Por repetidas aplicações de (65), pode-se mostrar que
[ ˆA, ˆBn
] =
n−1∑
j=0
ˆBj
[ ˆA, ˆB] ˆBn−j−1
, (68)
[ ˆAn
, ˆB] =
n−1∑
j=0
ˆAn−j−1
[ ˆA, ˆB] ˆAj
. (69)
• Operadores comutam com qualquer escalar:
[ ˆA, b ] = 0 . (70)
Uma importante propriedade dos operadores Hermitianos é que seu comutador é anti-Hermitiano,
o que pode ser facilmente provado:
[ ˆA, ˆB]†
=
(
ˆA ˆB − ˆB ˆA
)†
= ˆB† ˆA†
− ˆA† ˆB†
= ˆB ˆA − ˆA ˆB = −[ ˆA, ˆB] . (71)
4.5 Relações de Incerteza entre Dois Operadores
Uma aplicação interessante da álgebra de comutadores é na derivação de uma relação geral
que dá o produto das incertezas de dois operadores ˆA e ˆB. Em particular, queremos dar uma
derivação formal das relações de incerteza de Heisenberg.
Sejam ⟨ ˆA⟩ e ⟨ ˆB⟩ os valores esperados de dois operadores Hermitianos ˆA e ˆB com relação
a um estado normalizado |ψ⟩: ⟨ ˆA⟩ = ⟨ψ| ˆA|ψ⟩ e ⟨ ˆB⟩ = ⟨ψ| ˆB|ψ⟩. Introduzindo os operadores
∆ ˆA = ˆA − ⟨ ˆA⟩ e ∆ ˆB = ˆB − ⟨ ˆB⟩ , (72)
temos
#
(
∆ ˆA
)2
= ˆA2
− 2 ˆA⟨ ˆA⟩ + ⟨ ˆA⟩2
e
(
∆ ˆB
)2
= ˆB2
− 2 ˆB⟨ ˆB⟩ + ⟨ ˆB⟩2
. (73)
Então,
⟨(∆ ˆA)2
⟩ = ⟨ψ|(∆ ˆA)2
|ψ⟩
= ⟨ψ| ˆA2
|ψ⟩ − 2⟨ψ| ˆA⟨ ˆA⟩|ψ⟩ + ⟨ψ|⟨ ˆA⟩2
|ψ⟩
= ⟨ ˆA2
⟩ − 2⟨ ˆA⟩⟨ ˆA⟩ + ⟨ ˆA⟩2
= ⟨ ˆA2
⟩ − ⟨ ˆA⟩2
, (74)
e, semelhantemente,
⟨(∆ ˆB)2
⟩ = ⟨ ˆB2
⟩ − ⟨ ˆB⟩2
. (75)
#
O quadrado da primeira das equações (72) conterá a soma − ˆA⟨ ˆA⟩ − ⟨ ˆA⟩ ˆA. Como ⟨ ˆA⟩ é um número real,
[ ˆA, ⟨ ˆA⟩] = 0, pela propriedade (70), e temos que ˆA⟨ ˆA⟩ = ⟨ ˆA⟩ ˆA. O mesmo pode ser dito com relação a (∆ ˆB)2
.
13
As incertezas ∆A e ∆B são denidas por
∆A =
√
⟨(∆ ˆA)2⟩ =
√
⟨ ˆA2⟩ − ⟨ ˆA⟩2 e ∆B =
√
⟨(∆ ˆB)2⟩ =
√
⟨ ˆB2⟩ − ⟨ ˆB⟩2 (76)
Agora, vamos escrever a ação dos operadores (72) sobre um estado |ψ⟩ qualquer:
|χ⟩ = ∆ ˆA|ψ⟩ =
(
ˆA − ⟨ ˆA⟩
)
|ψ⟩ , |ϕ⟩ = ∆ ˆB|ψ⟩ =
(
ˆB − ⟨ ˆB⟩
)
|ψ⟩ . (77)
A desigualdade de Schwarz para os estados |χ⟩ e |ϕ⟩ é
⟨χ|χ⟩⟨ϕ|ϕ⟩ ≥ |⟨χ|ϕ⟩|2
. (78)
Como ˆA e ˆB são Hermitianos, ∆ ˆA e ∆ ˆB também devem ser; de fato,
∆ ˆA†
=
(
ˆA − ⟨ ˆA⟩
)†
= ˆA†
− ⟨ ˆA⟩ = ˆA − ⟨ ˆA⟩ = ∆ ˆA ,
e, da mesma forma, ∆ ˆB† = ˆB − ⟨ ˆB⟩ = ∆ ˆB. Agora,
⟨χ| = ⟨ψ|∆ ˆA†
= ⟨ψ|∆ ˆA e ⟨ϕ| = ⟨ψ|∆ ˆB†
= ⟨ψ|∆ ˆB ,
de modo que
⟨χ|χ⟩ = ⟨ψ|(∆ ˆA)2
|ψ⟩ , ⟨ϕ|ϕ⟩ = ⟨ψ|(∆ ˆB)2
|ψ⟩ e ⟨χ|ϕ⟩ = ⟨ψ|∆ ˆA∆ ˆB|ψ⟩ . (79)
As equações (79) fornecem os valores esperados de (∆ ˆA)2, (∆ ˆB)2 e ∆ ˆA∆ ˆB. Assim, a desi-
gualdade de Schwarz (78) se torna
⟨(∆ ˆA)2
⟩⟨(∆ ˆB)2
⟩ ≥ ⟨∆ ˆA∆ ˆB⟩
2
. (80)
Para determinar o membro direito de (80), notemos primeiramente que
[∆ ˆA, ∆ ˆB] = ∆ ˆA∆ ˆB − ∆ ˆB∆ ˆA e {∆ ˆA, ∆ ˆB} = ∆ ˆA∆ ˆB + ∆ ˆB∆ ˆA
nos dão
∆ ˆA∆ ˆB =
1
2
[∆ ˆA, ∆ ˆB] +
1
2
{∆ ˆA, ∆ ˆB} . (81)
Agora,
[∆ ˆA, ∆ ˆB] = [ ˆA − ⟨ ˆA⟩, ˆB − ⟨ ˆB⟩]
=
(
ˆA − ⟨ ˆA⟩
) (
ˆB − ⟨ ˆB⟩
)
−
(
ˆB − ⟨ ˆB⟩
) (
ˆA − ⟨ ˆA⟩
)
= ˆA ˆB − ˆA⟨ ˆB⟩ − ⟨ ˆA⟩ ˆB + ⟨ ˆA⟩⟨ ˆB⟩ − ˆB ˆA + ˆB⟨ ˆA⟩ + ⟨ ˆB⟩ ˆA − ⟨ ˆB⟩⟨ ˆA⟩
= ˆA ˆB − ˆB ˆA
= [ ˆA, ˆB] ,
14
de modo que podemos escrever (81) como
∆ ˆA∆ ˆB =
1
2
[ ˆA, ˆB] +
1
2
{∆ ˆA, ∆ ˆB} . (82)
O anti-comutador {∆ ˆA, ∆ ˆB} pode ser expresso como { ˆA, ˆB} + 2⟨ ˆA⟩⟨ ˆB⟩. O anti-comutador
{ ˆA, ˆB} é Hermitiano, já que
{ ˆA, ˆB}†
=
(
ˆA ˆB + ˆB ˆA
)†
= ˆB† ˆA†
+ ˆA† ˆB†
= ˆB ˆA + ˆA ˆB .
Como [ ˆA, ˆB] é anti-Hermitiano, seu valor esperado é um número imaginário, enquanto que o
valor esperado de { ˆA, ˆB} é real. Portanto, o valor esperado ⟨∆ ˆA∆ ˆB⟩ de (82) se torna a soma
de uma parte real ⟨{∆ ˆA, ∆ ˆB}⟩/2 e de uma parte imaginária ⟨[ ˆA, ˆB]⟩/2. Portanto,
⟨∆ ˆA∆ ˆB⟩
2
=
1
4
⟨[ ˆA, ˆB]⟩
2
+
1
4
⟨{∆ ˆA, ∆ ˆB}⟩
2
. (83)
Como o último termo do membro direito é um número real positivo, podemos inferir a seguinte
relação:
⟨∆ ˆA∆ ˆB⟩
2
≥
1
4
⟨[ ˆA, ˆB]⟩
2
. (84)
Comparando as expressões (80) e (84), concluímos que
⟨(∆ ˆA)2
⟩⟨(∆ ˆB)2
⟩ ≥
1
4
⟨[ ˆA, ˆB]⟩
2
. (85)
Tirando a raiz quadrada de (85) e usando as denições de incerteza (76), chegamos a
∆A∆B ≥
1
2
⟨[ ˆA, ˆB]⟩ (86)
Essa relação de incerteza desempenha um papel importante no formalismo da mecânica quân-
tica. Sua aplicação aos operadores posição e momento leva às relações de incerteza de Hei-
senberg, que representam um das pedras angulares da mecânica quântica.
Para derivar as relações de incerteza de Heisenberg, aplicamos (86) aos operadores denidos
em (61). Utilizando a primeira relação em (61), temos
∆x∆px ≥
1
2
⟨[ ˆX, ˆPx]⟩ =
1
2
⟨ψ|[ ˆX, ˆPx]|ψ⟩ =
1
2
⟨ψ|i ˆI|ψ⟩ =
1
2
i ⟨ψ|ˆI|ψ⟩ =
1
2
|i | ,
ou
∆x∆px ≥
2
.
Expressões para as outras componentes são imediatas, e podemos escrever
∆x∆px ≥
2
, ∆y∆py ≥
2
, ∆z∆pz ≥
2
(87)
Essas são as relações de incerteza de Heisenberg.
15
4.6 Funções de Operadores
Seja F( ˆA) uma função de um operador ˆA. Se ˆA é um operador linear, podemos expandir
F( ˆA) em uma série de Taylor de potências de ˆA:
F( ˆA) =
∞∑
n=0
an
ˆAn
, (88)
onde an é um coeciente da expansão. Como uma ilustração de uma função de um operador,
consideremos ea ˆA, onde a é um escalar complexo ou real. Podemos expandi-la assim:
ea ˆA
=
∞∑
n=0
an
n!
ˆA = ˆI + a ˆA +
a2
2
ˆA2
+
a3
3
ˆA3
+ . . . . (89)
Comutadores envolvendo funções de operadores
Se ˆA comuta com outro operador ˆB, então ˆB comuta com qualquer função de operador que
dependa de ˆA:
[ ˆA, ˆB] = 0 =⇒ [ ˆB, F( ˆA)] = 0 . (90)
Em particular, F( ˆA) comuta com ˆA e com qualquer outra função G( ˆA):
[ ˆA, F( ˆA)] , [ ˆAn
, F( ˆA)] , [F( ˆA), G( ˆA)] . (91)
Adjuntos Hermitianos de funções de operadores
O adjunto de F( ˆA) é dado por
[F( ˆA)]†
= F∗
( ˆA†
) . (92)
Note que se ˆA for Hermitiano, F( ˆA) não será necessariamente Hermitiana, exceto se F for
uma função real (e, óbvio, se ˆA for Hermitiano). Um exemplo é:
(e
ˆA
)†
= e
ˆA†
= e
ˆA
, (ei ˆA
)†
= e−i ˆA†
= e−i ˆA
, (eiα ˆA
)†
= e−iα∗ ˆA†
= e−iα∗ ˆA
,
onde α é um número complexo. Assim, se ˆA for Hermitiano, uma função de operador que
admita expansão em série de Taylor, como em (89), será Hermitiana apenas se os coecientes
an da expansão forem números reais. Mas em geral F( ˆA) não é Hermitiana mesmo se ˆA for
Hermitiano, já que
F∗
( ˆA†
) =
∞∑
n=0
a∗
n
(
ˆA†
)n
. (93)
4.7 Operadores Inverso e Unitário
Inverso de um operador: Admitindo que exista
$, o inverso ˆA−1 de um operador linear ˆA
é denido pela relação
ˆA−1 ˆA = ˆA ˆA−1
= ˆI , (94)
onde ˆI é o operador unidade (aquele que deixa inalterado qualquer estado |ψ⟩).
$
Nem todo operador possui inverso, assim como no caso das matrizes. A inversa de uma matriz existe
apenas quando seu determinante for zero.
16
Quociente de dois operadores: Dividir um operador ˆA por outro operador ˆB (desde que
seu inverso ˆB−1 exista) é equivalente a multiplicar ˆA por ˆB−1:
ˆA
ˆB
= ˆA ˆB−1
. (95)
O lado em que o quociente é tomado é importante:
ˆA
ˆB
= ˆA
ˆI
ˆB
= ˆA ˆB−1
e
ˆA
ˆB
=
ˆI
ˆB
ˆA = ˆB−1 ˆA . (96)
Em geral, temos ˆA ˆB−1 ̸= ˆB−1 ˆA. Podemos mencionar aqui as seguintes propriedades envol-
vendo a inversão de operadores:
(
ˆA ˆB ˆC ˆD
)−1
= ˆD−1 ˆC−1 ˆB−1 ˆA−1
e
(
ˆAn
)−1
=
(
ˆA−1
)n
. (97)
Operadores unitários: Um operador linear ˆU é dito ser unitário se seu inverso ˆU−1 for
igual ao seu adjunto ˆU†:
ˆU†
= ˆU−1
ou ˆU ˆU†
= ˆU ˆU−1
= ˆI . (98)
O produto de dois operadores unitários ˆU e ˆV é também unitário, pois
(
ˆU ˆV
) (
ˆU ˆV
)†
=
(
ˆU ˆV
) (
ˆV † ˆU†
)
= ˆU
(
ˆV ˆV †
)
ˆU†
= ˆU ˆU†
= ˆI , (99)
ou ( ˆU ˆV )† = ( ˆU ˆV )−1. Esse resultado pode ser generalizado para qualquer número de opera-
dores, e o produto de vários operadores unitários será também unitário, pois
(
ˆA ˆB ˆC ˆD . . .
) (
ˆA ˆB ˆC ˆD . . .
)†
= ˆA ˆB ˆC ˆD (. . .) ˆD† ˆC† ˆB† ˆA†
= ˆA ˆB ˆC
(
ˆD ˆD†
)
ˆC† ˆB† ˆA†
= ˆA ˆB
(
ˆC ˆC†
)
ˆB† ˆA†
= ˆA
(
ˆB ˆB†
)
ˆA†
= ˆA ˆA†
= ˆI ,
ou
(
ˆA ˆB ˆC ˆD . . .
)†
=
(
ˆA ˆB ˆC ˆD . . .
)−1
. (100)
4.8 Autovalores e Autovetores de um Operador
Um vetor de estado |ψ⟩ é dito ser um autovetor% de um operador ˆA se a aplicação de ˆA a
|ψ⟩ dá
ˆA|ψ⟩ = a|ψ⟩ , (101)
onde a é um número complexo, chamado de autovalor de ˆA. Essa equação é conhecida como
a equação de autovalor (ou o problema de autovalor) do operador ˆA. Sua solução fornece
os autovalores e os autovetores de ˆA. Mais adiante, na Seção 5.3, veremos como resolver o
problema de autovalor numa base discreta.
%
Também chamado de autoket ou autoestado
17
Um exemplo simples é o problema de autovalor para o operador unidade ˆI:
ˆI|ψ⟩ = |ψ⟩ . (102)
Isso signica que todos os vetores são autovetores de ˆI, com autovalor 1. Note que
ˆA|ψ⟩ = a|ψ⟩ =⇒ ˆAn
|ψ⟩ = an
|ψ⟩ =⇒ F( ˆA)|ψ⟩ = F(a)|ψ⟩ . (103)
Por exemplo, temos
ˆA|ψ⟩ = a|ψ⟩ =⇒ ei ˆA
|ψ⟩ = eia
|ψ⟩ .
Dado o operador linear ˆA, se existir ˆA−1, então os autovalores de ˆA−1 são os inversos dos
autovalores do operador ˆA. Para ver isso, notemos que ˆA−1 ˆA = ˆI, de modo que
ˆA−1 ˆA|ψ⟩ = ˆI|ψ⟩ = |ψ⟩ . (104)
Por outro lado,
ˆA−1 ˆA|ψ⟩ = ˆA−1
(
ˆA|ψ⟩
)
= ˆA−1
(a|ψ⟩) = a ˆA−1
|ψ⟩ . (105)
Combinando (104) e (105), temos
a ˆA−1
|ψ⟩ = |ψ⟩ ,
e portanto,
ˆA−1
|ψ⟩ =
1
a
|ψ⟩ . (106)
Isso signica que |ψ⟩ também é autovetor de ˆA−1, com autovalor 1/a. Logo, se ˆA−1 existe,
então
ˆA|ψ⟩ = a|ψ⟩ =⇒ ˆA−1|ψ⟩ =
1
a
|ψ⟩ (107)
Alguns teoremas úteis relacionados ao problema de autovalor
Teorema 1. Todos os autovalores de um operador Hermitiano são reais, e os autovetores
correspondentes a diferentes autovalores são ortogonais.
Se ˆA†
= ˆA , ˆA|ϕn⟩ = an|ϕn⟩ =⇒ an ∈ R e ⟨ϕm|ϕn⟩ = δmn . (108)
Prova: Note que
ˆA|ϕn⟩ = an|ϕn⟩ =⇒ ⟨ϕm| ˆA|ϕn⟩ = an⟨ϕm|ϕn⟩ (109)
e
⟨ϕm| ˆA†
= a∗
m⟨ϕm| =⇒ ⟨ϕm| ˆA†
|ϕn⟩ = a∗
m⟨ϕm|ϕn⟩ . (110)
Subtraindo (100) de (99) e usando o fato de que ˆA é Hermitiano, temos:
⟨ϕm| ˆA|ϕn⟩ − ⟨ϕm| ˆA†
|ϕn⟩ = an⟨ϕm|ϕn⟩ − a∗
m⟨ϕm|ϕn⟩ ,
⟨ϕm| ˆA − ˆA†
|ϕn⟩ = (an − a∗
m) ⟨ϕm|ϕn⟩ ,
ou
(an − a∗
m) ⟨ϕm|ϕn⟩ = 0 .
Temos que considerar dois casos separadamente:
18
• Caso m = n: como ⟨ϕn|ϕn⟩  0, devemos ter an = a∗
n. Resulta que os autovalores devem
ser reais.
• Caso m ̸= n: como em geral an ̸= a∗
m, devemos ter ⟨ϕn|ϕn⟩ = 0. Resulta que |ϕm⟩ e
|ϕn⟩ devem ser ortogonais.
Teorema 2. Os autoestados de um operador Hermitiano denem um conjunto completo de
estados mutuamente ortonormais  uma autobase. O operador é diagonal nessa autobase, com
seus elementos diagonais iguais aos autovalores. Essa base é única se o operador não tiver
autovalores degenerados; caso contrário, há um número innito de autobases.
Teorema 3. Se dois operadores ˆA e ˆB comutam, e se ˆA não tem autovalor degenerado, então
cada autovetor de ˆA é também um autovetor de ˆB. Além disso, pode-se construir uma base
comum ortonormal formada pelos autovetores de ˆA e de ˆB.
Teorema 4. Os autovalores de um operador anti-Hermitiano são puramente imaginários ou
nulos.
Teorema 5. Os autovalores de um operador unitário são números complexos de módulo igual
a um. Os autovetores de um operador unitário que não tenham autovalores degenerados são
mutuamente ortogonais.
Prova: Sejam |ϕn⟩ e |ϕm⟩ autovetores do operador unitário ˆU com autovalores am e an,
respectivamente. Podemos escrever
(
⟨ϕm| ˆU†
) (
ˆU|ϕn⟩
)
= a∗
man⟨ϕm|ϕn⟩ ,
ou, dado que ˆU† ˆU = ˆI,
(
⟨ϕm| ˆU†
) (
ˆU|ϕn⟩
)
= ⟨ϕm| ˆU† ˆU|ϕn⟩ = ⟨ϕm|ˆI|ϕn⟩ = ⟨ϕm|ϕn⟩ ,
de forma que
(a∗
man − 1) ⟨ϕm|ϕn⟩ = 0 . (111)
Temos que analisar dois casos:
• Caso n = m: como ⟨ϕn|ϕn⟩  0, então a∗
nan = |an|2
= 1. Resulta que |an| = 1.
• Caso m ̸= n: a única possibilidade para esse caso é que ⟨ϕn|ϕn⟩ = 0, e resulta que |ϕn⟩
e |ϕn⟩ são ortogonais.
4.9 Transformações Innitesimal e Unitária Finita
Queremos investigar aqui como quantidades tais como kets, bras, operadores e escalares se
transformam sob transformações unitárias. Uma transformação unitária consiste na aplicação
de um operador unitário ˆU a uma dessas quantidades.
19
4.9.1 Transformações Unitárias
Kets e bras se transformam do seguinte modo:
|ψ′
⟩ = ˆU|ψ⟩ , ⟨ψ′
| = ⟨ψ| ˆU†
. (112)
Vamos descobrir agora como operadores se transformam sob transformações unitárias. Como
a transformada de ˆA|ψ⟩ = |ϕ⟩ é ˆA′|ψ′⟩ = |ϕ′⟩, vamos usar (102) para escrever
ˆA′ ˆU|ψ⟩ = ˆU|ϕ⟩ = ˆU ˆA|ψ⟩ , (113)
o que leva a ˆA′ ˆU = ˆU ˆA. Lembrando que ˆU ˆU† = ˆU† ˆU = ˆI, vamos multiplicar ambos os lados
de ˆA′ ˆU = ˆU ˆA por ˆU†. Temos:
ˆU† ˆA′ ˆU = ˆU† ˆU ˆA = ˆI ˆA = ˆA ,
e
ˆU ˆA ˆU†
= ˆA′ ˆU ˆU†
= ˆA′ ˆI = ˆA′
.
Resumindo, podemos escrever
|ψ′
⟩ = ˆU|ψ⟩ , ⟨ψ′
| = ⟨ψ| ˆU†
, ˆA′
= ˆU ˆA ˆU†
(114)
e
|ψ⟩ = ˆU†
|ψ′
⟩ , ⟨ψ| = ⟨ψ′
| ˆU , ˆA = ˆU† ˆA′ ˆU (115)
Propriedades das transformações unitárias
• Se um operador ˆA é Hermitiano, seu transformado ˆA′ também é Hermitiano, pois
ˆA′†
=
(
ˆU ˆA ˆU†
)†
=
(
ˆU†
)†
ˆA† ˆU†
= ˆU ˆA† ˆU†
= ˆU ˆA ˆU†
= ˆA′
. (116)
• Os autovalores de ˆA e de seu transformado ˆA′ são os mesmos, ou seja,
ˆA|ψn⟩ = an|ψn⟩ =⇒ ˆA′
|ψ′
n⟩ = an|ψ′
n⟩ . (117)
A demonstração é simples:
ˆA′
|ψ′
n⟩ =
(
ˆU ˆA ˆU†
) (
ˆU|ψn⟩
)
= ˆU ˆA
(
ˆU† ˆU
)
|ψn⟩ = ˆU ˆA|ψn⟩ = an
(
ˆU|ψn⟩
)
= |ψ′
n⟩ .
• Comutadores que são iguais a números (complexos) permanecem inalterados sob trans-
formações unitárias, ou seja, dado a ∈ C
[ ˆA, ˆB] = a =⇒ [ ˆA′
, ˆB′
] = a = [ ˆA, ˆB] . (118)
Usando (115), temos:
[ ˆA′
, ˆB′
] = [ ˆU ˆA ˆU†
, ˆU ˆB ˆU†
] =
(
ˆU ˆA ˆU†
) (
ˆU ˆB ˆU†
)
−
(
ˆU ˆB ˆU†
) (
ˆU ˆA ˆU†
)
= ˆU
(
ˆA ˆB
)
ˆU†
− ˆU
(
ˆB ˆA
)
ˆU†
= ˆU[ ˆA, ˆB] ˆU†
= ˆUa ˆU†
= a ˆU ˆU†
= a = [ ˆA, ˆB] .
20
• Valem as seguintes relações gerais:
ˆA = β ˆB + γ ˆC =⇒ ˆA′
= β ˆB′
+ γ ˆC′
, (119)
ˆA = α ˆB ˆC ˆD =⇒ ˆA′
= α ˆB′ ˆC′ ˆD′
, (120)
onde ˆA′, ˆB′, ˆC′ e ˆD′ são as transformadas de ˆA′, ˆB, ˆC e ˆD.
• Como o resultado (118) é válido para qualquer número complexo, podemos armar
que números complexos tais como ⟨ψ| ˆA|χ⟩ permanecem inalterados sob transformações
unitárias, pois
⟨ψ′
| ˆA′
|χ′
⟩ = (⟨ψ| ˆA†
)( ˆU ˆA ˆU†
)( ˆU|χ⟩) = ⟨ψ|( ˆU† ˆU) ˆA( ˆU† ˆU)|χ⟩ = ⟨ψ| ˆA|χ⟩ . (121)
Tomando ˆA = ˆI, vemos que produtos escalares do tipo
⟨ψ′
|χ′
⟩ = ⟨ψ|χ⟩ (122)
são invariantes sob transformações unitárias. Especicamente, a norma de um vetor de
estado é conservada:
⟨ψ′
|ψ′
⟩ = ⟨ψ|ψ⟩ . (123)
• Pode-se também vericar que ( ˆU ˆA ˆU†)n = ˆU ˆAn ˆU†, pois
( ˆU ˆA ˆU†
)n
= ( ˆU ˆA ˆU†
)( ˆU ˆA ˆU†
) . . . ( ˆU ˆA ˆU†
)
= ˆU ˆA( ˆU† ˆU) ˆA( ˆU† ˆU) . . . ( ˆU† ˆU) ˆA ˆU†
= ˆU( ˆA ˆA . . . ˆA) ˆU†
= ˆU ˆAn ˆU†
. (124)
• O resultado (124) pode ser generalizado para obter a transformação de qualquer função
de operador f( ˆA):
ˆUf( ˆA) ˆU†
= f( ˆU ˆA ˆU†
) = f( ˆA′
) . (125)
Mais geralmente, podemos escrever
ˆUf( ˆA, ˆB, ˆC, . . .) ˆU†
= f( ˆU ˆA ˆU†
, ˆU ˆB ˆU†
, ˆU ˆC ˆU†
, . . .) = f( ˆA′
, ˆB′
, ˆC′
, . . .) . (126)
Uma transformação unitária não altera a física de um sistema; ela meramente transforma
uma descrição do sistema em outra descrição sicamente equivalente. No que se segue, quere-
mos considerar dois tipos de transformações unitárias: as transformações innitesimais e as
transformações nitas.
4.9.2 Transformações Unitárias Innitesimais
Considere um operador ˆU que dependa de um parâmetro real ε innitesimalmente pequeno
e que desvie-se apenas ligeiramente do operador unidade ˆI:
ˆUε( ˆG) = ˆI + iε ˆG , (127)
onde ˆG é chamado de gerador da transformação innitesimal. Claramente, ˆUε será uma trans-
formação unitária apenas quando o parâmetro ε for real (ε∗ = ε) e quando ˆG for Hermitiano
( ˆG† = ˆG), pois
ˆUε
ˆU†
ε = (ˆI + iε ˆG)(ˆI − iε ˆG†
) ≃ ˆI + iε( ˆG − ˆG†
) = ˆI , (128)
21
onde desprezamos o termos quadrático em ε.
A transformação de um vetor de estado |ψ⟩ é dada por
|ψ′
⟩ = (ˆI + iε ˆG)|ψ⟩ = |ψ⟩ + δ|ψ⟩ , (129)
onde
δ|ψ⟩ = iε ˆG|ψ⟩ . (130)
A transformação de um operador ˆA é dada por
ˆA′
= (ˆI + iε ˆG) ˆA(ˆI − iε ˆG) = (ˆI + iε ˆG)( ˆA − iε ˆA ˆG) ≃ ˆA − iε ˆA ˆG + iε ˆA ˆG ,
ou
ˆA′ = (ˆI + iε ˆG) ˆA(ˆI − iε ˆG) ≃ ˆA + iε[ ˆG, ˆA] (131)
Se ˆG comuta com ˆA, a transformação unitária deixará ˆA inalterado:
[ ˆG, ˆA] = 0 =⇒ ˆA′
= ˆA′
= (ˆI + iε ˆG) ˆA(ˆI − iε ˆG) = ˆA . (132)
4.9.3 Transformações Unitárias Finitas
Pode-se construir uma transformação unitária nita a partir de (127) executando uma
sucessão de transformações innitesimais de passos iguais a ε; a aplicação de uma série de
transformações unitárias sucessivas é equivalente à aplicação de uma única transformação
unitária. Sendo ε = α/N, onde N é um inteiro e α é um parâmetro nito, podemos aplicar a
mesma transformação unitária N vezes. No limite em que n → +∞, obtemos
ˆUα( ˆG) = lim
n→∞
N∏
k=1
(
1 + i
α
N
ˆG
)
= lim
n→+∞
(
1 + i
α
N
ˆG
)N
= eiα ˆG
, (133)
onde ˆG é agora o gerador da transformação nita e α é seu parâmetro. A transformação ˆU
será unitária apenas quando o parâmetro α for real e ˆG for Hermitiano, pois
(eiα ˆG
)†
= e−iα ˆG†
= e−iα ˆG
= (eiα ˆG
)−1
. (134)
É possível mostrar que a transformação ˆA′ de um operador ˆA pode ser escrita como
eiα ˆG
e−iα ˆG
= ˆA + iα[ ˆG, ˆA] +
(iα)2
2!
[ ˆG, [ ˆG, ˆA]] +
(iα)3
3!
[ ˆG, [ ˆG, [ ˆG, ˆA]]] + . . . (135)
Se ˆG comuta com ˆA, a transformação unitária deixará ˆA inalterado:
[ ˆG, ˆA] = 0 =⇒ ˆA′
= eiα ˆG
e−iα ˆG
= ˆA . (136)
Algumas das aplicações das transformações unitárias innitesimais são o estudo de translações
espaciais e temporais, rotações espaciais e leis de conservação.
5 Representação em Bases Discretas
Por analogia dos espaços vetoriais Euclideanos em termos de vetores de base, precisamos
expressar um ket |ψ⟩ do espaço de Hilbert em termos de um conjunto completo de kets de base
mutuamente ortogonais. Vetores de estados são então representados por suas componentes
nessa base.
22
5.1 Representação Matricial de Kets, Bras e Operadores
Considere uma base ortonormal discreta e completa composta por um conjunto innito de
kets |ϕ1⟩, |ϕ2⟩, |ϕ3⟩, . . . , e denote esse conjunto por {|ϕn⟩}. Note que a base {|ϕn⟩} é discreta
e ainda assim contém um número innito de vetores unitários. No limite n → ∞, o índice de
ordenação n dos vetores unitários |ϕn⟩ é discreto ou contável; isto é, a seqüência |ϕ1⟩, |ϕ2⟩,
|ϕ3⟩, . . . é contável innitamente. Como ilustração, considere as funções especiais, tais como
os polinômios de Hermite, Legendre ou Laguerre, Hn(x), Pn(x) e Ln(x), que são identicados
por um índice discreto n e por uma variável contínua x; embora n varie discretamente, ele
pode ser innito.
Nesta seção a notação {|ϕn⟩} será usada para abreviar um conjunto innitamente contável
de vetores do espaço de Hilbert H. A condição de ortonormalidade dos kets da base é expressa
por
⟨ϕn|ϕm⟩ = δnm , (137)
onde δnm é o delta de Kronecker, denido por
δnm =
{
1 , n = m
0 , n ̸= m
. (138)
A relação de completeza, ou fechamento, para essa base é dada por
∞∑
n=1
|ϕn⟩⟨ϕn| = ˆI , (139)
onde ˆI é o operador unidade; quando o operador unidade atua sobre qualquer ket, ele o deixa
inalterado.
5.1.1 Representação Matricial de Kets e Bras
Vamos agora examinar como representar o vetor |ψ⟩ dentro do contexto da base {|ϕn⟩}.
A propriedade de completeza desta base nos permite expandir qualquer vetor de estado |ψ⟩
em termos dos kets |ϕn⟩ da base:
|ψ⟩ = ˆI|ψ⟩ =
( ∞∑
n=1
|ϕn⟩⟨ϕn|
)
|ψ⟩ =
∞∑
n=1
(⟨ϕn|ψ⟩) |ϕn⟩ =
∞∑
n=1
an|ϕn⟩ , (140)
onde o coeciente an (= ⟨ϕn|ψ⟩) representa a projeção de |ψ⟩ na direção de |ϕn⟩; an é o
componente de |ψ⟩ ao longo do vetor |ϕn⟩. Lembre-se que os coeciente an são números
complexos. Assim, na base {|ϕn⟩}, o ket |ψ⟩ é representado pelo conjunto de suas componentes
a1, a2, a3, . . . ao longo dos vetores |ϕ1⟩, |ϕ2⟩, |ϕ3⟩, . . . , respectivamente. Logo, |ψ⟩ pode ser
representado por um vetor coluna que tem um número innitamente contável de componentes:
|ψ⟩ →










⟨ϕ1|ψ⟩
⟨ϕ2|ψ⟩
.
.
.
⟨ϕn|ψ⟩
.
.
.










=










a1
a2
.
.
.
an
.
.
.










. (141)
23
O bra ⟨ψ| pode ser representado por um vetor linha:
⟨ψ| →
(
⟨ψ|ϕ1⟩ ⟨ψ|ϕ2⟩ . . . ⟨ψ|ϕn⟩ . . .
)
=
(
⟨ϕ1|ψ⟩∗ ⟨ϕ2|ψ⟩∗ . . . ⟨ϕn|ψ⟩∗ . . .
)
=
(
a∗
1 a∗
2 . . . a∗
n . . .
)
. (142)
Usando essa representação, podemos ver que o bra-ket ⟨ψ|ϕ⟩ é um número complexo igual ao
produto da matriz linha correspondente ao bra ⟨ψ| pela matriz coluna correspondente ao ket
|ϕ⟩:
⟨ψ|ϕ⟩ =
(
a∗
1 a∗
2 . . . a∗
n . . .
)










a1
a2
.
.
.
an
.
.
.










=
∞∑
n=1
a∗
nbn , (143)
onde bn = ⟨ϕn|ϕ⟩. Nessa representação, as matrizes que representam |ψ⟩ e ⟨ψ| são adjuntas
Hermitianas uma da outra.
Nota: Um ket |ψ⟩ é normalizado se
⟨ψ|ψ⟩ =
∑
n
|an|2
= 1 .
Se |ψ⟩ não estiver normalizado e quisermos normaliza-lo, precisamos simplesmente multiplica-
lo por uma constante α tal que ⟨αψ|αψ⟩ = |α|2
⟨ψ|ψ⟩ = 1, e assim
α =
1
√
⟨ψ|ψ⟩
.
5.1.2 Representação Matricial de Operadores
Para cada operador linear ˆA, podemos escrever
ˆA = ˆI ˆAˆI =
( ∞∑
n=1
|ϕn⟩⟨ϕn|
)
ˆA
( ∞∑
m=1
|ϕm⟩⟨ϕm|
)
=
∑
nm
Anm|ϕn⟩⟨ϕm| , (144)
onde Anm é o elemento de matriz nm do operador ˆA:
Anm = ⟨ϕn| ˆA|ϕm⟩ . (145)
Vemos que o operador ˆA é representado, na base {|ϕn⟩}, por uma matriz quadrada A, que
tem números innitamente contáveis de linhas e colunas:
A =






A11 A12 A13 . . .
A21 A22 A23 . . .
A31 A32 A33 . . .
.
.
.
.
.
.
.
.
.
. . .






. (146)
24
Por exemplo, o operador unidade ˆI é representado por uma matriz identidade; quando uma
matriz identidade é multiplicada por outra matriz, esta última permanece inalterada:
I =






1 0 0 . . .
0 1 0 . . .
0 0 1 . . .
.
.
.
.
.
.
.
.
.
. . .






. (147)
Em resumo, kets são representados por vetores coluna, bras são representados por vetores linha
e operadores são representados por matrizes quadradas.
5.1.3 Representação Matricial de Alguns Outros Operadores
(a) Operação adjunta Hermitiana
Vamos mostrar agora a representação matricial da operação de adjunta Hermitiana de um
operador. Primeiro, lembre-se que a transposta de uma matriz A, denotada por AT , é obtida
trocando-se linhas por colunas:
(
AT
)
nm
= Amn ou






A11 A12 A13 . . .
A21 A22 A23 . . .
A31 A32 A33 . . .
.
.
.
.
.
.
.
.
.
. . .






T
=






A11 A21 A31 . . .
A12 A22 A32 . . .
A13 A23 A33 . . .
.
.
.
.
.
.
.
.
.
. . .






. (148)
Similarmente, a transposta de uma matriz coluna é uma matriz linha e vice-versa:










a1
a2
.
.
.
an
.
.
.










T
=
(
a1 a2 . . . an . . .
)
e
(
a1 a2 . . . an . . .
)T
=










a1
a2
.
.
.
an
.
.
.










. (149)
Uma matriz quadrada A é simétrica se ela for igual à sua transposta: AT = A. Uma
matriz anti-simétrica é uma matriz quadrada cuja transposta é igual ao negativo da matriz:
AT = −A.
O complexo conjugado de uma matriz é obtido simplesmente tomando-se o complexo conju-
gado de todos os seus elementos: (A∗)nm = (Anm)∗
.
A matriz que representa o operador ˆA† é obtida tomando-se o complexo conjugado da
matriz transposta de A:
A†
=
(
AT
)∗
ou
(
ˆA†
)
nm
= ⟨ϕn| ˆA†
|ϕm⟩ = ⟨ϕm| ˆA|ϕn⟩∗
= A∗
nm . (150)
Ou seja,






A11 A12 A13 . . .
A21 A22 A23 . . .
A31 A32 A33 . . .
.
.
.
.
.
.
.
.
.
. . .






†
=






A∗
11 A∗
21 A∗
31 . . .
A∗
12 A∗
22 A∗
32 . . .
A∗
13 A∗
23 A∗
33 . . .
.
.
.
.
.
.
.
.
.
. . .






. (151)
25
Se um operador ˆA é Hermitiano, sua matriz satisfaz a essa condição:
(
AT
)∗
= A ou A∗
mn = Anm . (152)
Os elementos diagonais de uma matriz Hermitiana devem, portanto, ser números reais. Note
que uma matriz Hermitiana deve ser quadrada.
(b) Operadores Inverso e Unitário
Uma matriz possui inversa apenas se for quadrada e se seu determinante for não-nulo. Uma
matriz que possui inversa é chamada de não-singular e uma matriz que possui inversa é uma
matriz singular. Os elementos A−1
nm da matriz inversa A−1, que representa um operador ˆA−1,
são dados pela relação
A−1
nm =
cofator de Amn
determinante de A
ou A−1
nm =
BT
determinante de A
, (153)
onde B é a matriz dos cofatores. O cofator do elemento Amn é igual a (−1)m+n
vezes o
determinante da submatriz obtida de A pela supressão da m-ésima linha e da n-ésima coluna.
Note que quando o determinante da matriz representando um operador tem determinante
nulo, o operador não possui um inverso.
O inverso do produto de matrizes é obtido do seguinte modo:
(ABC . . . PQ)−1
= Q−1
P−1
. . . C−1
B−1
A−1
. (154)
A inversa da inversa de uma matriz é igual à própria matriz:
(
A−1
)−1
= A.
Um operador unitário ˆU é representado por uma matriz unitária. Uma matriz U é unitária
se sua inversa é igual à sua adjunta:
U−1
= U†
ou U†
U = I , (155)
onde I é a matriz identidade.
(c) Representação matricial de |ψ⟩⟨ψ|
Agora é fácil ver que o produto |ψ⟩⟨ψ| é de fato um operador, pois sua representação na base
{|ϕn⟩} é uma matriz quadrada:
|ψ⟩⟨ψ| =






a1
a2
a3
.
.
.






(
a∗
1 a∗
2 a∗
3 . . .
)
=






a1a∗
1 a1a∗
2 a1a∗
3 . . .
a2a∗
1 a2a∗
2 a2a∗
3 . . .
a3a∗
1 a3a∗
2 a3a∗
3 . . .
.
.
.
.
.
.
.
.
.
. . .






. (156)
(d) Traço de um operador
O traço Tr( ˆA) de um operador ˆA é dado, em uma base ortonormal {|ϕn⟩}, pela expressão
Tr( ˆA) =
∑
n
⟨ϕn| ˆA|ϕn⟩ =
∑
n
Ann . (157)
26
Veremos mais tarde que o traço de um operador não depende da base. O traço de uma matriz
é igual à soma dos elementos de sua diagonal principal, ou seja,
Tr






A11 A12 A13 . . .
A21 A22 A23 . . .
A31 A32 A33 . . .
.
.
.
.
.
.
.
.
.
. . .






= A11 + A22 + A33 + . . . . (158)
Dado um operador ˆA, valem as seguintes propriedades:
Tr( ˆA†
) = (Tr( ˆA))∗
(159)
e
Tr(α ˆA + β ˆB + γ ˆC + . . .) = α Tr( ˆA) + β Tr( ˆB) + γ Tr( ˆC) + . . . . (160)
Uma propriedade fácil de demonstrar é que Tr( ˆA ˆB) = Tr( ˆB ˆA). De fato,
Tr( ˆA ˆB) =
∑
n
⟨ϕn| ˆA ˆB|ϕn⟩
=
∑
n
⟨ϕn| ˆA
(
∑
m
|ϕm⟩⟨ϕm|
)
ˆB|ϕn⟩
=
∑
nm
⟨ϕn| ˆA|ϕm⟩⟨ϕm| ˆB|ϕn⟩
=
∑
nm
AnmBmn
=
∑
nm
BmnAnm
=
∑
nm
⟨ϕm| ˆB|ϕn⟩⟨ϕn| ˆA|ϕm⟩
=
∑
m
⟨ϕm| ˆB
(
∑
n
|ϕn⟩⟨ϕn|
)
ˆA|ϕm⟩ =
∑
m
⟨ϕm| ˆB ˆA|ϕm⟩ = Tr( ˆB ˆA) . (161)
Em vista do resultado (161), pode-se mostrar que o traço de um comutador é nulo:
Tr([ ˆA, ˆB]) = Tr( ˆA ˆB) − Tr( ˆB ˆA) = 0 . (162)
Além disso, o traço de um produto de operadores é invariante sob permutações cíclicas desses
operadores:
Tr( ˆA ˆB ˆC ˆD ˆE) = Tr( ˆE ˆA ˆB ˆC ˆD) = Tr( ˆD ˆE ˆA ˆB ˆC) = Tr( ˆC ˆD ˆE ˆA ˆB) = . . . . (163)
5.1.4 Representação Matricial de Várias Outras Quantidades
(a) Representação matricial de |ϕ⟩ = ˆA|ψ⟩
A relação |ϕ⟩ = ˆA|ψ⟩ pode ser posta na forma algébrica ˆI|ϕ⟩ = ˆI ˆAˆI|ψ⟩, ou
(
∑
n
|ϕn⟩⟨ϕn|
)
|ϕ⟩ =
(
∑
n
|ϕn⟩⟨ϕn|
)
ˆA
(
∑
m
|ϕm⟩⟨ϕm|
)
|ψ⟩ ,
27
que por sua vez pode ser escrita como
∑
n
(⟨ϕn|ϕ⟩) |ϕn⟩ =
∑
nm
(
⟨ϕn| ˆA|ϕm⟩
)
(⟨ϕm|ψ⟩) |ϕn⟩ ,
ou ∑
n
bn|ϕn⟩ =
∑
nm
Anmam|ϕn⟩ , (164)
onde bn = ⟨ϕn|ϕ⟩, Anm = ⟨ϕn| ˆA|ϕm⟩ e am = ⟨ϕm|ψ⟩. Portanto, é fácil ver que (164) fornece
bn =
∑
nm
Anmam (165)
e temos que a representação matricial de |ϕ⟩ = ˆA|ψ⟩ é dada por






b1
b2
b3
.
.
.






=






A11 A12 A13 . . .
A21 A22 A23 . . .
A31 A32 A33 . . .
.
.
.
.
.
.
.
.
.
. . .












a1
a2
a3
.
.
.






. (166)
(b) Representação matricial de ⟨ϕ| ˆA|ψ⟩
Nesse caso, temos
⟨ϕ| ˆA|ψ⟩ = ⟨ϕ|ˆI ˆAˆI|ψ⟩ = ⟨ϕ|
(
∑
n
|ϕn⟩⟨ϕn|
)
ˆA
(
∑
m
|ϕm⟩⟨ϕm|
)
|ψ⟩
=
∑
nm
(⟨ϕ|ϕn⟩)
(
⟨ϕn| ˆA|ϕm⟩
)
(⟨ϕm|ψ⟩)
=
∑
nm
(⟨ϕn|ϕ⟩∗
)
(
⟨ϕn| ˆA|ϕm⟩
)
(⟨ϕm|ψ⟩) =
∑
nm
b∗
nAnmam . (167)
Temos aqui um número complexo, e sua representação matricial é a seguinte:
⟨ϕ| ˆA|ψ⟩ →
(
b∗
1 b∗
2 b∗
3 . . .
)






A11 A12 A13 . . .
A21 A22 A23 . . .
A31 A32 A33 . . .
.
.
.
.
.
.
.
.
.
. . .












a1
a2
a3
.
.
.






. (168)
Nota: Agora ca bem fácil ver porque produtos do tipo |ψ⟩|ϕ⟩, ⟨ψ|⟨ϕ|, ˆA⟨ψ| ou |ψ⟩ ˆA são
proibidos. Eles não fazem sentido, pois não podem ter representações matriciais. Por exemplo,
|ψ⟩|ϕ⟩ seria representado pelo produto de duas matrizes coluna:
|ψ⟩|ϕ⟩ →






⟨ϕ1|ψ⟩
⟨ϕ2|ψ⟩
⟨ϕ3|ψ⟩
.
.
.












⟨ϕ1|ϕ⟩
⟨ϕ2|ϕ⟩
⟨ϕ3|ϕ⟩
.
.
.






(169)
28
Esse produto é impossível de ser executado, pois o produto de duas matrizes é possível apenas
quando o número de colunas da primeira for igual ao número de linhas da segunda; em (169),
a primeira matriz tem uma única coluna e a segunda matriz tem um número innito de linhas.
5.1.5 Propriedades de uma Matriz A
• Real se A = A∗ ou Amn = A∗
mn
• Imaginária se A = −A∗ ou Amn = −A∗
mn
• Simétrica se A = AT ou Amn = Anm
• Anti-simétrica se A = −AT ou Amn = −Anm com Amm = 0
• Hermitiana se A = A† ou Amn = A∗
nm
• Anti-Hermitiana se A = −A† ou Amn = −A∗
nm
• Ortogonal se AT = A−1 ou AAT = I ou
(
AAT
)
mn
= δmn
• Unitária se A† = A−1 ou AA† = I ou
(
AA†
)
mn
= δmn
5.2 Mudança de Base e Transformações Unitárias
Em um espaço Euclidiano, um vetor A pode ser representado por suas componentes em
diferentes sistemas de coordenadas ou em diferentes bases. A transformação de uma base
para outra é chamada de mudança de base. As componentes de A em uma dada base podem
ser expressas em termos das componentes de A em outra base por meio de uma matriz de
transformação.
Similarmente, vetores de estado e operadores da mecânica quântica podem também ser
representados em bases diferentes. Nesta seção vamos estudar como transformar de uma base
para outra. Isto é, conhecendo os componentes de bras, kets e operadores em uma base {|ϕn⟩},
como se determina os componentes correspondentes em uma base {|ϕ′
n⟩} diferente? Admitindo
que {|ϕn⟩} e {|ϕ′
n⟩} sejam duas bases diferentes, podemos expandir cada ket |ϕn⟩ da antiga
base em termos da nova base {|ϕ′
n⟩} como
|ϕn⟩ =
(
∑
m
|ϕ′
m⟩⟨ϕ′
m|
)
|ϕn⟩ =
∑
m
Umn|ϕ′
m⟩ , (170)
onde
Umn = ⟨ϕ′
m|ϕn⟩ . (171)
A matriz U, que dá a transformação da antiga base {|ϕn⟩} para a nova base {|ϕ′
n⟩}, é dada
por
Umn =






⟨ϕ′
1|ϕ1⟩ ⟨ϕ′
1|ϕ2⟩ ⟨ϕ′
1|ϕ3⟩ . . .
⟨ϕ′
2|ϕ1⟩ ⟨ϕ′
2|ϕ2⟩ ⟨ϕ′
2|ϕ3⟩ . . .
⟨ϕ′
3|ϕ1⟩ ⟨ϕ′
3|ϕ2⟩ ⟨ϕ′
3|ϕ3⟩ . . .
.
.
.
.
.
.
.
.
.
. . .






. (172)
29
A matriz U conecta duas bases completas e ortonormais {|ϕn⟩} e {|ϕ′
n⟩} e é uma matriz
unitária. Para mostrar isso, devemos provar que ˆU ˆU† = ˆI, o que se reduz a mostrar que
⟨ϕm| ˆU ˆU†|ϕn⟩ = δmn. Procedemos da seguinte forma:
⟨ϕm| ˆU ˆU†
|ϕn⟩ = ⟨ϕm| ˆU
(
∑
l
|ϕl⟩⟨ϕl|
)
ˆU†
|ϕn⟩
=
∑
l
⟨ϕm| ˆU|ϕl⟩⟨ϕl| ˆU†
|ϕn⟩
=
∑
l
⟨ϕm| ˆU|ϕl⟩⟨ϕn| ˆU|ϕl⟩∗
=
∑
l
UmlU∗
nl . (173)
Agora, de acordo com (171), Uml = ⟨ϕ′
m|ϕl⟩ e U∗
mn = ⟨ϕl|ϕ′
n⟩. Assim, podemos reescrever
(173) como
∑
l
UmlU∗
nl =
∑
l
⟨ϕ′
m|ϕl⟩⟨ϕl|ϕ′
n⟩ = ⟨ϕ′
m|ϕ′
n⟩ = δmn . (174)
Combinando (173) e (174), inferimos que ⟨ϕm| ˆU ˆU†|ϕn⟩ = δmn, ou ˆU ˆU† = ˆI, como queríamos
demonstrar.
5.2.1 Transformações de Kets, Bras e Operadores
As componentes ⟨ϕ′
n|ψ⟩ de um vetor de estado |ψ⟩ em uma nova base {|ϕ′
n⟩} podem ser
expressas em termos das componentes ⟨ϕn|ψ⟩ de |ψ⟩ em uma antiga base {|ϕn⟩} da seguinte
forma:
⟨ϕ′
n|ψ⟩ = ⟨ϕ′
m|ˆI|ψ⟩ = ⟨ϕ′
m|
(
∑
n
|ϕn⟩⟨ϕn|
)
|ψ⟩ =
∑
n
Umn⟨ϕn|ψ⟩ . (175)
Essa relação, juntamente com sua complexa conjugada, podem ser generalizadas por
|ψnovo⟩ = ˆU|ψvelho⟩ , ⟨ψnovo| = ⟨ψvelho| ˆU†
. (176)
Vamos examinar agora como os operadores se transformam quando passamos de uma base
para outra. Os elementos matriciais A′
mn = ⟨ϕ′
m| ˆA|ϕ′
n⟩ de um operador ˆA na nova base podem
ser expressos em termos dos antigos elementos matriciais, Ajl = ⟨ϕj| ˆA|ϕl⟩, do seguinte modo:
A′
mn = ⟨ϕ′
m|ˆI ˆAˆI|ϕ′
n⟩ = ⟨ϕ′
m|


∑
j
|ϕj⟩⟨ϕj|

 ˆA
(
∑
l
|ϕl⟩⟨ϕl|
)
|ϕ′
n⟩
=
∑
j
∑
l
⟨ϕ′
m|ϕj⟩⟨ϕj| ˆA|ϕl⟩⟨ϕl|ϕ′
n⟩ =
∑
j,l
UmjAjlU∗
nl , (177)
isto é,
ˆAnovo = ˆU ˆAvelho
ˆU†
. (178)
A relação inversa é obtida facilmente usando as propriedades de operadores unitários:
ˆU† ˆAnovo = ˆU† ˆU ˆAvelho
ˆU†
= ˆI ˆAvelho
ˆU†
= ˆAvelho
ˆU†
30
e
ˆU† ˆAnovo
ˆU = ˆAvelho
ˆU† ˆU = ˆAvelho
ˆI ,
ou
ˆAvelho = ˆU† ˆAnovo
ˆU . (179)
Podemos resumir os resultados sobre mudança de base através das seguintes relações:
|ψnovo⟩ = ˆU|ψvelho⟩ , ⟨ψnovo| = ⟨ψvelho| ˆU† , ˆAnovo = ˆU ˆAvelho
ˆU† (180)
ou
|ψvelho⟩ = ˆU†|ψnovo⟩ , ⟨ψvelho| = ⟨ψnovo| ˆU , ˆAvelho = ˆU† ˆAnovo
ˆU (181)
Essas relações são similares às que foram derivadas no estudo das transformações unitárias;
veja (114) e (115).
Vamos agora mostrar que o operador
ˆU =
∑
n
|ϕ′
n⟩⟨ϕn| (182)
satisfaz às propriedades discutidas acima. Primeiro, note que ˆU é um operador unitário, pois
ˆU ˆU†
=
∑
nl
|ϕ′
n⟩⟨ϕn|ϕl⟩⟨ϕ′
l| =
∑
nl
|ϕ′
n⟩⟨ϕ′
l|δnl =
∑
n
|ϕ′
n⟩⟨ϕ′
n| = ˆI . (183)
Em segundo lugar, a ação de ˆU sobre um ket da antiga base dá o ket correspondente da nova
base:
ˆU|ϕm⟩ =
∑
n
|ϕ′
n⟩⟨ϕn|ϕm⟩ =
∑
n
|ϕ′
n⟩δnm = |ϕ′
m⟩ . (184)
E também podemos vericar que a ação de ˆU† sobre um ket da nova base dá o ket correspon-
dente da antiga base:
ˆU†
|ϕ′
m⟩ =
∑
l
|ϕl⟩⟨ϕ′
l|ϕ′
m⟩ =
∑
l
|ϕl⟩δlm = |ϕm⟩ . (185)
Como o traço se transforma sob transformações unitárias? Usando a propriedade cíclica
do traço, Tr( ˆA ˆB ˆC) = Tr( ˆC ˆA ˆB) = Tr( ˆB ˆC ˆA), podemos assegurar que
Tr( ˆA′
) = Tr( ˆU ˆA ˆU†
) = Tr( ˆU† ˆU ˆA) = Tr(ˆI ˆA) = Tr( ˆA) . (186)
Lembrando da denição do traço, equação (157), temos que
Tr(|ϕn⟩⟨ϕm|) =
∑
l
⟨ϕl|ϕn⟩⟨ϕm|ϕl⟩ =
∑
l
⟨ϕm|ϕl⟩⟨ϕl|ϕn⟩
= ⟨ϕm|
(
∑
l
|ϕl⟩⟨ϕl|
)
|ϕn⟩ = ⟨ϕm|ϕn⟩ = δmn , (187)
e podemos inferir que
Tr(|ϕ′
m⟩⟨ϕn|) = ⟨ϕn|ϕ′
m⟩ . (188)
31
Vamos mostrar que o traço de um operador não depende da base em que ele é expresso.
Sejam: ˆA um operador e {|ϕn⟩}, {|ϕ′
n⟩} duas bases. O traço de ˆA na base {|ϕn⟩} é
Tr( ˆA) =
∑
n
⟨ϕn| ˆA|ϕn⟩ , (189)
e na base {|ϕ′
n⟩} é dado por
Tr( ˆA) =
∑
n
⟨ϕ′
n| ˆA|ϕ′
n⟩ . (190)
Começando de (189) e usando o fato da base {|ϕ′
n⟩} ser completa, temos
Tr( ˆA) =
∑
n
⟨ϕn| ˆA|ϕn⟩ =
∑
n
⟨ϕn|
(
∑
m
|ϕ′
m⟩⟨ϕ′
m|
)
ˆA|ϕn⟩
=
∑
n
∑
m
⟨ϕn|ϕ′
m⟩⟨ϕ′
m| ˆA|ϕn⟩
=
∑
m
∑
n
⟨ϕ′
m| ˆA|ϕn⟩⟨ϕn|ϕ′
m⟩
=
∑
m
⟨ϕ′
m| ˆA
(
∑
n
|ϕn⟩⟨ϕn|
)
|ϕ′
m⟩ =
∑
m
⟨ϕ′
m| ˆA|ϕ′
m⟩ ,
ou seja,
Tr( ˆA) =
∑
n
⟨ϕn| ˆA|ϕn⟩ =
∑
n
⟨ϕ′
n| ˆA|ϕ′
n⟩ . (191)
5.3 Representação Matricial do Problema de Autovalor
Aqui vamos apresentar a representação matricial do problema de autovalor (101) e vamos
resolvê-lo. Isto é, vamos encontrar os autovalores a e os autovetores |ψ⟩ de um operador ˆA,
tal que
ˆA|ψ⟩ = a|ψ⟩ , (192)
onde a é um número complexo. Inserindo o operador unidade entre ˆA e |ψ⟩ e multiplicando
por ⟨ϕm|, temos
⟨ϕm| ˆAˆI|ψ⟩ = ⟨ϕm| ˆA
(
∑
n
|ϕn⟩⟨ϕn|
)
|ψ⟩
=
∑
n
⟨ϕm| ˆA|ϕn⟩⟨ϕn|ψ⟩ =
∑
n
Amn⟨ϕn|ψ⟩ . (193)
Por outro lado,
⟨ϕm|ˆIa|ψ⟩ = a⟨ϕm|ˆI|ψ⟩ = a⟨ϕm|
(
∑
n
|ϕn⟩⟨ϕn|
)
|ψ⟩
= a
∑
n
⟨ϕm|ϕn⟩⟨ϕn|ψ⟩ =
∑
n
aδmn⟨ϕn|ψ⟩ . (194)
32
Então,
∑
n
Amn⟨ϕn|ψ⟩ =
∑
n
aδmn⟨ϕn|ψ⟩ ,
que pode ser escrito como
∑
n
[Amn − aδmn] ⟨ϕn|ψ⟩ = 0 , (195)
com Amn = ⟨ϕm| ˆA|ϕn⟩.
Essa equação representa um sistema innito de equações homogêneas para os coecientes
⟨ϕn|ψ⟩, já que a base {|ϕn⟩} contém um número innito de kets. Esse sistema de equações
pode ter soluções não triviais apenas se seu determinante for nulo:
det (Amn − aδmn) = 0 . (196)
O problema que surge aqui é que esse determinante corresponde a uma matriz com innitas
linhas e innitas colunas. Para resolver (196) precisamos truncar a base {|ϕn⟩} e admitir que
ela contém apenas N termos, onde N deve ser grande o suciente para garantir convergência.
Nesse caso podemos reduzir (196) ao seguinte determinante de grau N:
A11 − a A12 A13 . . . A1N
A21 A22 − a A23 . . . A2N
A31 A32 A33 − a . . . A3N
.
.
.
.
.
.
.
.
.
. . .
.
.
.
AN1 AN2 AN3 . . . ANN − a
= 0 . (197)
Essa equação é conhecida como equação secular ou característica. Suas soluções fornecem os
N autovalores a1, a2, . . . , aN , já que é uma equação de N-ésimo grau em a. O conjunto desses
N autovalores é chamado de espectro de ˆA. Conhecendo-se o conjunto de autovalores a1, a2,
. . . , aN , pode-se facilmente determinar o correspondente conjunto de autovetores |ϕ1⟩, |ϕ2⟩,
. . . , |ϕN ⟩. Para cada autovalor am de ˆA, pode-se obter a partir de (197) as N componentes
⟨ϕ1|ψ⟩, ⟨ϕ2|ψ⟩, . . . , ⟨ϕN |ψ⟩ do autovetor |ϕm⟩ correspondente.
Se vários autovetores diferentes têm o mesmo autovalor, esse autovalor é dito ser dege-
nerado. A ordem de degenerescência é determinada pelo número de autovetores linearmente
independentes que têm o mesmo autovalor. Por exemplo, se um autovalor tem cinco autove-
tores diferentes, diz-se que ele tem degenerescência quíntupla.
Quando o conjunto de autovetores {|ϕn⟩} de ˆA for completo e ortonormal, esse conjunto
pode ser usado como base. Nessa base, a matriz que representa o operador ˆA é diagonal:
A =





a1 0 0 . . .
0 a2 0 . . .
0 0 a3 . . .
.
.
.
.
.
.
.
.
.
. . .





, (198)
onde os elementos da diagonal principal são os autovalores an de ˆA, já que
⟨ϕm| ˆA|ϕn⟩ = an⟨ϕm|ϕn⟩ = anδmn . (199)
33
O traço e o determinante são dados, respectivamente, pela soma e pelo produto dos autova-
lores:
Tr(A) =
∑
n
an = a1 + a2 + . . . , (200)
det(A) =
∏
n
an = a1a2 . . . . (201)
Algumas propriedades úteis dos determinantes são:
det(ABC . . .) = det(A) · det(B) · det(C) · . . . (202)
det(A∗
) = (det A)∗
(203)
det(A†
) = (det A)∗
(204)
det(AT
) = det A (205)
det(A) = eTr(ln A)
(206)
Para nalizar esta seção, apresentamos (sem demonstração) alguns teoremas úteis referentes
ao problema de autovalor.
Teorema 6. Os autovalores de uma matriz simétrica são reais, e seus autovetores correspon-
dentes formam uma base ortonormal.
Teorema 7. Os autovalores de uma matriz anti-simétrica são nulos ou imaginários puros.
Teorema 8. Os autovalores de uma matriz Hermitiana são reais, e seus autovetores corres-
pondentes formam uma base ortonormal.
Teorema 9. Os autovalores de uma matriz anti-Hermitiana são nulos ou imaginários puros.
Teorema 10. Os autovalores de uma matriz unitária tem valor absoluto igual a um.
Teorema 11. Se os autovalores de uma matriz quadrada não são degenerados, os autovetores
correspondentes formam uma base.
6 Representação em Bases Contínuas
Nesta seção vamos considerar a representação de vetores de estado, bras e operadores em
bases contínuas. Depois de apresentar o formalismo geral, consideraremos duas aplicações
importantes: as representações nos espaços de posição e momento.
Na seção anterior, vimos que as representações de kets, bras e operadores em uma base
discreta são dadas por matrizes discretas. Mostraremos aqui que essas quantidades são repre-
sentadas numa base contínua por matrizes contínuas, isto é, matrizes innitas não enumeráveis.
34
6.1 Tratamento Geral
A condição de ortonormalidade para kets da base contínua |χk⟩ é expressa não pelo usual
delta de Kronecker como em (137), mas pela função contínua delta de Dirac:
⟨χk|χk′ ⟩ = δ(k′
− k) , (207)
onde k e k′ são parâmetros contínuos e δ(k′ − k) é a função delta de Dirac, denida por
δ(x) =
1
2π
∫ +∞
−∞
eikx
dx . (208)
A condição de completeza dessa base contínua não é dada por uma soma discreta como em
(139), mas por uma integral sobre a variável contínua,
∫ +∞
−∞
dk |χk⟩⟨χk| = ˆI , (209)
onde ˆI é o operador unidade.
Todo vetor de estado pode ser expandido em termos do conjunto completo de kets da base
|χk⟩:
|ψ⟩ = ˆI|ψ⟩ =
(∫ +∞
−∞
dk |χk⟩⟨χk|
)
|ψ⟩ =
∫ +∞
−∞
dk b(k) |χk⟩ , (210)
onde b(k), que é igual a ⟨χk|ψ⟩, representa a projeção de |ψ⟩ sobre |χk⟩.
A norma dos kets de base discreta é nita (⟨ϕn|ϕn⟩ = 1), mas a norma dos kets da base
contínua é innita; uma combinação de (207) e (208) leva a
⟨χk|χk⟩ = δ(0) =
1
2π
∫ +∞
−∞
dx → ∞ . (211)
Isto implica que os kets |χk⟩ não são quadrado-integráveis e portanto não são elementos do
espaço de Hilbert (Lembre-se que o espaço gerado por funções quadrado-integráveis é um
espaço de Hilbert). Apesar da divergência da norma de |χk⟩, o conjunto de kets |χk⟩ constitui
uma base válida de vetores que gera o espaço de Hilbert, já que para qualquer vetor de estado
|ψ⟩ o produto escalar ⟨χk|ψ⟩ é nito.
6.1.1 A Função Delta de Dirac
Antes de lidar com a representação de kets, bras e operadores, vamos fazer um breve desvio
para listar algumas das propriedades mais importantes da função delta de Dirac:
δ(x) = 0 , para x ̸= 0 , (212)
∫ b
a
f(x) δ(x − x0) dx =
{
f(x0) se a  x0  b
0 caso contrário
, (213)
∫ +∞
−∞
f(x)
dnδ(x − a)
dxn
dx = (−1)n dnf(x)
dxn
x=a
, (214)
δ(r − r′
) = δ(x − x′
)δ(y − y′
)δ(z − z′
) =
1
r2 sin θ
δ(r − r′
)δ(θ − θ′
)δ(φ − φ′
) . (215)
35
6.1.2 Representação de Kets, Bras e Operadores
A representação de kets, bras e operadores pode ser facilmente inferida do estudo feito
previamente para o caso de uma base discreta. Por exemplo, o ket |ψ⟩ é representado por uma
matriz coluna que tem um número contínuo e innito de componentes (linhas) b(k):
|ψ⟩ −→





.
.
.
⟨χk|ψ⟩
.
.
.





. (216)
O bra ⟨ψ| é representado por uma matriz linha que tem um número contínuo e innito de
componentes (colunas):
⟨ψ| −→
(
. . . ⟨ψ|χk⟩ . . .
)
. (217)
Operadores são representados por matrizes quadradas contínuas cujas linhas e colunas
possuem um número contínuo e innito de componentes:
ˆA −→





. . .
.
.
.
. . .
. . . A(k, k′) . . .
. . .
.
.
.
. . .





. (218)
A título de aplicação, consideraremos as representações nas bases de posição e momento.
6.2 Representação de Posição
Na representação de posição, a base consiste de um conjunto innito de vetores {|r⟩} que
são autokets do operador posição ˆR:
ˆR|r⟩ = r|r⟩ , (219)
onde r (sem chapéu), o vetor posição, é o auto valor do operador ˆR. As condições de orto-
normalidade e completeza são dadas respectivamente por
⟨r|r′
⟩ = δ(r − r′
) = δ(x − x′
)δ(y − y′
)δ(z − z′
) (220)
e ∫
d3
r |r⟩⟨r| = ˆI , (221)
já que a função delta tridimensional é dada por
δ(r − r′
) =
1
(2π)3
∫
d3
k eik·(r−r′)
. (222)
Assim, todo vetor de estado pode ser expandido como
|ψ⟩ =
∫
d3
r |r⟩⟨r|ψ⟩ =
∫
d3
r ψ(r) |r⟩ , (223)
onde ψ(r) denota a componente de |ψ⟩ na base {|r⟩}:
⟨r|ψ⟩ = ψ(r) . (224)
36
Isto é conhecido como a função de onda para o vetor de estado |ψ⟩. De acordo com a in-
terpretação probabilística de Born, a quantidade |⟨r|ψ⟩|2
d3r representa a probabilidade de
encontrar o sistema no elemento de volume d3r.
O produto escalar entre dois vetores de estado, |ψ⟩ e |ϕ⟩, pode ser expressa desta forma:
⟨ϕ|ψ⟩ = ⟨ϕ|ˆI|ψ⟩ = ⟨ϕ|
(∫
d3
r |r⟩⟨r|
)
|ψ⟩
=
∫
d3
r ⟨ϕ|r⟩⟨r|ψ⟩
=
∫
d3
r ⟨r|ϕ⟩∗
⟨r|ψ⟩ =
∫
d3
r ϕ∗
(r) ψ(r) . (225)
Como ˆR|r⟩ = r|r⟩, temos que ˆR2 = ˆRˆR aplicado a |r⟩ é
ˆR2
|r⟩ = ˆR
(
ˆR|r⟩
)
= ˆR (r|r⟩) = rˆR|r⟩ = r2
|r⟩ ,
que pode ser generalizado para
ˆRn
|r⟩ = rn
|r⟩ .
Com isso, temos
⟨r′
|ˆRn
|r⟩ = ⟨r′
|rn
|r⟩ = rn
⟨r′
|r⟩ = rn
δ(r′
− r) . (226)
Note que o operador ˆR é Hermitiano, pois
⟨ϕ|ˆR|ψ⟩ = ⟨ϕ|ˆRˆI|ψ⟩ = ⟨ϕ|ˆR
(∫
d3
r |r⟩⟨r|
)
|ψ⟩
=
∫
d3
r ⟨ϕ|ˆR|r⟩⟨r|ψ⟩
=
∫
d3
r r⟨ϕ|r⟩⟨r|ψ⟩
=
[∫
d3
r r⟨ψ|r⟩⟨r|ϕ⟩
]∗
=
[∫
d3
r ⟨ψ|ˆR|r⟩⟨r|ϕ⟩
]∗
=
[
⟨ψ|ˆR
(∫
d3
r |r⟩⟨r|
)
|ϕ⟩
]∗
= ⟨ψ|ˆR|ϕ⟩∗
. (227)
6.3 Representação do Momento
A base {|p⟩} da representação do momento é obtida dos autokets do operador momento
ˆP:
ˆP|p⟩ = p|p⟩ , (228)
onde p é o vetor momento. A álgebra relevante a esta representação pode ser facilmente
inferida da representação de posição. As condições de ortonormalidade e completeza da base
|p⟩ do espaço de momento são dadas por
⟨p|p′
⟩ = δ(p − p′
) (229)
37
e ∫
d3
p |p⟩⟨p| = ˆI . (230)
Expandindo |ψ⟩ nesta base, obtemos
|ψ⟩ = ˆI|ψ⟩ =
∫
d3
p |p⟩⟨p|ψ⟩ =
∫
d3
p Ψ(p) |p⟩ , (231)
onde o coeciente Ψ(p) da expansão representa a função de onda no espaço de momento. A
quantidade |Ψ(p)|2
d3p é a probabilidade de encontrar o momento do sistema no elemento de
volume d3p localizado entre p e p + dp.
Por analogia com (225) o produto escalar entre dois estados no espaço de momento é dado
por
⟨ϕ|ψ⟩ = ⟨ϕ|
(∫
d3
p |p⟩⟨p|
)
|ψ⟩ =
∫
d3
p Φ∗
(p) Ψ(p) . (232)
Como ˆP|p⟩ = p|p⟩, temos
⟨p′
|ˆPn
|p⟩ = pn
δ(p′
− p) . (233)
6.4 Conexão entre as Representações de Posição e do Momento
Vamos agora estabelecer a conexão entre as representações de posição e momento. Para
passar da base {|r⟩} para a base {|p⟩}, temos que encontrar a função de transformação ⟨r|p⟩.
Para encontrar a expressão para a função de transformação ⟨r|p⟩ , vamos estabelecer uma
conexão entre as representações de posição e momento do vetor de estado |ψ⟩:
⟨r|ψ⟩ = ⟨r|
(∫
d3
p |p⟩⟨p|
)
|ψ⟩ =
∫
d3
p ⟨r|p⟩⟨p|ψ⟩ =
∫
d3
p ⟨r|p⟩ Ψ(p) . (234)
Portanto,
ψ(r) =
∫
d3
p ⟨r|p⟩ Ψ(p) . (235)
Da mesma forma, pode-se escrever
Ψ(p) = ⟨p|ψ⟩ = ⟨p|
(∫
d3
r |r⟩⟨r|
)
|ψ⟩ =
∫
d3
r ⟨p|r⟩⟨r|ψ⟩ ,
ou
Ψ(p) =
∫
d3
r ⟨p|r⟩ ψ(r) . (236)
Estas duas últimas relações implicam que ψ(r) e Ψ(p) podem ser vistas como a transfor-
mada de Fourier uma da outra. Na mecânica quântica, a transformada de Fourier de uma
função f(r) é dada por

f(r) =
1
(2π )3/2
∫
d3
p eip·r/
g(p) . (237)
Portanto, a função ⟨r|p⟩ é dada por
⟨r|p⟩ =
eip·r/
(2π )3/2
(238)

Note a presença da constante de Planck.
38
Essa função transforma da representação de momento para a representação de posição. A
função correspondente à transformação inversa, ⟨p|r⟩, é dada por
⟨p|r⟩ = ⟨r|p⟩∗
=
e−ip·r/
(2π )3/2
(239)
A quantidade |⟨r|p⟩|2
representa a densidade de probabilidade de encontrar a partícula na
região em torno de r onde seu momento é p.
Nota: Se a função de onda da posição
ψ(r) =
1
(2π )3/2
∫
d3
p eip·r/
Ψ(p) (240)
estiver normalizada
', sua transformada de Fourier
Ψ(p) =
1
(2π )3/2
∫
d3
r e−ip·r/
ψ(r) (241)
também deve estar normalizada, pois
∫
d3
p Ψ∗
(p) Ψ(p) =
∫
d3
p Ψ∗
(p)
[
1
(2π )3/2
∫
d3
r e−ip·r/
ψ(r)
]
=
∫
d3
r ψ(r)
[
1
(2π )3/2
∫
d3
p Ψ∗
(p) e−ip·r/
]
=
∫
d3
r ψ(r) ψ∗
(r) = 1 . (242)
Esse resultado é conhecido como o teorema de Parseval.
6.4.1 Operador Momento na Representação de Posição
Para determinar a forma do operador momento ˆP na representação de posição, vamos
calcular ⟨r|ˆP|ψ⟩:
⟨r|ˆP|ψ⟩ = ⟨r|ˆPˆI|ψ⟩ = ⟨r|ˆP
(∫
|p⟩⟨p| d3
p
)
|ψ⟩
=
∫
⟨r|ˆP|p⟩⟨p|ψ⟩ d3
p
=
∫
p ⟨r|p⟩⟨p|ψ⟩ d3
p
=
1
(2π )3/2
∫
p eip·r/
Ψ(p) d3
p . (243)
'
Isto é, se ∫
d3
r ψ(r) ψ∗
(r) = 1 .
39
Agora, como p eip·r/ = −i ∇eip·r/ , e usando (238), podemos reescrever (243) como
⟨r|ˆP|ψ⟩ = −i ∇
[
1
(2π )3/2
∫
eip·r/
Ψ(p) d3
p
]
= −i ∇
[∫
⟨r|p⟩⟨p|ψ⟩ d3
p
]
= −i ∇⟨r|ψ⟩ . (244)
Assim, ˆP é dado na representação de posição por
ˆP = −i ∇ . (245)
Suas componentes cartesianas são
ˆPx = −i
∂
∂x
, ˆPy = −i
∂
∂y
, ˆPz = −i
∂
∂z
(246)
Note que a forma do operador momento (245) pode ser obtida simplesmente aplicando o
operador gradiente ∇ a uma função de onda plana ψ(r, t) = A ei(p·r−Et)/ :
− i ∇ψ(r, t) = pψ(r, t) = ˆPψ(r, t) . (247)
Como ˆP = −i ∇, podemos escrever o operador Hamiltoniano ˆH = ˆP2/2m + ˆV na repre-
sentação de posição do seguinte modo:
ˆH = −
2
2m
∇2 + ˆV (r) = −
2
2m
(
∂2
∂x2
+
∂2
∂y2
+
∂2
∂z2
)
+ ˆV (r) (248)
onde ∇2 é o operador Laplaciano. Em coordenadas cartesianas é dado por ∇2 = ∂2
x +∂2
y +∂2
z .
6.4.2 Operador Posição na Representação de Momento
A forma do operador posição ˆR na representação do momento pode ser facilmente inferida
da representação de ˆP no espaço de posição. No espaço de momento o operador posição pode
ser escrito como
ˆRj = i
∂
∂pj
(j = x, y, z) , (249)
ou
ˆX = i
∂
∂px
, ˆY = i
∂
∂py
, ˆZ = i
∂
∂pz
(250)
6.4.3 Relações de Comutação Importantes
Vamos calcular o comutador [ ˆRj, ˆPk]. As ações separadas de ˆX ˆPx e ˆPx
ˆX sobre a função
de onda ψ(r) são dadas por
ˆX ˆPxψ(r) = ˆX
(
ˆPxψ(r)
)
= ˆX
(
−i
∂ψ(r)
∂x
)
= −i x
∂ψ(r)
∂x
(251)
40
e
ˆPx
ˆXψ(r) = ˆPx
(
ˆXψ(r)
)
= ˆPx (xψ(r)) = −i
∂
∂x
(xψ(r)) = −i ψ(r) − i x
∂ψ(r)
∂x
. (252)
Portanto, temos
[ ˆX, ˆPx]ψ(r) = ˆX ˆPxψ(r) − ˆPx
ˆXψ(r) = −i x
∂ψ(r)
∂x
+ i ψ(r) + i x
∂ψ(r)
∂x
= i ψ(r) ,
ou
[ ˆX, ˆPx] = i . (253)
Relações similares podem ser prontamente derivadas para as componentes y e z, de forma que
temos:
[ ˆX, ˆPx] = i , [ ˆY , ˆPy] = i , [ ˆZ, ˆPz] = i (254)
Note-se que
[ ˆX, ˆPy]ψ(r) = ˆX ˆPyψ(r) − ˆPy
ˆXψ(r)
= ˆX
(
−i
∂ψ(r)
∂y
)
− ˆPx (xψ(r)) = −i x
∂ψ(r)
∂y
+ i x
∂ψ(r)
∂y
= 0 ,
de modo que [ ˆX, ˆPy] = 0. Verica-se que
[ ˆX, ˆPy] = [ ˆX, ˆPz] = [ ˆY , ˆPx] = [ ˆY , ˆPz] = [ ˆZ, ˆPx] = [ ˆZ, ˆPy] = 0 , (255)
pois os graus de liberdade x, y e z são independentes. Note-se ainda que
[ ˆX, ˆY ]ψ(r) = ˆX( ˆY ψ(r)) − ˆY ( ˆXψ(r)) = ˆX (xψ(r)) − ˆY (yψ(r)) = xyψ(r) − yxψ(r) = 0 ,
e verica-se que
[ ˆX, ˆY ] = [ ˆX, ˆZ] = [ ˆY , ˆZ] = [ ˆZ, ˆX] = 0 . (256)
Além disso,
[ ˆPx, ˆPy]ψ(r) = ˆPx( ˆPyψ(r)) − ˆPy( ˆPxψ(r))
= −i
∂
∂x
(
−i
∂ψ(r)
∂y
)
−
[
−i
∂
∂y
(
−i
∂ψ(r)
∂x
)]
= − 2 ∂2ψ(r)
∂x∂y
+ 2 ∂2ψ(r)
∂y∂x
= 0 .
Verica-se também que
[ ˆPx, ˆPy] = [ ˆPx, ˆPz] = [ ˆPy, ˆPz] = [ ˆPz, ˆPx] = 0 . (257)
As relações em (254), (255), (256) e (257) podem ser agrupadas do seguinte modo:
[ ˆRj, ˆRk] = i δjk , [ ˆRj, ˆRk] = 0 , [ ˆPj, ˆPk] = 0 (258)
Essas relações são chamadas de relações canônicas de comutação.
41
Agora, usando a relação (66), temos
[ ˆX2
, ˆPx] = [ ˆX ˆX, ˆPx] = ˆX[ ˆX, ˆPx] + [ ˆX, ˆPx] ˆX = i ˆX + i ˆX = 2i ˆX ,
que leva a
[ ˆX3
, ˆPx] = [ ˆX2 ˆX, ˆPx] = ˆX2
[ ˆX, ˆPx] + [ ˆX2
, ˆPx] ˆX = i ˆX2
+ 2i ˆX2
= 3i ˆX2
,
o que, por sua vez, leva a
[ ˆX4
, ˆPx] = [ ˆX3 ˆX, ˆPx] = ˆX3
[ ˆX, ˆPx] + [ ˆX3
, ˆPx] ˆX = i ˆX3
+ 3i ˆX3
= 4i ˆX3
.
Continuando dessa forma, pode-se obter qualquer potência de ˆX. Podemos generalizar os
resultados acima por
[ ˆXn
, ˆPx] = i n ˆXn−1
. (259)
Resultado semelhante vale para potências de ˆPx:
[ ˆX, ˆPn
x ] = i n ˆPn−1
x . (260)
Seguindo o mesmo procedimento que levou a (253), pode-se obter uma relação de comutação
geral de ˆPx com uma função f( ˆX) arbitrária:
[f( ˆX), ˆPx] = i
df( ˆX)
d ˆX
=⇒ [ˆP, f( ˆR)] = −i ∇F( ˆR) (261)
onde F é uma função do operador ˆR.
Vamos calcular agora o comutador [ ˆX, ˆP] na representação do momento. O operador ˆX é
dado, na representação do momento pela relação (250). Temos, então,
[ ˆX, ˆP]ψ(p) = ˆX ˆPψ(p) − ˆP ˆXψ(p)
= i
∂
∂p
(pψ(p)) − i p
∂ψ(p)
∂p
= i ψ(p) + i p
∂ψ(p)
∂p
− i p
∂ψ(p)
∂p
= i ψ(p) ,
de forma que, na representação do momento,
[ ˆX, ˆP] =
[
i
∂
∂p
, ˆP
]
= i . (262)
Já vimos que na representação de posição,
[ ˆX, ˆP] =
[
ˆX, −i
∂
∂x
]
= i . (263)
A forma explícita dos operadores depende da representação adotada, mas as relações de co-
mutação para operadores são independentes da representação.
42
6.5 Operador de Paridade
A reexão espacial em torno da origem do sistema de coordenadas é denominada uma
operação de inversão ou de paridade. Essa transformação é discreta. O operador de paridade
ˆP é denido por sua ação nos kets |r⟩ do espaço de posição:
ˆP|r⟩ = | − r⟩ , ⟨r| ˆP†
= ⟨−r| , (264)
tal que
ˆPψ(r) = ψ(−r) . (265)
O operador de paridade é Hermitiano, ˆP† = ˆP, pois
∫
d3
r ϕ∗
(r)
[
ˆPψ(r)
]
=
∫
d3
r ϕ∗
(r)ψ(−r)
=
∫
d3
r ϕ∗
(−r)ψ(r) =
∫
d3
r
[
ˆPϕ(r)
]∗
ψ(r) . (266)
Da denição (265), temos
ˆP2
ψ(r) = ˆPψ(−r) = ψ(r) , (267)
e assim, ˆP2 é igual ao operador unidade:
ˆP2
= ˆI ou ˆP = ˆP−1
. (268)
Logo, o operador de paridade é unitário, já que seu adjunto Hermitiano é igual a seu inverso:
ˆP†
= ˆP−1
. (269)
Como ˆP2 = ˆI, os autovalores de ˆP são +1 e −1, com os autoestados correspondentes
ˆPψ+(r) = ψ+(−r) = ψ+(r) , ˆPψ−(r) = ψ−(−r) = −ψ−(r) . (270)
O autoestado |ψ+⟩ é denominado par e o autoestado |ψ−⟩ é ímpar. Logo, as autofunções do
operador de paridade têm paridade denida: são pares ou ímpares.
Como |ψ+⟩ e |ψ−⟩ são autoestados do mesmo operador Hermitiano ˆP, mas com autovalores
diferentes, esses autoestados devem ser ortogonais:
⟨ψ+|ψ−⟩ =
∫
d3
r ψ∗
+(−r) ψ−(−r) ≡ −
∫
d3
r ψ∗
+(r) ψ−(r) = −⟨ψ+|ψ−⟩ , (271)
e ⟨ψ+|ψ−⟩ é zero. Os estados |ψ+⟩ e |ψ−⟩ formam um conjunto completo, já que qualquer
função pode ser escrita como ψ(r) = ψ+(r) + ψ−(r), o que conduz a
ψ+(r) =
1
2
[ψ(r) + ψ(−r)] , ψ−(r) =
1
2
[ψ(r) − ψ(−r)] . (272)
Como ˆP2 = ˆI, temos
ˆPn
=
{
ˆP quando n é ímpar,
ˆI quando n é par.
(273)
43
6.5.1 Operadores Pares e Ímpares
Um operador ˆA é dito ser par se obedece à condição
ˆP ˆA ˆP = ˆA (274)
e um operador ˆB é ímpar se obedece a
ˆP ˆB ˆP = − ˆB . (275)
Verica-se que:
ˆA ˆP =
(
ˆP ˆA ˆP
)
ˆP = ˆP ˆA ˆP2
= ˆP ˆA (276)
e
ˆB ˆP = −
(
ˆP ˆB ˆP
)
ˆP = − ˆP ˆB ˆP2
= − ˆP ˆB . (277)
O fato de que operadores pares comutam com o operador de paridade, de acordo com (276),
tem várias conseqüências úteis. Vamos examinar dois casos importantes que dependem de um
operador par ter autovalores não degenerados ou degenerados:
• Se um operador par é Hermitiano e nenhum de seus autovalores é degenerado, então
este operador tem os mesmos autovetores que o operador de paridade. E como os
autovetores do operador de paridade são pares ou ímpares, os autovetores de um operador
Hermitiano, par e não degenerado devem também ser pares ou ímpares; diz-se que eles
têm paridade denida. Essa propriedade é útil em aplicações onde se resolve a equação
de Schrödinger para Hamiltonianos pares.
• Se o operador par tem um espectro degenerado, seus autovetores não têm necessaria-
mente uma paridade denida.
E quanto à paridade dos operadores posição e momento, ˆR e ˆP? Pode-se facilmente mostrar
que ambos são ímpares. No caso de ˆR, por exemplo, temos
ˆP ˆR|r⟩ = r ˆP|r⟩ = r| − r⟩ e ˆR ˆP|r⟩ = R| − r⟩ = −r| − r⟩ ,
de modo que
ˆP ˆR = − ˆR ˆP . (278)
Pode-se mostrar também que
ˆP ˆP = −ˆP ˆP . (279)
De (278) e (278), tem-se
ˆP ˆR ˆP†
= − ˆR , ˆP ˆP ˆP†
= −ˆP , (280)
visto que ˆP† ˆP = 1. Se o operador ˆA é par e o operador ˆB é ímpar, pode-se vericar que
ˆP ˆAn ˆP = ˆAn
e ˆP ˆBn ˆP = (−1)n ˆBn
. (281)
Essas relações podem ser demonstradas facilmente. A primeira relação, por exemplo, vem de
ˆP ˆAn ˆP = ( ˆP ˆA ˆP)( ˆP ˆA ˆP) . . . ( ˆP ˆA ˆP)
= ( ˆP ˆP ˆA)( ˆP ˆP ˆA) . . . ( ˆP ˆP ˆA)
= ( ˆP2 ˆA)( ˆP2 ˆA) . . . ( ˆP2 ˆA) = ˆA ˆA . . . ˆA = ˆAn
. (282)
44
7 Mecânica Matricial e Mecânica Ondulatória
Até agora trabalhamos a matemática pertinente à mecânica quântica em duas representa-
ções diferentes: sistemas de base discreta e sistemas de base contínua. A teoria da mecânica
quântica lida, em essência, com a solução do seguinte problema de autovalor:
ˆH|ψ⟩ = E|ψ⟩ , (283)
onde ˆH é a Hamiltoniana do sistema. Essa equação é geral e não depende de qualquer sistema
de coordenadas ou representação. Mas , para resolvê-la precisamos representá-la em uma dado
sistema de base. A complexidade associada à resolução dessa equação de autovalor irá variar
de uma base para outra.
No que se segue examinaremos a representação dessa equação de autovalor numa base
discreta e então numa base contínua.
7.1 Mecânica Matricial
A representação da mecânica quântica numa base discreta produz um problema matricial
de autovalor. Ou seja, a representação de (283) numa base discreta {|ϕn⟩} produz a seguinte
equação matricial de autovalor (veja (197)):
H11 − E H12 H13 . . . H1N
H21 H22 − E H23 . . . H2N
H31 H22 H33 − E . . . H3N
.
.
.
.
.
.
.
.
.
. . .
.
.
.
HN1 HN2 HN3 . . . HNN − E
= 0 . (284)
Esta é uma equação de N-ésimo grau em E; suas soluções fornecem o espectro de energia do
sistema: E1, E2, . . . , EN . Conhecendo o conjunto de autovalores E1, E2, . . . , EN , podemos
facilmente determinar o correspondente conjunto de autovetores |ϕ1⟩, |ϕ2⟩, . . . , |ϕN ⟩.
A diagonalização da matriz Hamiltoniana 284 de um sistema fornece o espectro de energia
bem como os vetores de estado do sistema. Esse procedimento, que foi feito por Heisenberg,
envolve apenas quantidades matriciais e equações matriciais de autovalor. Essa formulação
da mecânica quântica é conhecida como mecânica matricial.
O ponto de partida de Heisenberg, em sua tentativa de encontrar uma fundamentação
teórica para as idéias de Bohr, foi a relação de transição atômica
νnm =
Em − En
h
, (285)
que dá a freqüência de radiação associada à transição eletrônica da órbita m para a órbita
n. As freqüências νnm podem ser arranjadas numa matriz quadrada, onde o elemento mn
corresponde à transição do m-ésimo para o n-ésimo estado quântico.
Podemos também construir matrizes para outras quantidades dinâmicas associadas à tran-
sição m → n. Desta forma, toda quantidade física é representada por uma matriz. Por exem-
plo, representamos níveis de energia por uma matriz de energia, a posição por uma matriz
de posição, o momento por uma matriz de momento, o momento angular por uma matriz
de momento angular, e assim por diante. Assim, o cálculo de quantidades físicas envolve o
45
trabalho com a álgebra de quantidades matriciais. No contexto da mecânica matricial, lida-se
com quantidades que não comutam, pois o produto de matrizes não comuta. Esta é uma
característica essencial que distingue a mecânica matricial da mecânica clássica, onde todas as
quantidades comutam. As componentes da posição e do momento não comutam no contexto
da mecânica matricial, sendo relacionadas pela relação de comutação [ ˆX, ˆPx] = i . A mesma
coisa se aplica às componentes do momento angular. O papel desempenhado pelas relações de
comutação dentro do contexto da mecânica matricial é similar ao papel desempenhado pelas
condições de quantização de Bohr na teoria atômica. A mecânica matricial de Heisenberg
exige, portanto, a introdução de arsenal matemático  espaços vetoriais lineares, espaço de
Hilbert, álgebra de comutadores e álgebra matricial  que é inteiramente diferente do arsenal
matemático da mecânica clássica.
7.2 Mecânica Ondulatória
A representação do formalismo da mecânica quântica numa base contínua produz uma
problema de autovalor não na forma de uma equação matricial, como na formulação de Hei-
senberg, mas na forma de uma equação diferencial. A representação da equação de autovalor
(283) no espaço de posição fornece
⟨r| ˆH|ψ⟩ = E⟨r|ψ⟩ . (286)
Como mostrado em (248), o Hamiltoniano é dado por − 2∇2/(2m) + ˆV (r) na representação
de posição, de forma que podemos escrever (286) numa forma mais familiar:
−
2
2m
∇2
ψ(r) + ˆV (r)ψ(r) = Eψ(r) (287)
onde ⟨r|ψ⟩ = ψ(r) é a função de onda do sistema. Essa equação diferencial é conhecida como
a equação de Schrödinger. Suas soluções fornecem o espectro de energia do sistema bem como
suas funções de onda. Essa formulação da mecânica quântica na representação de posição é
chamada de mecânica ondulatória.
Ao contrário de Heisenberg, Schrödinger tomou um ponto de partida inteiramente diferente
em sua busca de uma justicação teórica para as idéias de Bohr. Ele partiu da hipótese onda-
partícula, formulada por de Broglie, e a estendeu aos elétrons em órbita do núcleo. Schrödinger
queria encontrar uma equação que descrevesse o movimento do elétron dentro do átomo. Aqui
o foco está no aspecto ondulatório do elétron. A condição de quantização de Bohr, L = n , é
equivalente à relação de de Broglie, λ = 2π /p. Para estabelecer essa conexão, basta que se
faça três considerações:
(a) o comprimento de onda da onda associada ao elétron em órbita está conectada ao mo-
mento linear do elétron por λ = 2π /p;
(b) a órbita do elétron é circular, e
(c) a circunferência da órbita do elétron é um múltiplo inteiro do comprimento de onda do
elétron, isto é, 2πr = nλ. Isto leva prontamente a 2πr = n (2π /p), ou n = np ≡ L.
Isso signica que para cada órbita existe apenas um comprimento de onda associado
com o elétron orbitante.
Assim a condição de quantização de Bohr implica, em essência, em uma unicidade da
função de onda para cada órbita do elétron.
46
8 Notas Finais
Historicamente, a formulação matricial da mecânica quântica foi feita por Heisenberg pouco
antes de Schrödinger ter introduzido sua mecânica ondulatória. A equivalência entre as duas
formulações foi provada alguns anos depois através da teoria das transformações unitárias.
Diferentes na forma, ainda que idênticas em conteúdo, a mecânica ondulatória e a mecânica
matricial atingem o mesmo objetivo: encontrar o espectro de energia e os estados de sistemas
quânticos.
A formulação matricial tem a vantagem da maior generalidade (formal), ainda que sofra
de várias desvantagens. Do lado conceitual, não oferece qualquer idéia visual sobre a estrutura
do átomo; é menos intuitiva que a mecânica ondulatória. Do lado técnico, é difícil de se usar
em problemas de relativa facilidade, como o de encontrar estados estacionários de átomos.
Contudo, se torna poderosa e prática na resolução de problemas como o oscilador harmônico
ou no tratamento do formalismo do momento angular.
Mas a maioria dos esforços da mecânica quântica se concentram na resolução da equação
de Schrödinger, não no problema de autovalor matricial de Heisenberg. A mecânica matricial
é usada apenas em poucos problemas, como o oscilador harmônico, onde é mais adequada que
a mecânica ondulatória de Schrödinger.
Na mecânica ondulatória, precisamos apenas especicar o potencial no qual a partícula se
move, e a equação de Schrödinger toma conta do resto. Ou seja, conhecendo ˆV (r), podemos,
em princípio, resolver a equação (287) para obter os vários níveis de energia da partícula e
suas correspondentes funções de onda. A complexidade que se encontra na solução da equação
diferencial depende inteiramente da forma do potencial; quanto mais simples o potencial, mais
fácil é a solução. Soluções exatas da equação de Schrödinger são possíveis apenas para uns
poucos sistemas idealizados. Sistemas reais, em geral, não se prestam a soluções exatas. Nesses
casos, deve-se recorrer a soluções aproximadas.
47

Mais conteúdo relacionado

Mais procurados

Aula 14: O poço de potencial infinito
Aula 14: O poço de potencial infinitoAula 14: O poço de potencial infinito
Aula 14: O poço de potencial infinitoAdriano Silva
 
Determinação Da Razão Entre Carga Elementar E Massa Eletrônica
Determinação Da Razão Entre Carga Elementar E Massa EletrônicaDeterminação Da Razão Entre Carga Elementar E Massa Eletrônica
Determinação Da Razão Entre Carga Elementar E Massa EletrônicaThiago Mosqueiro
 
Aula 13: O poço de potencial finito
Aula 13: O poço de potencial finitoAula 13: O poço de potencial finito
Aula 13: O poço de potencial finitoAdriano Silva
 
Aula 6: O caso estacioário em uma dimensão
Aula 6: O caso estacioário em uma dimensãoAula 6: O caso estacioário em uma dimensão
Aula 6: O caso estacioário em uma dimensãoAdriano Silva
 
Aula 18: Separação da equação de Schrödinger em coordenadas cartesianas. 2 Pa...
Aula 18: Separação da equação de Schrödinger em coordenadas cartesianas. 2 Pa...Aula 18: Separação da equação de Schrödinger em coordenadas cartesianas. 2 Pa...
Aula 18: Separação da equação de Schrödinger em coordenadas cartesianas. 2 Pa...Adriano Silva
 
Aula 21: Exercícios
Aula 21: ExercíciosAula 21: Exercícios
Aula 21: ExercíciosAdriano Silva
 
Aula 4: Função de onda e Equação de Schrödinger
Aula 4: Função de onda e Equação de SchrödingerAula 4: Função de onda e Equação de Schrödinger
Aula 4: Função de onda e Equação de SchrödingerAdriano Silva
 
Aula 20: O átomo de hidrogênio
Aula 20: O átomo de hidrogênioAula 20: O átomo de hidrogênio
Aula 20: O átomo de hidrogênioAdriano Silva
 
Hidrostática - Física
Hidrostática - FísicaHidrostática - Física
Hidrostática - FísicaSlides de Tudo
 
Aula 17: Separação da equação de Schrödinger em coordenadas cartesianas. Part...
Aula 17: Separação da equação de Schrödinger em coordenadas cartesianas. Part...Aula 17: Separação da equação de Schrödinger em coordenadas cartesianas. Part...
Aula 17: Separação da equação de Schrödinger em coordenadas cartesianas. Part...Adriano Silva
 
Aula 8: O degrau de potencial. Caso I: Energia menor que o degrau
Aula 8: O degrau de potencial. Caso I: Energia menor que o degrauAula 8: O degrau de potencial. Caso I: Energia menor que o degrau
Aula 8: O degrau de potencial. Caso I: Energia menor que o degrauAdriano Silva
 
Aula 11: A barreira de potencial
Aula 11: A barreira de potencialAula 11: A barreira de potencial
Aula 11: A barreira de potencialAdriano Silva
 
Aula 9: O degrau de potencial. Caso II: Energia maior que o degrau
Aula 9: O degrau de potencial. Caso II: Energia maior que o degrauAula 9: O degrau de potencial. Caso II: Energia maior que o degrau
Aula 9: O degrau de potencial. Caso II: Energia maior que o degrauAdriano Silva
 
Aula 16: Exercícios
Aula 16: ExercíciosAula 16: Exercícios
Aula 16: ExercíciosAdriano Silva
 
Demonstração da equação de schrodinger
Demonstração da equação de schrodingerDemonstração da equação de schrodinger
Demonstração da equação de schrodingerRayane Sodré
 

Mais procurados (20)

Aula 14: O poço de potencial infinito
Aula 14: O poço de potencial infinitoAula 14: O poço de potencial infinito
Aula 14: O poço de potencial infinito
 
Determinação Da Razão Entre Carga Elementar E Massa Eletrônica
Determinação Da Razão Entre Carga Elementar E Massa EletrônicaDeterminação Da Razão Entre Carga Elementar E Massa Eletrônica
Determinação Da Razão Entre Carga Elementar E Massa Eletrônica
 
Aula 13: O poço de potencial finito
Aula 13: O poço de potencial finitoAula 13: O poço de potencial finito
Aula 13: O poço de potencial finito
 
Aula 6: O caso estacioário em uma dimensão
Aula 6: O caso estacioário em uma dimensãoAula 6: O caso estacioário em uma dimensão
Aula 6: O caso estacioário em uma dimensão
 
Aula 18: Separação da equação de Schrödinger em coordenadas cartesianas. 2 Pa...
Aula 18: Separação da equação de Schrödinger em coordenadas cartesianas. 2 Pa...Aula 18: Separação da equação de Schrödinger em coordenadas cartesianas. 2 Pa...
Aula 18: Separação da equação de Schrödinger em coordenadas cartesianas. 2 Pa...
 
Aula 21: Exercícios
Aula 21: ExercíciosAula 21: Exercícios
Aula 21: Exercícios
 
Aula11
Aula11Aula11
Aula11
 
Aula 4: Função de onda e Equação de Schrödinger
Aula 4: Função de onda e Equação de SchrödingerAula 4: Função de onda e Equação de Schrödinger
Aula 4: Função de onda e Equação de Schrödinger
 
Aula 20: O átomo de hidrogênio
Aula 20: O átomo de hidrogênioAula 20: O átomo de hidrogênio
Aula 20: O átomo de hidrogênio
 
Hidrostática - Física
Hidrostática - FísicaHidrostática - Física
Hidrostática - Física
 
Lançamento oblíquo
Lançamento oblíquoLançamento oblíquo
Lançamento oblíquo
 
Aula 17: Separação da equação de Schrödinger em coordenadas cartesianas. Part...
Aula 17: Separação da equação de Schrödinger em coordenadas cartesianas. Part...Aula 17: Separação da equação de Schrödinger em coordenadas cartesianas. Part...
Aula 17: Separação da equação de Schrödinger em coordenadas cartesianas. Part...
 
Aula 8: O degrau de potencial. Caso I: Energia menor que o degrau
Aula 8: O degrau de potencial. Caso I: Energia menor que o degrauAula 8: O degrau de potencial. Caso I: Energia menor que o degrau
Aula 8: O degrau de potencial. Caso I: Energia menor que o degrau
 
Spin a5
Spin a5Spin a5
Spin a5
 
Aula 11: A barreira de potencial
Aula 11: A barreira de potencialAula 11: A barreira de potencial
Aula 11: A barreira de potencial
 
Lançamento obliquio
Lançamento obliquioLançamento obliquio
Lançamento obliquio
 
Aula 9: O degrau de potencial. Caso II: Energia maior que o degrau
Aula 9: O degrau de potencial. Caso II: Energia maior que o degrauAula 9: O degrau de potencial. Caso II: Energia maior que o degrau
Aula 9: O degrau de potencial. Caso II: Energia maior que o degrau
 
Derivadas direcionais
Derivadas direcionaisDerivadas direcionais
Derivadas direcionais
 
Aula 16: Exercícios
Aula 16: ExercíciosAula 16: Exercícios
Aula 16: Exercícios
 
Demonstração da equação de schrodinger
Demonstração da equação de schrodingerDemonstração da equação de schrodinger
Demonstração da equação de schrodinger
 

Semelhante a Matematica quantica

Produto cartesiano e função 1º ano do ensino medio
Produto cartesiano e função   1º ano do ensino medioProduto cartesiano e função   1º ano do ensino medio
Produto cartesiano e função 1º ano do ensino medioSimone Smaniotto
 
Produto cartesiano e função 1º ano do ensino medio
Produto cartesiano e função   1º ano do ensino medioProduto cartesiano e função   1º ano do ensino medio
Produto cartesiano e função 1º ano do ensino medioSimone Smaniotto
 
Apostila: Introdução a Limite, Derivada e Integral
Apostila: Introdução a Limite, Derivada e IntegralApostila: Introdução a Limite, Derivada e Integral
Apostila: Introdução a Limite, Derivada e IntegralMaria Teresa Thomaz
 
Resumo teorico matematica afa
Resumo teorico matematica afaResumo teorico matematica afa
Resumo teorico matematica afaAcir Robson
 
CáLculo NuméRico I
CáLculo NuméRico ICáLculo NuméRico I
CáLculo NuméRico Ieducacao f
 
funçoes
funçoesfunçoes
funçoestagma33
 
Equações Algébricas e Transcendentes - Isolamento de Raízes - @professorenan
Equações Algébricas e Transcendentes - Isolamento de Raízes - @professorenanEquações Algébricas e Transcendentes - Isolamento de Raízes - @professorenan
Equações Algébricas e Transcendentes - Isolamento de Raízes - @professorenanRenan Gustavo
 
Introdução à álgebra linear
Introdução à álgebra linearIntrodução à álgebra linear
Introdução à álgebra linearday ....
 
Apostila 3 calculo i integrais
Apostila 3 calculo i integraisApostila 3 calculo i integrais
Apostila 3 calculo i integraistrigono_metrico
 

Semelhante a Matematica quantica (20)

Produto cartesiano e função 1º ano do ensino medio
Produto cartesiano e função   1º ano do ensino medioProduto cartesiano e função   1º ano do ensino medio
Produto cartesiano e função 1º ano do ensino medio
 
Produto cartesiano e função 1º ano do ensino medio
Produto cartesiano e função   1º ano do ensino medioProduto cartesiano e função   1º ano do ensino medio
Produto cartesiano e função 1º ano do ensino medio
 
Apostila 3 funções
Apostila 3 funçõesApostila 3 funções
Apostila 3 funções
 
Apostila: Introdução a Limite, Derivada e Integral
Apostila: Introdução a Limite, Derivada e IntegralApostila: Introdução a Limite, Derivada e Integral
Apostila: Introdução a Limite, Derivada e Integral
 
Resumo teorico matematica afa
Resumo teorico matematica afaResumo teorico matematica afa
Resumo teorico matematica afa
 
Fourier
FourierFourier
Fourier
 
CáLculo NuméRico I
CáLculo NuméRico ICáLculo NuméRico I
CáLculo NuméRico I
 
integrais.pptx
integrais.pptxintegrais.pptx
integrais.pptx
 
Lista 2 - FUV - Resolução
Lista 2   - FUV - ResoluçãoLista 2   - FUV - Resolução
Lista 2 - FUV - Resolução
 
Lista 2 - FUV - Resolução
Lista 2 - FUV - ResoluçãoLista 2 - FUV - Resolução
Lista 2 - FUV - Resolução
 
funçoes
funçoesfunçoes
funçoes
 
4. espacos vectoriais
4. espacos vectoriais4. espacos vectoriais
4. espacos vectoriais
 
Função polinomial do 1º grau
Função polinomial do 1º grauFunção polinomial do 1º grau
Função polinomial do 1º grau
 
Cálculo usando MatLab
Cálculo usando MatLabCálculo usando MatLab
Cálculo usando MatLab
 
Equações Algébricas e Transcendentes - Isolamento de Raízes - @professorenan
Equações Algébricas e Transcendentes - Isolamento de Raízes - @professorenanEquações Algébricas e Transcendentes - Isolamento de Raízes - @professorenan
Equações Algébricas e Transcendentes - Isolamento de Raízes - @professorenan
 
Lista de integração
Lista de integraçãoLista de integração
Lista de integração
 
Introdução à álgebra linear
Introdução à álgebra linearIntrodução à álgebra linear
Introdução à álgebra linear
 
Apostila 3 calculo i integrais
Apostila 3 calculo i integraisApostila 3 calculo i integrais
Apostila 3 calculo i integrais
 
Calculo1 aula08
Calculo1 aula08Calculo1 aula08
Calculo1 aula08
 
Calculo1 aula08
Calculo1 aula08Calculo1 aula08
Calculo1 aula08
 

Matematica quantica

  • 1. Ferramentas Matemáticas da Mecânica Quântica Quantum Mechanics Concepts and Applications, cap. 3 Nouredini Zetilli 15 de novembro de 2011 1 Introdução Lidamos aqui com o maquinário matemático necessário ao estudo da mecânica quântica. Embora este capítulo seja de escopo matemático, nenhuma tentativa de ser matematicamente completo e rigoroso é feita. Nos limitamos àquelas questões práticas que são relevantes ao formalismo da mecânica quântica. A equação de Schrödinger é uma das pedras angulares da teoria da mecânica quântica; ela tem a estrutura de uma equação linear. O formalismo da mecânica quântica lida com operadores que são lineares e funções de onda que pertencem a um espaço abstrato de Hilbert. As propriedades matemáticas e a estrutura dos espaços de Hilbert são essenciais para uma devida compreensão do formalismo da mecânica quântica. Por isso, revisaremos brevemente as propriedades dos espaços de Hilbert e desses operadores lineares. Depois consideraremos a notação bra-ket de Dirac. A mecânica quântica foi formulada de dois modos diferentes por Schrödinger e Heisenberg. A mecânica ondulatória de Schrödinger e a mecânica matricial de Heisenberg são as represen- tações do formalismo geral da mecânica quântica em sistemas de bases contínuas e discretas, respectivamente. Por isso, também examinaremos a matemática envolvida na representação de kets, bras, bra-kets e operadores em bases discretas e contínuas. 2 O Espaço de Hilbert e as Funções de Onda 2.1 O Espaço Vetorial Linear Um espaço vetorial linear consiste de dois conjuntos de elementos e duas regras algébricas: • um conjunto de vetores ψ, ϕ, χ, . . . , e um conjunto de escalares a, b, c; • uma regra para a adição vetorial e uma regra para a multiplicação escalar. (a) Regra da Adição: a regra da adição tem as propriedades e a estrutura de um grupo abeliano: • Se ψ e ϕ são vetores (elementos) de um espaço, sua soma, ψ + ϕ, é também um vetor do mesmo espaço. • Comutatividade: ψ + ϕ = ϕ + ψ. • Associatividade: (ψ + ϕ) + χ = ψ + (ϕ + χ). 1
  • 2. • Elemento neutro (ou vetor nulo): para cada vetor ψ, deve existir um vetor O, do mesmo espaço, tal que: O + ψ = ψ + O = ψ. • Elemento simétrico (ou vetor inverso): para cada vetor ψ, deve existir um vetor simétrico (−ψ), do mesmo espaço, tal que: ψ + (−ψ) = (−ψ) + ψ = O. (b) Regra da Multiplicação: a multiplicação de vetores por escalares tem as seguintes propriedades: • O produto de um escalar por um vetor dá um outro vetor. Em geral, se ψ e ϕ são dois vetores do espaço, qualquer combinação linear aψ + bϕ é também um vetor do espaço, sendo a e b escalares. • Distributividade com relação à adição: a (ψ + ϕ) = aψ + aϕ , (a + b) ψ = aψ + bψ . (1) • Associatividade com relação à multiplicação de escalares: a (bψ) = (ab) ψ . (2) • Para cada elemento ψ deve existir um escalar unitário I e um escalar nulo o, tais que: Iψ = ψI = ψ e oψ = ψo = o . (3) 2.2 O Espaço de Hilbert Um espaço de Hilbert H consiste de um conjunto de vetores ψ, ϕ, χ, . . . , e um conjunto de escalares a, b, c, os quais satisfazem às seguintes quatro propriedades: (a) H é um espaço linear. As propriedades de um espaço linear foram consideradas na seção anterior. (b) H tem um produto escalar denido que é estritamente positivo. O produto escalar de um elemento ψ por outro elemento ϕ é, em geral, um número complexo, denotado por (ψ, ϕ), onde (ψ, ϕ) = número complexo. Nota: cuidado com a ordem! Como o produto escalar é um número complexo, a quantidade (ψ, ϕ) geralmente não é igual a (ϕ, ψ): (ψ, ϕ) = ψ∗ϕ, enquanto que (ϕ, ψ) = ϕ∗ψ. O produto escalar satisfaz às seguintes propriedades: O produto escalar de ψ e ϕ é igual ao complexo conjugado do produto escalar de ϕ e ψ: (ψ, ϕ) = (ϕ, ψ)∗ . (4) O produto escalar de ψ e ϕ é linear com relação ao segundo fator se ϕ = aϕ2 + bϕ2: (ψ, aϕ2 + bϕ2) = a (ψ, ϕ1) + b (ψ, ϕ2) , (5) e anti-linear com relação ao primeiro fator se ψ = aψ2 + bψ2: (aψ1 + bψ2, ϕ) = a∗ (ψ1, ϕ) + b∗ (ψ2, ϕ) . (6) Escalares podem ser números reais ou complexos 2
  • 3. O produto escalar de um vetor ψ por ele mesmo é um número real positivo: (ψ, ψ) = ∥ψ∥2 ≥ 0 , (7) onde a igualdade vale apenas para ψ = O. (c) H é separável. Existe uma sequência de Cauchy ψn ∈ H (n = 1, 2, . . .) tal que para cada ψ de H e ε 0, existe pelo menos um ψn da sequência para o qual ∥ψ − ψn∥ ε . (8) (d) H é completo. Toda sequência de Cauchy ψn ∈ H converge para um elemento de H. Isto é, para qualquer ψn, a relação lim n,m→∞ ∥ψn − ψm∥ = 0 (9) dene um único elemento ψ de H tal que lim n→∞ ∥ψ − ψn∥ = 0 . (10) Nota: Deve-se perceber que em um produto escalar (ψ, ϕ), o segundo fator, ϕ, pertence ao espaço de Hilbert H, enquanto o primeiro fator, ψ, pertence a seu espaço dual de Hilbert Hd. A distinção entre H e Hd é devida ao fato de que, como mencionado acima, o produto escalar não é comutativo: (ψ, ϕ) ̸= (ϕ, ψ); a ordem importa! Da álgebra linear, sabemos que todo espaço vetorial pode ser associado com um espaço vetorial dual. 2.3 Dimensão e Base de um Espaço Vetorial Um conjunto de N vetores não-nulos ϕ1, ϕ2, . . . , ϕN é dito ser linearmente independente (LI) se, e somente se, a solução da equação N∑ i=1 aiϕi = 0 (11) é a1 = a2 = . . . = aN = 0. Mas se existir um conjunto de escalares, nem todos nulos, tal que um dos vetores (digamos, ϕn) possa ser expresso como uma combinação linear dos outros, ϕn = n−1∑ i=1 aiϕi + N∑ i=n+1 aiϕi , (12) então o conjunto {ϕi} é dito ser linearmente dependente (LD). Dimensão: A dimensão de um espaço vetorial é dada pelo número máximo de vetores LI que o espaço pode ter. Por exemplo, se o número máximo de vetores LI que um espaço tem é N (isto é, ϕ1, ϕ2, . . . , ϕN ), esse espaço é dito ser N-dimensional. Nesse espaço vetorial N-dimensional, qualquer vetor ψ pode ser expresso como uma combinação linear: ψ = N∑ i=1 aiϕi . (13) 3
  • 4. Base: A base de um espaço vetorial consiste de um conjunto contendo o máximo número possível de vetores LI pertencentes àquele espaço. O conjunto de vetores ϕ1, ϕ2, . . . , ϕN , de- notado abreviadamente por {ϕi}, é chamado de base do espaço vetorial, enquanto os vetores ϕ1, ϕ2, . . . , ϕN são chamados de vetores da base. Embora o conjunto desses vetores LI seja arbitrário, é conveniente escolhê-lhos como sendo ortonormais, isto é, com produto escalar satisfazendo à relação (ϕj, ϕj) = δij, onde δij = 1 se i = j, e δij = 0 se i ̸= j. A base é dita ser ortonormal se consistir de um conjunto de vetores ortonormais. Além disso, a base é dita ser completa se gera o espaço inteiro, isto é, se não há necessidade de se introduzir qualquer vetor de base adicional. Os coecientes ai na expansão (13) são chamados de componentes do vetor ψ com relação à base. Cada componente é dada pelo produto escalar de ψ pelo vetor de base correspondente , aj = (ϕj, ψ). Exemplos de espaços vetoriais lineares: Vamos dar dois exemplos de espaços lineares que são espaços de Hilbert: um tendo um conjunto nito (discreto) de vetores de base, o outro tendo uma base innita (contínua). • Espaço vetorial Euclideano tridimensional: a base deste espaço consiste de três vetores LI, geralmente denotados por i, j e k. Qualquer vetor do espaço Euclideano pode ser escrito em termos dos vetores da base como A = a1i+a2j+a3k, onde a1, a2 e a3 são os componentes de A nessa base, e cada componente pode ser determinada tomando-se o produto escalar de A pelo vetor de base correspondente: a1 = i · A, a2 = j · A e a3 = k · A. Note-se que o produto escalar no espaço Euclideano é real e, portanto, simétrico. A norma nesse espaço é o comprimento usual de vetores: ∥A∥ = A. Note-se também que sempre que a1i + a2j + a3k = 0, temos a1 = a2 = a3 = 0, e nenhum dos vetores unitários i, j, k pode ser expresso como combinação linear dos outros dois. • Espaço vetorial das funções complexas inteiras ψ(x): a dimensão desse espaço é innita, pois ele tem um número innito de vetores de base LI. 2.4 Funções Quadrado-Integráveis: Funções de Onda No caso de espaços de funções, um vetor é dado por uma função complexa e o produto escalar é dado por integrais. Ou seja, o produto escalar de duas funções ψ(x) e ϕ(x) é dado por (ψ, ϕ) = ∫ ψ∗ (x) ϕ(x) dx . (14) Se essa integral diverge, o produto escalar não existe. Resulta que se quisermos que o espaço de funções tenha um produto escalar, devemos selecionar apenas aquelas funções para as quais (ψ, ϕ) seja nito. Em particular, uma função ψ(x) é dita ser quadrado-integrável se o produto escalar de ψ consigo mesma, (ψ, ψ) = ∫ |ψ(x)|2 dx , (15) for nito. (ϕj, ψ) = ( ϕj, N∑ i=1 aiϕi ) = n∑ i=1 ai (ϕj, ϕi) = n∑ i=1 aiδij = aj . 4
  • 5. É fácil vericar que o espaço das funções quadrado-integráveis possui as propriedades de um espaço de Hilbert. Por exemplo, qualquer combinação linear de funções quadrado-integráveis é também uma função quadrado-integrável e (14) satisfaz a todas as propriedades do produto escalar de um espaço de Hilbert. Note que a dimensão do espaço de Hilbert das funções quadrado-integráveis é innito, já que cada função de onda pode ser expandida em termos de um número innito de funções LI. A dimensão de um espaço é dada pelo número máximo de vetores de base LI necessários para gerar aquele espaço. Um bom exemplo de função quadrado-integrável é a função de onda da mecânica quân- tica, denotada por ψ(r, t). De acordo com a interpretação probabilística de ψ(r, t), dada por Max Born, a quantidade |ψ(r, t)|2 d3r representa a probabilidade de encontrar, no tempo t, a partícula em um volume d3r, centrado no ponto r. A probabilidade de encontrar a partícula em algum lugar do espaço deve ser igual a 1: ∫ |ψ(r, t)|2 d3 r = ∫ +∞ −∞ ∫ +∞ −∞ ∫ +∞ −∞ |ψ(r, t)|2 dx dy dz = 1 . (16) Portanto, as funções de onda da mecânica quântica são quadrado-integráveis. Funções de onda que satisfazem a (16) 3 Notação de Dirac O estado físico de um sistema é representado na mecânica quântica por elementos de um espaço de Hilbert; esses elementos são chamados de vetores de estado. Podemos representar os vetores de estado em diferentes bases por meio de expansões de funções. Isto é análogo a especicar um vetor ordinário (Euclideano) por suas componentes em vários sistemas de coor- denadas. Por exemplo, podemos representar equivalentemente um vetor por suas componentes num sistema de coordenadas cartesianas, num sistema de coordenadas esféricas, ou num sis- tema de coordenadas cilíndricas. O signicado de um vetor, obviamente, é independente do sistema de coordenadas escolhido para representar suas componentes. Similarmente, o estado de um sistema microscópico tem um signicado independente da base na qual é expandido. Dirac introduziu uma notação para vetores de estado extremamente valiosa na mecânica quântica; ela permite manipular o formalismo da mecânica quântica com facilidade e clareza. Ele introduziu os conceitos de bras, kets e bra-kets, que serão explicados abaixo. Kets: elementos de um espaço vetorial Dirac denotou o vetor de estado ψ pelo símbolo |ψ⟩, que denominou de um vetor ket, ou, sim- plesmente, um ket. Os kets pertencem ao espaço (vetorial) de Hilbert H, ou, abreviadamente, ao espaço ket. Bras: elementos de um espaço dual Como mencionado anteriormente, sabemos da álgebra linear que um espaço dual pode ser associado a cada espaço vetorial. Dirac denotou os elementos de um espaço dual pelo símbolo ⟨ |, que ele denominou de vetor bra, ou simplesmente bra. Por exemplo, o elemento ⟨ψ| re- presenta um bra. Para cada ket |ψ⟩ existe um único bra ⟨ψ| e vice-versa. Enquanto os kets pertencem ao espaço de Hilbert H, os correspondentes bras pertencem a seu espaço dual de 5
  • 6. Hilbert Hd. Bra-ket: notação de Dirac para o produto escalar Dirac denotou o produto escalar (ou interno) pelo símbolo ⟨|⟩, que é chamado de bra-ket. Por exemplo, o produto escalar (ϕ, ψ) é denotado pelo bra-ket ⟨ϕ|ψ⟩: (ϕ, ψ) → ⟨ϕ|ψ⟩ . (17) Nota: Quando um ket (bra) é multiplicado por um número complexo, também obtemos um ket (bra). Na mecânica quântica lidamos com funções de onda ψ(r, t), mas no formalismo mais geral da mecânica quântica lidamos com kets abstratos |ψ⟩. Funções de onda, assim como kets, são elementos de um espaço de Hilbert. Deve-se notar que, assim como uma função de onda, um ket representa completamente o sistema, e portanto conhecer |ψ⟩ signica conhecer todas as suas amplitudes em todas as possíveis representações. Como foi dito, kets são independentes de qualquer representação particular. Não há razão para particularizar uma base de representação tal como se faz no espaço de posição. Obviamente, se quisermos saber a probabilidade de encontrar a partícula em alguma posição no espaço, precisamos desenvolver o formalismo dentro da representação de coordenadas. O vetor de estado dessa partícula no tempo t será dado pela função de onda espacial ⟨r, t|ψ⟩ = ψ(r, t). Na representação de coordenadas, o produto escalar ⟨ϕ|ψ⟩ é dado por ⟨ϕ|ψ⟩ = ∫ ϕ∗ (r, t) ψ(r, t) d3 r . (18) Similarmente, se estivermos considerando o momento tridimensional de uma partícula, o ket |ψ⟩ terá que ser expresso no espaço de momento. Nesse caso, o estado da partícula será des- crito por uma função de onda ψ(p, t), onde p é o momento da partícula. Propriedades de kets, bras e bra-kets • Todo ket tem um bra correspondente A cada ket |ψ⟩ corresponde um único bra ⟨ψ| e vice-versa: |ψ⟩ ←→ ⟨ψ| . (19) Existe uma correspondência um-a-um entre bras e kets: a|ψ⟩ + b|ϕ⟩ ←→ a∗ ⟨ψ| + b∗ ⟨ϕ| , (20) onde a e b são números complexos. A notação a seguir é bastante comum: |aψ⟩ = a|ψ⟩ , ⟨aψ| = a∗ ⟨ψ| . (21) • Propriedades do produto escalar Como na mecânica quântica o produto escalar é um número complexo, a ordem importa muito. Devemos distinguir com cuidado um produto escalar de seu complexo conjugado; ⟨ψ|ϕ⟩ não é a mesma coisa que ⟨ϕ|ψ⟩: ⟨ϕ|ψ⟩∗ = ⟨ψ|ϕ⟩ . (22) 6
  • 7. Esta propriedade se torna clara se a aplicarmos em (14): ⟨ϕ|ψ⟩∗ = (∫ ϕ∗ (r, t) ψ(r, t) d3 r )∗ = ∫ ψ∗ (r, t) ϕ(r, t) d3 r = ⟨ψ|ϕ⟩ . (23) Se |ψ⟩ e |ϕ⟩ fossem reais, teríamos ⟨ψ|ϕ⟩ = ⟨ϕ|ψ⟩. Vamos listar agora algumas proprie- dades adicionais do produto escalar: ⟨ϕ|a1ψ1 + a2ψ2⟩ = a1⟨ϕ|ψ1⟩ + a2⟨ϕ|ψ2⟩ , (24) ⟨a1ϕ1 + a2ϕ2|ψ⟩ = a∗ 1⟨ϕ1|ψ⟩ + a∗ 2⟨ϕ2|ψ⟩ , (25) ⟨a1ϕ1 + a2ϕ2|b1ψ1 + b2ψ2⟩ = a∗ 1b1⟨ϕ1|ψ1⟩ + a∗ 1b2⟨ϕ1|ψ2⟩ + a∗ 2b1⟨ϕ2|ψ1⟩ + a∗ 2b2⟨ϕ2|ψ2⟩ . (26) • A norma é real e positiva Para qualquer vetor de estado |ψ⟩ do espaço de Hilbert H, a norma é real e positiva; ⟨ψ|ψ⟩ é igual a zero apenas quando |ψ⟩ = O, onde O é o vetor nulo. Se o estado |ψ⟩ é normalizado, então ⟨ψ|ψ⟩ = 1. • Desigualdade de Schwarz Para quaisquer dois estados |ψ⟩ e |ϕ⟩ do espaço de Hilbert, pode-se mostrar que |⟨ψ|ϕ⟩|2 ≤ ⟨ψ|ψ⟩⟨ϕ|ϕ⟩ . (27) Se |ψ⟩ e |ϕ⟩ forem linearmente dependentes (isto é, proporcionais: |ψ⟩ = α|ϕ⟩, onde α é um escalar), essa relação se torna uma igualdade. A desigualdade de Schwarz (27) é análoga à seguinte relação do espaço real Euclideano: |A · B|2 ≤ |A|2 |B|2 . (28) • Desigualdade triangular √ ⟨ψ + ϕ|ψ + ϕ⟩ ≤ √ ⟨ψ|ψ⟩ + √ ⟨ϕ|ϕ⟩ . (29) Se |ψ⟩ e |ϕ⟩ forem linearmente dependentes (isto é, proporcionais: |ψ⟩ = α|ϕ⟩, onde α é um escalar), a desigualdade triangular se torna uma igualdade. Sua contrapartida é a seguinte desigualdade no espaço real Euclideano: |A + A| ≤ |B| + |B|. • Estados ortogonais Dois kets |ψ⟩ e |ϕ⟩ são ditos ortogonais se seu produto escalar é nulo: ⟨ψ|ϕ⟩ = 0 . (30) • Estados ortonormais Dois kets |ψ⟩ e |ϕ⟩ são ditos ortonormais se forem ortogonais e cada um tiver norma unitária: ⟨ψ|ϕ⟩ = 0 , ⟨ψ|ψ⟩ = 1 , ⟨ϕ|ϕ⟩ = 1 . (31) 7
  • 8. • Quantidades proibidas Se |ψ⟩ e |ϕ⟩ pertencem ao mesmo espaço vetorial (de Hilbert), produtos do tipo |ψ⟩|ϕ⟩ e ⟨ψ|⟨ϕ| são proibidos. Eles não fazem sentido, pois |ψ⟩|ϕ⟩ e ⟨ψ|⟨ϕ| não são bras nem kets. Contudo se |ψ⟩ e |ϕ⟩ pertencem a espaços vetoriais diferentes (por exemplo, |ψ⟩ pertence a um espaço de spin e |ϕ⟩ pertence a um espaço de momento angular orbital), então seu produto |ψ⟩|ϕ⟩, escrito como |ψ⟩⊗|ϕ⟩, representa um produto tensorial de |ψ⟩ e |ϕ⟩. Apenas nesses casos típicos esses produtos tem signicado. Signicado físico do produto escalar O produto escalar pode ser interpretado de dois modos. Primeiro, por analogia com o produto escalar de vetores comuns no espaço Euclideano, onde A·B representa a projeção de B sobre A, o produto ⟨ϕ|ψ⟩ também representa a projeção de |ψ⟩ sobre |ϕ⟩. Segundo, no caso de estados normalizados e de acordo com a interpretação probabilística de Max Born, a quantidade ⟨ϕ|ψ⟩ representa a amplitude da probabilidade que o estado |ψ⟩ do sistema terá, após uma medição ser feita no sistema, seja outro estado |ϕ⟩. 4 Operadores 4.1 Denições Gerais Denição de um operador: Um operador ! ˆA é uma regra matemática que, aplicada a um ket |ψ⟩, o transforma em outro ket |ψ′⟩ do mesmo espaço, e quando age sobre um bra ⟨ϕ|, o transforma em outro bra ⟨ϕ′| ˆA|ψ⟩ = |ψ′ ⟩ , ⟨ϕ| ˆA = ⟨ϕ′ | . (32) Uma denição semelhante aplica-se a funções de onda: ˆAψ(r) = ψ′ (r) , ϕ(r) ˆA = ϕ′ (r) . (33) Exemplos de operadores • Operador unidade: deixa qualquer ket inalterado, ˆI|ψ⟩ = |ψ⟩. • Operador gradiente: ∇ψ(r) = ∂ψ(r) ∂x i + ∂ψ(r) ∂y j + ∂ψ(r) ∂z k. • Operador momento linear: Pψ(r) = −i ∇ψ(r). • Operador Laplaciano: ∇2ψ(r) = ∂2ψ(r) ∂x2 + ∂2ψ(r) ∂y2 + ∂2ψ(r) ∂z2 . • Operador de paridade: ˆPψ(r) = ψ(−r). Produtos de operadores O produto de dois operadores é, em geral, não comutativo: ˆA ˆB ̸= ˆB ˆA . (34) ! O símbolo ˆ é usado para distingui um operador ˆA de um número complexo ou de uma matriz A. 8
  • 9. Entretanto, o produto de operadores é associativo: ˆA ˆB ˆC = ˆA ( ˆB ˆC ) = ( ˆA ˆB ) ˆC . (35) Podemos também escrever ˆAn ˆAm = ˆAn+m. Quando o produto ˆA ˆB opera sobre um ket |ψ⟩ (a ordem é importante!), o operador ˆB atua primeiro sobre o ket |ψ⟩ e então o operador ˆA atua sobre o novo ket ( ˆB|ψ⟩): ˆA ˆB|ψ⟩ = ˆA ( ˆB|ψ⟩ ) . (36) Da mesma forma, quando ˆA ˆB ˆC ˆD opera sobre um ket |ψ⟩, o operador ˆD atua primeiro, depois ˆC, em seguida ˆB e, por m, atua o operador ˆA. Quando um operador ˆA é imprensado entre um bra ⟨ϕ| e um ket |ψ⟩, resulta em geral um número complexo. A quantidade ⟨ψ| ˆA|ϕ⟩ pode também ser um número puramente real ou puramente imaginário. Nota: ao avaliar ⟨ψ| ˆA|ϕ⟩, não importa se o operador ˆA age primeiro no ket ou primeiro no bra; isto é: (⟨ϕ| ˆA)|ψ⟩ = ⟨ϕ|( ˆA|ψ⟩). Operadores lineares Um operador ˆA é dito linear se obedecer à lei distributiva e se comutar com constantes (como qualquer operador). Ou seja, um operador ˆA é linear se, para quaisquer vetores |ψ1⟩ e |ψ2⟩, e para quaisquer números complexos a1 e a2, tivermos: ˆA (a1|ψ1⟩ + a2|ψ2⟩) = a1 ˆA|ψ1⟩ + a2 ˆA|ψ2⟩ , (37) e (⟨ψ1|a1 + ⟨ψ2|a2) ˆA = a1⟨ψ1| ˆA + a2⟨ψ2| ˆA . (38) Observações: • O valor esperado ⟨ ˆA⟩ de um operador ˆA com relação a um estado |ψ⟩ é denido por ⟨ ˆA⟩ = ⟨ψ| ˆA|ψ⟩ ⟨ψ|ψ⟩ . (39) • A quantidade |ϕ⟩⟨ψ| (ou seja, o produto de um ket com um bra) é um operador linear na notação de Dirac. Quando |ϕ⟩⟨ψ| é aplicado a um ket |ψ′⟩, obtemos outro ket: |ϕ⟩⟨ψ|ψ′ ⟩ = ⟨ψ|ψ′ ⟩|ϕ⟩ , (40) já que ⟨ψ|ψ′⟩ é um número complexo. • Produtos do tipo |ψ⟩ ˆA e ˆA⟨ψ| são proibidos. Eles não são operadores, kets ou bras, e não tem nenhum signicado matemático ou físico. 9
  • 10. 4.2 Adjunto Hermitiano O adjunto Hermitiano ou conjugado , α†, de um número complexo α é o complexo conju- gado desse número: α† = α∗. O adjunto Hermitiano, ou simplesmente o adjunto, ˆA†, de um operador ˆA é denido por essa relação: ⟨ψ| ˆA† |ϕ⟩ = ⟨ϕ| ˆA|ψ⟩∗ . (41) Propriedades da regra do conjugado Hermitiano Para obter o adjunto Hermitiano de qualquer expressão, deve-se reverter ciclicamente a ordem dos fatores e fazer três substituições: • Substituir constantes por seus complexos conjugados: α† = α∗. • Substituir kets (bras) pelos correspondentes bras (kets): (|ψ⟩)† = ⟨ψ| e (⟨ψ|)† = |ψ⟩. • Substituir operadores por seus adjuntos. Seguindo essas regras, podemos escrever: ( ˆA† )† = ˆA , (42) ( a ˆA )† = a∗ ˆA† , (43) ( ˆAn )† = ( ˆA† )n , (44) ( ˆA + ˆB + ˆC + ˆD )† = ˆA† + ˆB† + ˆC† + ˆD† , (45) ( ˆA ˆB ˆC ˆD )† = ˆD† ˆC† ˆB† ˆA† , (46) ( ˆA ˆB ˆC ˆD|ψ⟩ )† = ⟨ψ| ˆD† ˆC† ˆB† ˆA† . (47) O adjunto Hermitiano do operador |ψ⟩⟨ϕ| é dado por (|ψ⟩⟨ϕ|)† = |ϕ⟩⟨ψ| . (48) Operadores atuam dentro de kets e bras, respectivamente, da seguinte maneira: |α ˆAψ⟩ = α ˆA|ψ⟩ , ⟨α ˆAψ| = α∗ ⟨ψ| ˆA† . (49) Note-se também que ⟨α ˆA†ψ| = α∗⟨ψ|( ˆA†)† = α∗⟨ψ| ˆA. Portanto, podemos também escrever: ⟨ψ| ˆA|ϕ⟩ = ⟨ ˆA† ψ|ϕ⟩ = ⟨ψ| ˆAϕ⟩ . (50) Operadores Hermitianos e anti-Hermitianos Um operador ˆA é dito ser Hermitiano se for igual ao seu adjunto ˆA†: ˆA = ˆA† ou ⟨ψ| ˆA|ϕ⟩ = ⟨ϕ| ˆA|ψ⟩∗ (51) Os termos adjunto e conjugado são usados indiscriminadamente. 10
  • 11. Por outro lado, um operador ˆB é dito ser anti-Hermitiano se ˆB = − ˆB† ou ⟨ψ| ˆB|ϕ⟩ = −⟨ϕ| ˆB|ψ⟩∗ (52) Nota: O adjunto Hermitiano de um operador não é, em geral, igual ao seu complexo conju- gado: ˆA† ̸= ˆA∗. De (51) podemos inferir que o valor esperado de um operador Hermitiano é um número real, pois satisfaz à seguinte propriedade: ⟨ψ| ˆA|ψ⟩ = ⟨ψ| ˆA† |ψ⟩∗ = ⟨ψ| ˆA|ψ⟩∗ . (53) E de (52), o valor esperado de um operador anti-Hermitiano é ⟨ψ| ˆB|ψ⟩ = −⟨ψ| ˆB† |ψ⟩∗ = −⟨ψ| ˆB|ψ⟩∗ , (54) o que signica que seu valor esperado é um número puramente imaginário. 4.3 Operadores de Projeção Um operador ˆP é dito ser um operador de projeção se for Hermitiano e igual ao seu próprio quadrado: ˆP† = ˆP , ˆP2 = ˆP . (55) O operador unidade ˆI é um exemplo simples de operador de projeção, já que ˆI† = ˆI e ˆI2 = ˆI. Propriedades dos operadores de projeção • O produto de dois operadores de projeção que comutam, ˆP1 e ˆP2, é também um operador de projeção, já que ( ˆP1 ˆP2 )† = ˆP† 2 ˆP† 1 = ˆP2 ˆP1 = ˆP1 ˆP2 (56) e ( ˆP1 ˆP2 )2 = ˆP1 ˆP2 ˆP1 ˆP2 = ˆP1 ˆP1 ˆP2 ˆP2 = ˆP2 1 ˆP2 2 = ˆP1 ˆP2 . (57) • A soma de dois operadores de projeção geralmente não é um operador de projeção. • Dois operadores de projeção são ortogonais se seu produto é zero. • Para que uma soma de operadores de projeção ˆP1 + ˆP2 + ˆP3 + . . . seja um operador de projeção, é necessário e suciente que esses operadores sejam mutuamente ortogonais (ou seja, os termos com produtos cruzados devem se anular). Vamos mostrar que |ψ⟩⟨ψ| é um operador de projeção apenas quando |ψ⟩ for normalizado. É imediato vericar que |ψ⟩⟨ψ| é Hermitiano: (|ψ⟩⟨ψ|)† = |ψ⟩⟨ψ| . Veriquemos agora seu quadrado: (|ψ⟩⟨ψ|)2 = (|ψ⟩⟨ψ|) (|ψ⟩⟨ψ|) = |ψ⟩⟨ψ|ψ⟩⟨ψ| . Se |ψ⟩for normalizado, então ⟨ψ|ψ⟩ = 1 e concluímos que (|ψ⟩⟨ψ|)2 = |ψ⟩⟨ψ|, ou seja, se o estado |ψ⟩ é normalizado, o produto |ψ⟩⟨ψ| é um operador de projeção. 11
  • 12. 4.4 Álgebra de Comutadores O comutador de dois operadores ˆA e ˆB, denotado por [ ˆA, ˆB], é denido como [ ˆA, ˆB] = ˆA ˆB − ˆB ˆA (58) e o anticomutador é denido como { ˆA, ˆB} = ˆA ˆB + ˆB ˆA (59) Dois operadores comutam se seu comutador for igual a zero, o que leva a ˆA ˆB = ˆB ˆA. Qualquer operador comuta com ele mesmo: [ ˆA, ˆA] = 0 . (60) Note que se dois operadores forem Hermitianos, ( ˆA ˆB )† = ˆB† ˆA† = ˆB ˆA , e se seu produto for Hermitiano, ( ˆA ˆB )† = ˆA ˆB , ou seja, e esses operadores comutam. Como um exemplo, podemos mencionar os comutadores envolvendo a componente x do operador posição, ˆX, e a componente x do operador momento, ˆPx = −i ∂x, bem como as componentes y e z: [ ˆX, ˆPx] = i ˆI , [ ˆY , ˆPy] = i ˆI e [ ˆZ, ˆPz] = i ˆI , (61) onde ˆI é o operador unidade. Propriedades dos operadores Usando a relação (58), podemos estabelecer as seguintes propriedades: • Anti-simetria: [ ˆA, ˆB] = −[ ˆB, ˆA] . (62) • Linearidade: [ ˆA, ˆB + ˆC + ˆD + . . .] = [ ˆA, ˆB] + [ ˆA, ˆC] + [ ˆA, ˆD] + . . . . (63) • Conjugado Hermitiano de um comutador: [ ˆA, ˆB]† = [ ˆB† , ˆA† ] . (64) • Distributividade: [ ˆA, ˆB ˆC] = [ ˆA, ˆB] ˆC + ˆB[ ˆA, ˆC] , (65) [ ˆA ˆB, ˆC] = ˆA[ ˆB, ˆC] + [ ˆA, ˆC] ˆB . (66) 12
  • 13. • Identidade de Jacobi: [ ˆA, [ ˆB, ˆC]] + [ ˆB, [ ˆC, ˆA]] + [ ˆC, [ ˆA, ˆB]] = 0 . (67) • Por repetidas aplicações de (65), pode-se mostrar que [ ˆA, ˆBn ] = n−1∑ j=0 ˆBj [ ˆA, ˆB] ˆBn−j−1 , (68) [ ˆAn , ˆB] = n−1∑ j=0 ˆAn−j−1 [ ˆA, ˆB] ˆAj . (69) • Operadores comutam com qualquer escalar: [ ˆA, b ] = 0 . (70) Uma importante propriedade dos operadores Hermitianos é que seu comutador é anti-Hermitiano, o que pode ser facilmente provado: [ ˆA, ˆB]† = ( ˆA ˆB − ˆB ˆA )† = ˆB† ˆA† − ˆA† ˆB† = ˆB ˆA − ˆA ˆB = −[ ˆA, ˆB] . (71) 4.5 Relações de Incerteza entre Dois Operadores Uma aplicação interessante da álgebra de comutadores é na derivação de uma relação geral que dá o produto das incertezas de dois operadores ˆA e ˆB. Em particular, queremos dar uma derivação formal das relações de incerteza de Heisenberg. Sejam ⟨ ˆA⟩ e ⟨ ˆB⟩ os valores esperados de dois operadores Hermitianos ˆA e ˆB com relação a um estado normalizado |ψ⟩: ⟨ ˆA⟩ = ⟨ψ| ˆA|ψ⟩ e ⟨ ˆB⟩ = ⟨ψ| ˆB|ψ⟩. Introduzindo os operadores ∆ ˆA = ˆA − ⟨ ˆA⟩ e ∆ ˆB = ˆB − ⟨ ˆB⟩ , (72) temos # ( ∆ ˆA )2 = ˆA2 − 2 ˆA⟨ ˆA⟩ + ⟨ ˆA⟩2 e ( ∆ ˆB )2 = ˆB2 − 2 ˆB⟨ ˆB⟩ + ⟨ ˆB⟩2 . (73) Então, ⟨(∆ ˆA)2 ⟩ = ⟨ψ|(∆ ˆA)2 |ψ⟩ = ⟨ψ| ˆA2 |ψ⟩ − 2⟨ψ| ˆA⟨ ˆA⟩|ψ⟩ + ⟨ψ|⟨ ˆA⟩2 |ψ⟩ = ⟨ ˆA2 ⟩ − 2⟨ ˆA⟩⟨ ˆA⟩ + ⟨ ˆA⟩2 = ⟨ ˆA2 ⟩ − ⟨ ˆA⟩2 , (74) e, semelhantemente, ⟨(∆ ˆB)2 ⟩ = ⟨ ˆB2 ⟩ − ⟨ ˆB⟩2 . (75) # O quadrado da primeira das equações (72) conterá a soma − ˆA⟨ ˆA⟩ − ⟨ ˆA⟩ ˆA. Como ⟨ ˆA⟩ é um número real, [ ˆA, ⟨ ˆA⟩] = 0, pela propriedade (70), e temos que ˆA⟨ ˆA⟩ = ⟨ ˆA⟩ ˆA. O mesmo pode ser dito com relação a (∆ ˆB)2 . 13
  • 14. As incertezas ∆A e ∆B são denidas por ∆A = √ ⟨(∆ ˆA)2⟩ = √ ⟨ ˆA2⟩ − ⟨ ˆA⟩2 e ∆B = √ ⟨(∆ ˆB)2⟩ = √ ⟨ ˆB2⟩ − ⟨ ˆB⟩2 (76) Agora, vamos escrever a ação dos operadores (72) sobre um estado |ψ⟩ qualquer: |χ⟩ = ∆ ˆA|ψ⟩ = ( ˆA − ⟨ ˆA⟩ ) |ψ⟩ , |ϕ⟩ = ∆ ˆB|ψ⟩ = ( ˆB − ⟨ ˆB⟩ ) |ψ⟩ . (77) A desigualdade de Schwarz para os estados |χ⟩ e |ϕ⟩ é ⟨χ|χ⟩⟨ϕ|ϕ⟩ ≥ |⟨χ|ϕ⟩|2 . (78) Como ˆA e ˆB são Hermitianos, ∆ ˆA e ∆ ˆB também devem ser; de fato, ∆ ˆA† = ( ˆA − ⟨ ˆA⟩ )† = ˆA† − ⟨ ˆA⟩ = ˆA − ⟨ ˆA⟩ = ∆ ˆA , e, da mesma forma, ∆ ˆB† = ˆB − ⟨ ˆB⟩ = ∆ ˆB. Agora, ⟨χ| = ⟨ψ|∆ ˆA† = ⟨ψ|∆ ˆA e ⟨ϕ| = ⟨ψ|∆ ˆB† = ⟨ψ|∆ ˆB , de modo que ⟨χ|χ⟩ = ⟨ψ|(∆ ˆA)2 |ψ⟩ , ⟨ϕ|ϕ⟩ = ⟨ψ|(∆ ˆB)2 |ψ⟩ e ⟨χ|ϕ⟩ = ⟨ψ|∆ ˆA∆ ˆB|ψ⟩ . (79) As equações (79) fornecem os valores esperados de (∆ ˆA)2, (∆ ˆB)2 e ∆ ˆA∆ ˆB. Assim, a desi- gualdade de Schwarz (78) se torna ⟨(∆ ˆA)2 ⟩⟨(∆ ˆB)2 ⟩ ≥ ⟨∆ ˆA∆ ˆB⟩ 2 . (80) Para determinar o membro direito de (80), notemos primeiramente que [∆ ˆA, ∆ ˆB] = ∆ ˆA∆ ˆB − ∆ ˆB∆ ˆA e {∆ ˆA, ∆ ˆB} = ∆ ˆA∆ ˆB + ∆ ˆB∆ ˆA nos dão ∆ ˆA∆ ˆB = 1 2 [∆ ˆA, ∆ ˆB] + 1 2 {∆ ˆA, ∆ ˆB} . (81) Agora, [∆ ˆA, ∆ ˆB] = [ ˆA − ⟨ ˆA⟩, ˆB − ⟨ ˆB⟩] = ( ˆA − ⟨ ˆA⟩ ) ( ˆB − ⟨ ˆB⟩ ) − ( ˆB − ⟨ ˆB⟩ ) ( ˆA − ⟨ ˆA⟩ ) = ˆA ˆB − ˆA⟨ ˆB⟩ − ⟨ ˆA⟩ ˆB + ⟨ ˆA⟩⟨ ˆB⟩ − ˆB ˆA + ˆB⟨ ˆA⟩ + ⟨ ˆB⟩ ˆA − ⟨ ˆB⟩⟨ ˆA⟩ = ˆA ˆB − ˆB ˆA = [ ˆA, ˆB] , 14
  • 15. de modo que podemos escrever (81) como ∆ ˆA∆ ˆB = 1 2 [ ˆA, ˆB] + 1 2 {∆ ˆA, ∆ ˆB} . (82) O anti-comutador {∆ ˆA, ∆ ˆB} pode ser expresso como { ˆA, ˆB} + 2⟨ ˆA⟩⟨ ˆB⟩. O anti-comutador { ˆA, ˆB} é Hermitiano, já que { ˆA, ˆB}† = ( ˆA ˆB + ˆB ˆA )† = ˆB† ˆA† + ˆA† ˆB† = ˆB ˆA + ˆA ˆB . Como [ ˆA, ˆB] é anti-Hermitiano, seu valor esperado é um número imaginário, enquanto que o valor esperado de { ˆA, ˆB} é real. Portanto, o valor esperado ⟨∆ ˆA∆ ˆB⟩ de (82) se torna a soma de uma parte real ⟨{∆ ˆA, ∆ ˆB}⟩/2 e de uma parte imaginária ⟨[ ˆA, ˆB]⟩/2. Portanto, ⟨∆ ˆA∆ ˆB⟩ 2 = 1 4 ⟨[ ˆA, ˆB]⟩ 2 + 1 4 ⟨{∆ ˆA, ∆ ˆB}⟩ 2 . (83) Como o último termo do membro direito é um número real positivo, podemos inferir a seguinte relação: ⟨∆ ˆA∆ ˆB⟩ 2 ≥ 1 4 ⟨[ ˆA, ˆB]⟩ 2 . (84) Comparando as expressões (80) e (84), concluímos que ⟨(∆ ˆA)2 ⟩⟨(∆ ˆB)2 ⟩ ≥ 1 4 ⟨[ ˆA, ˆB]⟩ 2 . (85) Tirando a raiz quadrada de (85) e usando as denições de incerteza (76), chegamos a ∆A∆B ≥ 1 2 ⟨[ ˆA, ˆB]⟩ (86) Essa relação de incerteza desempenha um papel importante no formalismo da mecânica quân- tica. Sua aplicação aos operadores posição e momento leva às relações de incerteza de Hei- senberg, que representam um das pedras angulares da mecânica quântica. Para derivar as relações de incerteza de Heisenberg, aplicamos (86) aos operadores denidos em (61). Utilizando a primeira relação em (61), temos ∆x∆px ≥ 1 2 ⟨[ ˆX, ˆPx]⟩ = 1 2 ⟨ψ|[ ˆX, ˆPx]|ψ⟩ = 1 2 ⟨ψ|i ˆI|ψ⟩ = 1 2 i ⟨ψ|ˆI|ψ⟩ = 1 2 |i | , ou ∆x∆px ≥ 2 . Expressões para as outras componentes são imediatas, e podemos escrever ∆x∆px ≥ 2 , ∆y∆py ≥ 2 , ∆z∆pz ≥ 2 (87) Essas são as relações de incerteza de Heisenberg. 15
  • 16. 4.6 Funções de Operadores Seja F( ˆA) uma função de um operador ˆA. Se ˆA é um operador linear, podemos expandir F( ˆA) em uma série de Taylor de potências de ˆA: F( ˆA) = ∞∑ n=0 an ˆAn , (88) onde an é um coeciente da expansão. Como uma ilustração de uma função de um operador, consideremos ea ˆA, onde a é um escalar complexo ou real. Podemos expandi-la assim: ea ˆA = ∞∑ n=0 an n! ˆA = ˆI + a ˆA + a2 2 ˆA2 + a3 3 ˆA3 + . . . . (89) Comutadores envolvendo funções de operadores Se ˆA comuta com outro operador ˆB, então ˆB comuta com qualquer função de operador que dependa de ˆA: [ ˆA, ˆB] = 0 =⇒ [ ˆB, F( ˆA)] = 0 . (90) Em particular, F( ˆA) comuta com ˆA e com qualquer outra função G( ˆA): [ ˆA, F( ˆA)] , [ ˆAn , F( ˆA)] , [F( ˆA), G( ˆA)] . (91) Adjuntos Hermitianos de funções de operadores O adjunto de F( ˆA) é dado por [F( ˆA)]† = F∗ ( ˆA† ) . (92) Note que se ˆA for Hermitiano, F( ˆA) não será necessariamente Hermitiana, exceto se F for uma função real (e, óbvio, se ˆA for Hermitiano). Um exemplo é: (e ˆA )† = e ˆA† = e ˆA , (ei ˆA )† = e−i ˆA† = e−i ˆA , (eiα ˆA )† = e−iα∗ ˆA† = e−iα∗ ˆA , onde α é um número complexo. Assim, se ˆA for Hermitiano, uma função de operador que admita expansão em série de Taylor, como em (89), será Hermitiana apenas se os coecientes an da expansão forem números reais. Mas em geral F( ˆA) não é Hermitiana mesmo se ˆA for Hermitiano, já que F∗ ( ˆA† ) = ∞∑ n=0 a∗ n ( ˆA† )n . (93) 4.7 Operadores Inverso e Unitário Inverso de um operador: Admitindo que exista $, o inverso ˆA−1 de um operador linear ˆA é denido pela relação ˆA−1 ˆA = ˆA ˆA−1 = ˆI , (94) onde ˆI é o operador unidade (aquele que deixa inalterado qualquer estado |ψ⟩). $ Nem todo operador possui inverso, assim como no caso das matrizes. A inversa de uma matriz existe apenas quando seu determinante for zero. 16
  • 17. Quociente de dois operadores: Dividir um operador ˆA por outro operador ˆB (desde que seu inverso ˆB−1 exista) é equivalente a multiplicar ˆA por ˆB−1: ˆA ˆB = ˆA ˆB−1 . (95) O lado em que o quociente é tomado é importante: ˆA ˆB = ˆA ˆI ˆB = ˆA ˆB−1 e ˆA ˆB = ˆI ˆB ˆA = ˆB−1 ˆA . (96) Em geral, temos ˆA ˆB−1 ̸= ˆB−1 ˆA. Podemos mencionar aqui as seguintes propriedades envol- vendo a inversão de operadores: ( ˆA ˆB ˆC ˆD )−1 = ˆD−1 ˆC−1 ˆB−1 ˆA−1 e ( ˆAn )−1 = ( ˆA−1 )n . (97) Operadores unitários: Um operador linear ˆU é dito ser unitário se seu inverso ˆU−1 for igual ao seu adjunto ˆU†: ˆU† = ˆU−1 ou ˆU ˆU† = ˆU ˆU−1 = ˆI . (98) O produto de dois operadores unitários ˆU e ˆV é também unitário, pois ( ˆU ˆV ) ( ˆU ˆV )† = ( ˆU ˆV ) ( ˆV † ˆU† ) = ˆU ( ˆV ˆV † ) ˆU† = ˆU ˆU† = ˆI , (99) ou ( ˆU ˆV )† = ( ˆU ˆV )−1. Esse resultado pode ser generalizado para qualquer número de opera- dores, e o produto de vários operadores unitários será também unitário, pois ( ˆA ˆB ˆC ˆD . . . ) ( ˆA ˆB ˆC ˆD . . . )† = ˆA ˆB ˆC ˆD (. . .) ˆD† ˆC† ˆB† ˆA† = ˆA ˆB ˆC ( ˆD ˆD† ) ˆC† ˆB† ˆA† = ˆA ˆB ( ˆC ˆC† ) ˆB† ˆA† = ˆA ( ˆB ˆB† ) ˆA† = ˆA ˆA† = ˆI , ou ( ˆA ˆB ˆC ˆD . . . )† = ( ˆA ˆB ˆC ˆD . . . )−1 . (100) 4.8 Autovalores e Autovetores de um Operador Um vetor de estado |ψ⟩ é dito ser um autovetor% de um operador ˆA se a aplicação de ˆA a |ψ⟩ dá ˆA|ψ⟩ = a|ψ⟩ , (101) onde a é um número complexo, chamado de autovalor de ˆA. Essa equação é conhecida como a equação de autovalor (ou o problema de autovalor) do operador ˆA. Sua solução fornece os autovalores e os autovetores de ˆA. Mais adiante, na Seção 5.3, veremos como resolver o problema de autovalor numa base discreta. % Também chamado de autoket ou autoestado 17
  • 18. Um exemplo simples é o problema de autovalor para o operador unidade ˆI: ˆI|ψ⟩ = |ψ⟩ . (102) Isso signica que todos os vetores são autovetores de ˆI, com autovalor 1. Note que ˆA|ψ⟩ = a|ψ⟩ =⇒ ˆAn |ψ⟩ = an |ψ⟩ =⇒ F( ˆA)|ψ⟩ = F(a)|ψ⟩ . (103) Por exemplo, temos ˆA|ψ⟩ = a|ψ⟩ =⇒ ei ˆA |ψ⟩ = eia |ψ⟩ . Dado o operador linear ˆA, se existir ˆA−1, então os autovalores de ˆA−1 são os inversos dos autovalores do operador ˆA. Para ver isso, notemos que ˆA−1 ˆA = ˆI, de modo que ˆA−1 ˆA|ψ⟩ = ˆI|ψ⟩ = |ψ⟩ . (104) Por outro lado, ˆA−1 ˆA|ψ⟩ = ˆA−1 ( ˆA|ψ⟩ ) = ˆA−1 (a|ψ⟩) = a ˆA−1 |ψ⟩ . (105) Combinando (104) e (105), temos a ˆA−1 |ψ⟩ = |ψ⟩ , e portanto, ˆA−1 |ψ⟩ = 1 a |ψ⟩ . (106) Isso signica que |ψ⟩ também é autovetor de ˆA−1, com autovalor 1/a. Logo, se ˆA−1 existe, então ˆA|ψ⟩ = a|ψ⟩ =⇒ ˆA−1|ψ⟩ = 1 a |ψ⟩ (107) Alguns teoremas úteis relacionados ao problema de autovalor Teorema 1. Todos os autovalores de um operador Hermitiano são reais, e os autovetores correspondentes a diferentes autovalores são ortogonais. Se ˆA† = ˆA , ˆA|ϕn⟩ = an|ϕn⟩ =⇒ an ∈ R e ⟨ϕm|ϕn⟩ = δmn . (108) Prova: Note que ˆA|ϕn⟩ = an|ϕn⟩ =⇒ ⟨ϕm| ˆA|ϕn⟩ = an⟨ϕm|ϕn⟩ (109) e ⟨ϕm| ˆA† = a∗ m⟨ϕm| =⇒ ⟨ϕm| ˆA† |ϕn⟩ = a∗ m⟨ϕm|ϕn⟩ . (110) Subtraindo (100) de (99) e usando o fato de que ˆA é Hermitiano, temos: ⟨ϕm| ˆA|ϕn⟩ − ⟨ϕm| ˆA† |ϕn⟩ = an⟨ϕm|ϕn⟩ − a∗ m⟨ϕm|ϕn⟩ , ⟨ϕm| ˆA − ˆA† |ϕn⟩ = (an − a∗ m) ⟨ϕm|ϕn⟩ , ou (an − a∗ m) ⟨ϕm|ϕn⟩ = 0 . Temos que considerar dois casos separadamente: 18
  • 19. • Caso m = n: como ⟨ϕn|ϕn⟩ 0, devemos ter an = a∗ n. Resulta que os autovalores devem ser reais. • Caso m ̸= n: como em geral an ̸= a∗ m, devemos ter ⟨ϕn|ϕn⟩ = 0. Resulta que |ϕm⟩ e |ϕn⟩ devem ser ortogonais. Teorema 2. Os autoestados de um operador Hermitiano denem um conjunto completo de estados mutuamente ortonormais uma autobase. O operador é diagonal nessa autobase, com seus elementos diagonais iguais aos autovalores. Essa base é única se o operador não tiver autovalores degenerados; caso contrário, há um número innito de autobases. Teorema 3. Se dois operadores ˆA e ˆB comutam, e se ˆA não tem autovalor degenerado, então cada autovetor de ˆA é também um autovetor de ˆB. Além disso, pode-se construir uma base comum ortonormal formada pelos autovetores de ˆA e de ˆB. Teorema 4. Os autovalores de um operador anti-Hermitiano são puramente imaginários ou nulos. Teorema 5. Os autovalores de um operador unitário são números complexos de módulo igual a um. Os autovetores de um operador unitário que não tenham autovalores degenerados são mutuamente ortogonais. Prova: Sejam |ϕn⟩ e |ϕm⟩ autovetores do operador unitário ˆU com autovalores am e an, respectivamente. Podemos escrever ( ⟨ϕm| ˆU† ) ( ˆU|ϕn⟩ ) = a∗ man⟨ϕm|ϕn⟩ , ou, dado que ˆU† ˆU = ˆI, ( ⟨ϕm| ˆU† ) ( ˆU|ϕn⟩ ) = ⟨ϕm| ˆU† ˆU|ϕn⟩ = ⟨ϕm|ˆI|ϕn⟩ = ⟨ϕm|ϕn⟩ , de forma que (a∗ man − 1) ⟨ϕm|ϕn⟩ = 0 . (111) Temos que analisar dois casos: • Caso n = m: como ⟨ϕn|ϕn⟩ 0, então a∗ nan = |an|2 = 1. Resulta que |an| = 1. • Caso m ̸= n: a única possibilidade para esse caso é que ⟨ϕn|ϕn⟩ = 0, e resulta que |ϕn⟩ e |ϕn⟩ são ortogonais. 4.9 Transformações Innitesimal e Unitária Finita Queremos investigar aqui como quantidades tais como kets, bras, operadores e escalares se transformam sob transformações unitárias. Uma transformação unitária consiste na aplicação de um operador unitário ˆU a uma dessas quantidades. 19
  • 20. 4.9.1 Transformações Unitárias Kets e bras se transformam do seguinte modo: |ψ′ ⟩ = ˆU|ψ⟩ , ⟨ψ′ | = ⟨ψ| ˆU† . (112) Vamos descobrir agora como operadores se transformam sob transformações unitárias. Como a transformada de ˆA|ψ⟩ = |ϕ⟩ é ˆA′|ψ′⟩ = |ϕ′⟩, vamos usar (102) para escrever ˆA′ ˆU|ψ⟩ = ˆU|ϕ⟩ = ˆU ˆA|ψ⟩ , (113) o que leva a ˆA′ ˆU = ˆU ˆA. Lembrando que ˆU ˆU† = ˆU† ˆU = ˆI, vamos multiplicar ambos os lados de ˆA′ ˆU = ˆU ˆA por ˆU†. Temos: ˆU† ˆA′ ˆU = ˆU† ˆU ˆA = ˆI ˆA = ˆA , e ˆU ˆA ˆU† = ˆA′ ˆU ˆU† = ˆA′ ˆI = ˆA′ . Resumindo, podemos escrever |ψ′ ⟩ = ˆU|ψ⟩ , ⟨ψ′ | = ⟨ψ| ˆU† , ˆA′ = ˆU ˆA ˆU† (114) e |ψ⟩ = ˆU† |ψ′ ⟩ , ⟨ψ| = ⟨ψ′ | ˆU , ˆA = ˆU† ˆA′ ˆU (115) Propriedades das transformações unitárias • Se um operador ˆA é Hermitiano, seu transformado ˆA′ também é Hermitiano, pois ˆA′† = ( ˆU ˆA ˆU† )† = ( ˆU† )† ˆA† ˆU† = ˆU ˆA† ˆU† = ˆU ˆA ˆU† = ˆA′ . (116) • Os autovalores de ˆA e de seu transformado ˆA′ são os mesmos, ou seja, ˆA|ψn⟩ = an|ψn⟩ =⇒ ˆA′ |ψ′ n⟩ = an|ψ′ n⟩ . (117) A demonstração é simples: ˆA′ |ψ′ n⟩ = ( ˆU ˆA ˆU† ) ( ˆU|ψn⟩ ) = ˆU ˆA ( ˆU† ˆU ) |ψn⟩ = ˆU ˆA|ψn⟩ = an ( ˆU|ψn⟩ ) = |ψ′ n⟩ . • Comutadores que são iguais a números (complexos) permanecem inalterados sob trans- formações unitárias, ou seja, dado a ∈ C [ ˆA, ˆB] = a =⇒ [ ˆA′ , ˆB′ ] = a = [ ˆA, ˆB] . (118) Usando (115), temos: [ ˆA′ , ˆB′ ] = [ ˆU ˆA ˆU† , ˆU ˆB ˆU† ] = ( ˆU ˆA ˆU† ) ( ˆU ˆB ˆU† ) − ( ˆU ˆB ˆU† ) ( ˆU ˆA ˆU† ) = ˆU ( ˆA ˆB ) ˆU† − ˆU ( ˆB ˆA ) ˆU† = ˆU[ ˆA, ˆB] ˆU† = ˆUa ˆU† = a ˆU ˆU† = a = [ ˆA, ˆB] . 20
  • 21. • Valem as seguintes relações gerais: ˆA = β ˆB + γ ˆC =⇒ ˆA′ = β ˆB′ + γ ˆC′ , (119) ˆA = α ˆB ˆC ˆD =⇒ ˆA′ = α ˆB′ ˆC′ ˆD′ , (120) onde ˆA′, ˆB′, ˆC′ e ˆD′ são as transformadas de ˆA′, ˆB, ˆC e ˆD. • Como o resultado (118) é válido para qualquer número complexo, podemos armar que números complexos tais como ⟨ψ| ˆA|χ⟩ permanecem inalterados sob transformações unitárias, pois ⟨ψ′ | ˆA′ |χ′ ⟩ = (⟨ψ| ˆA† )( ˆU ˆA ˆU† )( ˆU|χ⟩) = ⟨ψ|( ˆU† ˆU) ˆA( ˆU† ˆU)|χ⟩ = ⟨ψ| ˆA|χ⟩ . (121) Tomando ˆA = ˆI, vemos que produtos escalares do tipo ⟨ψ′ |χ′ ⟩ = ⟨ψ|χ⟩ (122) são invariantes sob transformações unitárias. Especicamente, a norma de um vetor de estado é conservada: ⟨ψ′ |ψ′ ⟩ = ⟨ψ|ψ⟩ . (123) • Pode-se também vericar que ( ˆU ˆA ˆU†)n = ˆU ˆAn ˆU†, pois ( ˆU ˆA ˆU† )n = ( ˆU ˆA ˆU† )( ˆU ˆA ˆU† ) . . . ( ˆU ˆA ˆU† ) = ˆU ˆA( ˆU† ˆU) ˆA( ˆU† ˆU) . . . ( ˆU† ˆU) ˆA ˆU† = ˆU( ˆA ˆA . . . ˆA) ˆU† = ˆU ˆAn ˆU† . (124) • O resultado (124) pode ser generalizado para obter a transformação de qualquer função de operador f( ˆA): ˆUf( ˆA) ˆU† = f( ˆU ˆA ˆU† ) = f( ˆA′ ) . (125) Mais geralmente, podemos escrever ˆUf( ˆA, ˆB, ˆC, . . .) ˆU† = f( ˆU ˆA ˆU† , ˆU ˆB ˆU† , ˆU ˆC ˆU† , . . .) = f( ˆA′ , ˆB′ , ˆC′ , . . .) . (126) Uma transformação unitária não altera a física de um sistema; ela meramente transforma uma descrição do sistema em outra descrição sicamente equivalente. No que se segue, quere- mos considerar dois tipos de transformações unitárias: as transformações innitesimais e as transformações nitas. 4.9.2 Transformações Unitárias Innitesimais Considere um operador ˆU que dependa de um parâmetro real ε innitesimalmente pequeno e que desvie-se apenas ligeiramente do operador unidade ˆI: ˆUε( ˆG) = ˆI + iε ˆG , (127) onde ˆG é chamado de gerador da transformação innitesimal. Claramente, ˆUε será uma trans- formação unitária apenas quando o parâmetro ε for real (ε∗ = ε) e quando ˆG for Hermitiano ( ˆG† = ˆG), pois ˆUε ˆU† ε = (ˆI + iε ˆG)(ˆI − iε ˆG† ) ≃ ˆI + iε( ˆG − ˆG† ) = ˆI , (128) 21
  • 22. onde desprezamos o termos quadrático em ε. A transformação de um vetor de estado |ψ⟩ é dada por |ψ′ ⟩ = (ˆI + iε ˆG)|ψ⟩ = |ψ⟩ + δ|ψ⟩ , (129) onde δ|ψ⟩ = iε ˆG|ψ⟩ . (130) A transformação de um operador ˆA é dada por ˆA′ = (ˆI + iε ˆG) ˆA(ˆI − iε ˆG) = (ˆI + iε ˆG)( ˆA − iε ˆA ˆG) ≃ ˆA − iε ˆA ˆG + iε ˆA ˆG , ou ˆA′ = (ˆI + iε ˆG) ˆA(ˆI − iε ˆG) ≃ ˆA + iε[ ˆG, ˆA] (131) Se ˆG comuta com ˆA, a transformação unitária deixará ˆA inalterado: [ ˆG, ˆA] = 0 =⇒ ˆA′ = ˆA′ = (ˆI + iε ˆG) ˆA(ˆI − iε ˆG) = ˆA . (132) 4.9.3 Transformações Unitárias Finitas Pode-se construir uma transformação unitária nita a partir de (127) executando uma sucessão de transformações innitesimais de passos iguais a ε; a aplicação de uma série de transformações unitárias sucessivas é equivalente à aplicação de uma única transformação unitária. Sendo ε = α/N, onde N é um inteiro e α é um parâmetro nito, podemos aplicar a mesma transformação unitária N vezes. No limite em que n → +∞, obtemos ˆUα( ˆG) = lim n→∞ N∏ k=1 ( 1 + i α N ˆG ) = lim n→+∞ ( 1 + i α N ˆG )N = eiα ˆG , (133) onde ˆG é agora o gerador da transformação nita e α é seu parâmetro. A transformação ˆU será unitária apenas quando o parâmetro α for real e ˆG for Hermitiano, pois (eiα ˆG )† = e−iα ˆG† = e−iα ˆG = (eiα ˆG )−1 . (134) É possível mostrar que a transformação ˆA′ de um operador ˆA pode ser escrita como eiα ˆG e−iα ˆG = ˆA + iα[ ˆG, ˆA] + (iα)2 2! [ ˆG, [ ˆG, ˆA]] + (iα)3 3! [ ˆG, [ ˆG, [ ˆG, ˆA]]] + . . . (135) Se ˆG comuta com ˆA, a transformação unitária deixará ˆA inalterado: [ ˆG, ˆA] = 0 =⇒ ˆA′ = eiα ˆG e−iα ˆG = ˆA . (136) Algumas das aplicações das transformações unitárias innitesimais são o estudo de translações espaciais e temporais, rotações espaciais e leis de conservação. 5 Representação em Bases Discretas Por analogia dos espaços vetoriais Euclideanos em termos de vetores de base, precisamos expressar um ket |ψ⟩ do espaço de Hilbert em termos de um conjunto completo de kets de base mutuamente ortogonais. Vetores de estados são então representados por suas componentes nessa base. 22
  • 23. 5.1 Representação Matricial de Kets, Bras e Operadores Considere uma base ortonormal discreta e completa composta por um conjunto innito de kets |ϕ1⟩, |ϕ2⟩, |ϕ3⟩, . . . , e denote esse conjunto por {|ϕn⟩}. Note que a base {|ϕn⟩} é discreta e ainda assim contém um número innito de vetores unitários. No limite n → ∞, o índice de ordenação n dos vetores unitários |ϕn⟩ é discreto ou contável; isto é, a seqüência |ϕ1⟩, |ϕ2⟩, |ϕ3⟩, . . . é contável innitamente. Como ilustração, considere as funções especiais, tais como os polinômios de Hermite, Legendre ou Laguerre, Hn(x), Pn(x) e Ln(x), que são identicados por um índice discreto n e por uma variável contínua x; embora n varie discretamente, ele pode ser innito. Nesta seção a notação {|ϕn⟩} será usada para abreviar um conjunto innitamente contável de vetores do espaço de Hilbert H. A condição de ortonormalidade dos kets da base é expressa por ⟨ϕn|ϕm⟩ = δnm , (137) onde δnm é o delta de Kronecker, denido por δnm = { 1 , n = m 0 , n ̸= m . (138) A relação de completeza, ou fechamento, para essa base é dada por ∞∑ n=1 |ϕn⟩⟨ϕn| = ˆI , (139) onde ˆI é o operador unidade; quando o operador unidade atua sobre qualquer ket, ele o deixa inalterado. 5.1.1 Representação Matricial de Kets e Bras Vamos agora examinar como representar o vetor |ψ⟩ dentro do contexto da base {|ϕn⟩}. A propriedade de completeza desta base nos permite expandir qualquer vetor de estado |ψ⟩ em termos dos kets |ϕn⟩ da base: |ψ⟩ = ˆI|ψ⟩ = ( ∞∑ n=1 |ϕn⟩⟨ϕn| ) |ψ⟩ = ∞∑ n=1 (⟨ϕn|ψ⟩) |ϕn⟩ = ∞∑ n=1 an|ϕn⟩ , (140) onde o coeciente an (= ⟨ϕn|ψ⟩) representa a projeção de |ψ⟩ na direção de |ϕn⟩; an é o componente de |ψ⟩ ao longo do vetor |ϕn⟩. Lembre-se que os coeciente an são números complexos. Assim, na base {|ϕn⟩}, o ket |ψ⟩ é representado pelo conjunto de suas componentes a1, a2, a3, . . . ao longo dos vetores |ϕ1⟩, |ϕ2⟩, |ϕ3⟩, . . . , respectivamente. Logo, |ψ⟩ pode ser representado por um vetor coluna que tem um número innitamente contável de componentes: |ψ⟩ →           ⟨ϕ1|ψ⟩ ⟨ϕ2|ψ⟩ . . . ⟨ϕn|ψ⟩ . . .           =           a1 a2 . . . an . . .           . (141) 23
  • 24. O bra ⟨ψ| pode ser representado por um vetor linha: ⟨ψ| → ( ⟨ψ|ϕ1⟩ ⟨ψ|ϕ2⟩ . . . ⟨ψ|ϕn⟩ . . . ) = ( ⟨ϕ1|ψ⟩∗ ⟨ϕ2|ψ⟩∗ . . . ⟨ϕn|ψ⟩∗ . . . ) = ( a∗ 1 a∗ 2 . . . a∗ n . . . ) . (142) Usando essa representação, podemos ver que o bra-ket ⟨ψ|ϕ⟩ é um número complexo igual ao produto da matriz linha correspondente ao bra ⟨ψ| pela matriz coluna correspondente ao ket |ϕ⟩: ⟨ψ|ϕ⟩ = ( a∗ 1 a∗ 2 . . . a∗ n . . . )           a1 a2 . . . an . . .           = ∞∑ n=1 a∗ nbn , (143) onde bn = ⟨ϕn|ϕ⟩. Nessa representação, as matrizes que representam |ψ⟩ e ⟨ψ| são adjuntas Hermitianas uma da outra. Nota: Um ket |ψ⟩ é normalizado se ⟨ψ|ψ⟩ = ∑ n |an|2 = 1 . Se |ψ⟩ não estiver normalizado e quisermos normaliza-lo, precisamos simplesmente multiplica- lo por uma constante α tal que ⟨αψ|αψ⟩ = |α|2 ⟨ψ|ψ⟩ = 1, e assim α = 1 √ ⟨ψ|ψ⟩ . 5.1.2 Representação Matricial de Operadores Para cada operador linear ˆA, podemos escrever ˆA = ˆI ˆAˆI = ( ∞∑ n=1 |ϕn⟩⟨ϕn| ) ˆA ( ∞∑ m=1 |ϕm⟩⟨ϕm| ) = ∑ nm Anm|ϕn⟩⟨ϕm| , (144) onde Anm é o elemento de matriz nm do operador ˆA: Anm = ⟨ϕn| ˆA|ϕm⟩ . (145) Vemos que o operador ˆA é representado, na base {|ϕn⟩}, por uma matriz quadrada A, que tem números innitamente contáveis de linhas e colunas: A =       A11 A12 A13 . . . A21 A22 A23 . . . A31 A32 A33 . . . . . . . . . . . . . . .       . (146) 24
  • 25. Por exemplo, o operador unidade ˆI é representado por uma matriz identidade; quando uma matriz identidade é multiplicada por outra matriz, esta última permanece inalterada: I =       1 0 0 . . . 0 1 0 . . . 0 0 1 . . . . . . . . . . . . . . .       . (147) Em resumo, kets são representados por vetores coluna, bras são representados por vetores linha e operadores são representados por matrizes quadradas. 5.1.3 Representação Matricial de Alguns Outros Operadores (a) Operação adjunta Hermitiana Vamos mostrar agora a representação matricial da operação de adjunta Hermitiana de um operador. Primeiro, lembre-se que a transposta de uma matriz A, denotada por AT , é obtida trocando-se linhas por colunas: ( AT ) nm = Amn ou       A11 A12 A13 . . . A21 A22 A23 . . . A31 A32 A33 . . . . . . . . . . . . . . .       T =       A11 A21 A31 . . . A12 A22 A32 . . . A13 A23 A33 . . . . . . . . . . . . . . .       . (148) Similarmente, a transposta de uma matriz coluna é uma matriz linha e vice-versa:           a1 a2 . . . an . . .           T = ( a1 a2 . . . an . . . ) e ( a1 a2 . . . an . . . )T =           a1 a2 . . . an . . .           . (149) Uma matriz quadrada A é simétrica se ela for igual à sua transposta: AT = A. Uma matriz anti-simétrica é uma matriz quadrada cuja transposta é igual ao negativo da matriz: AT = −A. O complexo conjugado de uma matriz é obtido simplesmente tomando-se o complexo conju- gado de todos os seus elementos: (A∗)nm = (Anm)∗ . A matriz que representa o operador ˆA† é obtida tomando-se o complexo conjugado da matriz transposta de A: A† = ( AT )∗ ou ( ˆA† ) nm = ⟨ϕn| ˆA† |ϕm⟩ = ⟨ϕm| ˆA|ϕn⟩∗ = A∗ nm . (150) Ou seja,       A11 A12 A13 . . . A21 A22 A23 . . . A31 A32 A33 . . . . . . . . . . . . . . .       † =       A∗ 11 A∗ 21 A∗ 31 . . . A∗ 12 A∗ 22 A∗ 32 . . . A∗ 13 A∗ 23 A∗ 33 . . . . . . . . . . . . . . .       . (151) 25
  • 26. Se um operador ˆA é Hermitiano, sua matriz satisfaz a essa condição: ( AT )∗ = A ou A∗ mn = Anm . (152) Os elementos diagonais de uma matriz Hermitiana devem, portanto, ser números reais. Note que uma matriz Hermitiana deve ser quadrada. (b) Operadores Inverso e Unitário Uma matriz possui inversa apenas se for quadrada e se seu determinante for não-nulo. Uma matriz que possui inversa é chamada de não-singular e uma matriz que possui inversa é uma matriz singular. Os elementos A−1 nm da matriz inversa A−1, que representa um operador ˆA−1, são dados pela relação A−1 nm = cofator de Amn determinante de A ou A−1 nm = BT determinante de A , (153) onde B é a matriz dos cofatores. O cofator do elemento Amn é igual a (−1)m+n vezes o determinante da submatriz obtida de A pela supressão da m-ésima linha e da n-ésima coluna. Note que quando o determinante da matriz representando um operador tem determinante nulo, o operador não possui um inverso. O inverso do produto de matrizes é obtido do seguinte modo: (ABC . . . PQ)−1 = Q−1 P−1 . . . C−1 B−1 A−1 . (154) A inversa da inversa de uma matriz é igual à própria matriz: ( A−1 )−1 = A. Um operador unitário ˆU é representado por uma matriz unitária. Uma matriz U é unitária se sua inversa é igual à sua adjunta: U−1 = U† ou U† U = I , (155) onde I é a matriz identidade. (c) Representação matricial de |ψ⟩⟨ψ| Agora é fácil ver que o produto |ψ⟩⟨ψ| é de fato um operador, pois sua representação na base {|ϕn⟩} é uma matriz quadrada: |ψ⟩⟨ψ| =       a1 a2 a3 . . .       ( a∗ 1 a∗ 2 a∗ 3 . . . ) =       a1a∗ 1 a1a∗ 2 a1a∗ 3 . . . a2a∗ 1 a2a∗ 2 a2a∗ 3 . . . a3a∗ 1 a3a∗ 2 a3a∗ 3 . . . . . . . . . . . . . . .       . (156) (d) Traço de um operador O traço Tr( ˆA) de um operador ˆA é dado, em uma base ortonormal {|ϕn⟩}, pela expressão Tr( ˆA) = ∑ n ⟨ϕn| ˆA|ϕn⟩ = ∑ n Ann . (157) 26
  • 27. Veremos mais tarde que o traço de um operador não depende da base. O traço de uma matriz é igual à soma dos elementos de sua diagonal principal, ou seja, Tr       A11 A12 A13 . . . A21 A22 A23 . . . A31 A32 A33 . . . . . . . . . . . . . . .       = A11 + A22 + A33 + . . . . (158) Dado um operador ˆA, valem as seguintes propriedades: Tr( ˆA† ) = (Tr( ˆA))∗ (159) e Tr(α ˆA + β ˆB + γ ˆC + . . .) = α Tr( ˆA) + β Tr( ˆB) + γ Tr( ˆC) + . . . . (160) Uma propriedade fácil de demonstrar é que Tr( ˆA ˆB) = Tr( ˆB ˆA). De fato, Tr( ˆA ˆB) = ∑ n ⟨ϕn| ˆA ˆB|ϕn⟩ = ∑ n ⟨ϕn| ˆA ( ∑ m |ϕm⟩⟨ϕm| ) ˆB|ϕn⟩ = ∑ nm ⟨ϕn| ˆA|ϕm⟩⟨ϕm| ˆB|ϕn⟩ = ∑ nm AnmBmn = ∑ nm BmnAnm = ∑ nm ⟨ϕm| ˆB|ϕn⟩⟨ϕn| ˆA|ϕm⟩ = ∑ m ⟨ϕm| ˆB ( ∑ n |ϕn⟩⟨ϕn| ) ˆA|ϕm⟩ = ∑ m ⟨ϕm| ˆB ˆA|ϕm⟩ = Tr( ˆB ˆA) . (161) Em vista do resultado (161), pode-se mostrar que o traço de um comutador é nulo: Tr([ ˆA, ˆB]) = Tr( ˆA ˆB) − Tr( ˆB ˆA) = 0 . (162) Além disso, o traço de um produto de operadores é invariante sob permutações cíclicas desses operadores: Tr( ˆA ˆB ˆC ˆD ˆE) = Tr( ˆE ˆA ˆB ˆC ˆD) = Tr( ˆD ˆE ˆA ˆB ˆC) = Tr( ˆC ˆD ˆE ˆA ˆB) = . . . . (163) 5.1.4 Representação Matricial de Várias Outras Quantidades (a) Representação matricial de |ϕ⟩ = ˆA|ψ⟩ A relação |ϕ⟩ = ˆA|ψ⟩ pode ser posta na forma algébrica ˆI|ϕ⟩ = ˆI ˆAˆI|ψ⟩, ou ( ∑ n |ϕn⟩⟨ϕn| ) |ϕ⟩ = ( ∑ n |ϕn⟩⟨ϕn| ) ˆA ( ∑ m |ϕm⟩⟨ϕm| ) |ψ⟩ , 27
  • 28. que por sua vez pode ser escrita como ∑ n (⟨ϕn|ϕ⟩) |ϕn⟩ = ∑ nm ( ⟨ϕn| ˆA|ϕm⟩ ) (⟨ϕm|ψ⟩) |ϕn⟩ , ou ∑ n bn|ϕn⟩ = ∑ nm Anmam|ϕn⟩ , (164) onde bn = ⟨ϕn|ϕ⟩, Anm = ⟨ϕn| ˆA|ϕm⟩ e am = ⟨ϕm|ψ⟩. Portanto, é fácil ver que (164) fornece bn = ∑ nm Anmam (165) e temos que a representação matricial de |ϕ⟩ = ˆA|ψ⟩ é dada por       b1 b2 b3 . . .       =       A11 A12 A13 . . . A21 A22 A23 . . . A31 A32 A33 . . . . . . . . . . . . . . .             a1 a2 a3 . . .       . (166) (b) Representação matricial de ⟨ϕ| ˆA|ψ⟩ Nesse caso, temos ⟨ϕ| ˆA|ψ⟩ = ⟨ϕ|ˆI ˆAˆI|ψ⟩ = ⟨ϕ| ( ∑ n |ϕn⟩⟨ϕn| ) ˆA ( ∑ m |ϕm⟩⟨ϕm| ) |ψ⟩ = ∑ nm (⟨ϕ|ϕn⟩) ( ⟨ϕn| ˆA|ϕm⟩ ) (⟨ϕm|ψ⟩) = ∑ nm (⟨ϕn|ϕ⟩∗ ) ( ⟨ϕn| ˆA|ϕm⟩ ) (⟨ϕm|ψ⟩) = ∑ nm b∗ nAnmam . (167) Temos aqui um número complexo, e sua representação matricial é a seguinte: ⟨ϕ| ˆA|ψ⟩ → ( b∗ 1 b∗ 2 b∗ 3 . . . )       A11 A12 A13 . . . A21 A22 A23 . . . A31 A32 A33 . . . . . . . . . . . . . . .             a1 a2 a3 . . .       . (168) Nota: Agora ca bem fácil ver porque produtos do tipo |ψ⟩|ϕ⟩, ⟨ψ|⟨ϕ|, ˆA⟨ψ| ou |ψ⟩ ˆA são proibidos. Eles não fazem sentido, pois não podem ter representações matriciais. Por exemplo, |ψ⟩|ϕ⟩ seria representado pelo produto de duas matrizes coluna: |ψ⟩|ϕ⟩ →       ⟨ϕ1|ψ⟩ ⟨ϕ2|ψ⟩ ⟨ϕ3|ψ⟩ . . .             ⟨ϕ1|ϕ⟩ ⟨ϕ2|ϕ⟩ ⟨ϕ3|ϕ⟩ . . .       (169) 28
  • 29. Esse produto é impossível de ser executado, pois o produto de duas matrizes é possível apenas quando o número de colunas da primeira for igual ao número de linhas da segunda; em (169), a primeira matriz tem uma única coluna e a segunda matriz tem um número innito de linhas. 5.1.5 Propriedades de uma Matriz A • Real se A = A∗ ou Amn = A∗ mn • Imaginária se A = −A∗ ou Amn = −A∗ mn • Simétrica se A = AT ou Amn = Anm • Anti-simétrica se A = −AT ou Amn = −Anm com Amm = 0 • Hermitiana se A = A† ou Amn = A∗ nm • Anti-Hermitiana se A = −A† ou Amn = −A∗ nm • Ortogonal se AT = A−1 ou AAT = I ou ( AAT ) mn = δmn • Unitária se A† = A−1 ou AA† = I ou ( AA† ) mn = δmn 5.2 Mudança de Base e Transformações Unitárias Em um espaço Euclidiano, um vetor A pode ser representado por suas componentes em diferentes sistemas de coordenadas ou em diferentes bases. A transformação de uma base para outra é chamada de mudança de base. As componentes de A em uma dada base podem ser expressas em termos das componentes de A em outra base por meio de uma matriz de transformação. Similarmente, vetores de estado e operadores da mecânica quântica podem também ser representados em bases diferentes. Nesta seção vamos estudar como transformar de uma base para outra. Isto é, conhecendo os componentes de bras, kets e operadores em uma base {|ϕn⟩}, como se determina os componentes correspondentes em uma base {|ϕ′ n⟩} diferente? Admitindo que {|ϕn⟩} e {|ϕ′ n⟩} sejam duas bases diferentes, podemos expandir cada ket |ϕn⟩ da antiga base em termos da nova base {|ϕ′ n⟩} como |ϕn⟩ = ( ∑ m |ϕ′ m⟩⟨ϕ′ m| ) |ϕn⟩ = ∑ m Umn|ϕ′ m⟩ , (170) onde Umn = ⟨ϕ′ m|ϕn⟩ . (171) A matriz U, que dá a transformação da antiga base {|ϕn⟩} para a nova base {|ϕ′ n⟩}, é dada por Umn =       ⟨ϕ′ 1|ϕ1⟩ ⟨ϕ′ 1|ϕ2⟩ ⟨ϕ′ 1|ϕ3⟩ . . . ⟨ϕ′ 2|ϕ1⟩ ⟨ϕ′ 2|ϕ2⟩ ⟨ϕ′ 2|ϕ3⟩ . . . ⟨ϕ′ 3|ϕ1⟩ ⟨ϕ′ 3|ϕ2⟩ ⟨ϕ′ 3|ϕ3⟩ . . . . . . . . . . . . . . .       . (172) 29
  • 30. A matriz U conecta duas bases completas e ortonormais {|ϕn⟩} e {|ϕ′ n⟩} e é uma matriz unitária. Para mostrar isso, devemos provar que ˆU ˆU† = ˆI, o que se reduz a mostrar que ⟨ϕm| ˆU ˆU†|ϕn⟩ = δmn. Procedemos da seguinte forma: ⟨ϕm| ˆU ˆU† |ϕn⟩ = ⟨ϕm| ˆU ( ∑ l |ϕl⟩⟨ϕl| ) ˆU† |ϕn⟩ = ∑ l ⟨ϕm| ˆU|ϕl⟩⟨ϕl| ˆU† |ϕn⟩ = ∑ l ⟨ϕm| ˆU|ϕl⟩⟨ϕn| ˆU|ϕl⟩∗ = ∑ l UmlU∗ nl . (173) Agora, de acordo com (171), Uml = ⟨ϕ′ m|ϕl⟩ e U∗ mn = ⟨ϕl|ϕ′ n⟩. Assim, podemos reescrever (173) como ∑ l UmlU∗ nl = ∑ l ⟨ϕ′ m|ϕl⟩⟨ϕl|ϕ′ n⟩ = ⟨ϕ′ m|ϕ′ n⟩ = δmn . (174) Combinando (173) e (174), inferimos que ⟨ϕm| ˆU ˆU†|ϕn⟩ = δmn, ou ˆU ˆU† = ˆI, como queríamos demonstrar. 5.2.1 Transformações de Kets, Bras e Operadores As componentes ⟨ϕ′ n|ψ⟩ de um vetor de estado |ψ⟩ em uma nova base {|ϕ′ n⟩} podem ser expressas em termos das componentes ⟨ϕn|ψ⟩ de |ψ⟩ em uma antiga base {|ϕn⟩} da seguinte forma: ⟨ϕ′ n|ψ⟩ = ⟨ϕ′ m|ˆI|ψ⟩ = ⟨ϕ′ m| ( ∑ n |ϕn⟩⟨ϕn| ) |ψ⟩ = ∑ n Umn⟨ϕn|ψ⟩ . (175) Essa relação, juntamente com sua complexa conjugada, podem ser generalizadas por |ψnovo⟩ = ˆU|ψvelho⟩ , ⟨ψnovo| = ⟨ψvelho| ˆU† . (176) Vamos examinar agora como os operadores se transformam quando passamos de uma base para outra. Os elementos matriciais A′ mn = ⟨ϕ′ m| ˆA|ϕ′ n⟩ de um operador ˆA na nova base podem ser expressos em termos dos antigos elementos matriciais, Ajl = ⟨ϕj| ˆA|ϕl⟩, do seguinte modo: A′ mn = ⟨ϕ′ m|ˆI ˆAˆI|ϕ′ n⟩ = ⟨ϕ′ m|   ∑ j |ϕj⟩⟨ϕj|   ˆA ( ∑ l |ϕl⟩⟨ϕl| ) |ϕ′ n⟩ = ∑ j ∑ l ⟨ϕ′ m|ϕj⟩⟨ϕj| ˆA|ϕl⟩⟨ϕl|ϕ′ n⟩ = ∑ j,l UmjAjlU∗ nl , (177) isto é, ˆAnovo = ˆU ˆAvelho ˆU† . (178) A relação inversa é obtida facilmente usando as propriedades de operadores unitários: ˆU† ˆAnovo = ˆU† ˆU ˆAvelho ˆU† = ˆI ˆAvelho ˆU† = ˆAvelho ˆU† 30
  • 31. e ˆU† ˆAnovo ˆU = ˆAvelho ˆU† ˆU = ˆAvelho ˆI , ou ˆAvelho = ˆU† ˆAnovo ˆU . (179) Podemos resumir os resultados sobre mudança de base através das seguintes relações: |ψnovo⟩ = ˆU|ψvelho⟩ , ⟨ψnovo| = ⟨ψvelho| ˆU† , ˆAnovo = ˆU ˆAvelho ˆU† (180) ou |ψvelho⟩ = ˆU†|ψnovo⟩ , ⟨ψvelho| = ⟨ψnovo| ˆU , ˆAvelho = ˆU† ˆAnovo ˆU (181) Essas relações são similares às que foram derivadas no estudo das transformações unitárias; veja (114) e (115). Vamos agora mostrar que o operador ˆU = ∑ n |ϕ′ n⟩⟨ϕn| (182) satisfaz às propriedades discutidas acima. Primeiro, note que ˆU é um operador unitário, pois ˆU ˆU† = ∑ nl |ϕ′ n⟩⟨ϕn|ϕl⟩⟨ϕ′ l| = ∑ nl |ϕ′ n⟩⟨ϕ′ l|δnl = ∑ n |ϕ′ n⟩⟨ϕ′ n| = ˆI . (183) Em segundo lugar, a ação de ˆU sobre um ket da antiga base dá o ket correspondente da nova base: ˆU|ϕm⟩ = ∑ n |ϕ′ n⟩⟨ϕn|ϕm⟩ = ∑ n |ϕ′ n⟩δnm = |ϕ′ m⟩ . (184) E também podemos vericar que a ação de ˆU† sobre um ket da nova base dá o ket correspon- dente da antiga base: ˆU† |ϕ′ m⟩ = ∑ l |ϕl⟩⟨ϕ′ l|ϕ′ m⟩ = ∑ l |ϕl⟩δlm = |ϕm⟩ . (185) Como o traço se transforma sob transformações unitárias? Usando a propriedade cíclica do traço, Tr( ˆA ˆB ˆC) = Tr( ˆC ˆA ˆB) = Tr( ˆB ˆC ˆA), podemos assegurar que Tr( ˆA′ ) = Tr( ˆU ˆA ˆU† ) = Tr( ˆU† ˆU ˆA) = Tr(ˆI ˆA) = Tr( ˆA) . (186) Lembrando da denição do traço, equação (157), temos que Tr(|ϕn⟩⟨ϕm|) = ∑ l ⟨ϕl|ϕn⟩⟨ϕm|ϕl⟩ = ∑ l ⟨ϕm|ϕl⟩⟨ϕl|ϕn⟩ = ⟨ϕm| ( ∑ l |ϕl⟩⟨ϕl| ) |ϕn⟩ = ⟨ϕm|ϕn⟩ = δmn , (187) e podemos inferir que Tr(|ϕ′ m⟩⟨ϕn|) = ⟨ϕn|ϕ′ m⟩ . (188) 31
  • 32. Vamos mostrar que o traço de um operador não depende da base em que ele é expresso. Sejam: ˆA um operador e {|ϕn⟩}, {|ϕ′ n⟩} duas bases. O traço de ˆA na base {|ϕn⟩} é Tr( ˆA) = ∑ n ⟨ϕn| ˆA|ϕn⟩ , (189) e na base {|ϕ′ n⟩} é dado por Tr( ˆA) = ∑ n ⟨ϕ′ n| ˆA|ϕ′ n⟩ . (190) Começando de (189) e usando o fato da base {|ϕ′ n⟩} ser completa, temos Tr( ˆA) = ∑ n ⟨ϕn| ˆA|ϕn⟩ = ∑ n ⟨ϕn| ( ∑ m |ϕ′ m⟩⟨ϕ′ m| ) ˆA|ϕn⟩ = ∑ n ∑ m ⟨ϕn|ϕ′ m⟩⟨ϕ′ m| ˆA|ϕn⟩ = ∑ m ∑ n ⟨ϕ′ m| ˆA|ϕn⟩⟨ϕn|ϕ′ m⟩ = ∑ m ⟨ϕ′ m| ˆA ( ∑ n |ϕn⟩⟨ϕn| ) |ϕ′ m⟩ = ∑ m ⟨ϕ′ m| ˆA|ϕ′ m⟩ , ou seja, Tr( ˆA) = ∑ n ⟨ϕn| ˆA|ϕn⟩ = ∑ n ⟨ϕ′ n| ˆA|ϕ′ n⟩ . (191) 5.3 Representação Matricial do Problema de Autovalor Aqui vamos apresentar a representação matricial do problema de autovalor (101) e vamos resolvê-lo. Isto é, vamos encontrar os autovalores a e os autovetores |ψ⟩ de um operador ˆA, tal que ˆA|ψ⟩ = a|ψ⟩ , (192) onde a é um número complexo. Inserindo o operador unidade entre ˆA e |ψ⟩ e multiplicando por ⟨ϕm|, temos ⟨ϕm| ˆAˆI|ψ⟩ = ⟨ϕm| ˆA ( ∑ n |ϕn⟩⟨ϕn| ) |ψ⟩ = ∑ n ⟨ϕm| ˆA|ϕn⟩⟨ϕn|ψ⟩ = ∑ n Amn⟨ϕn|ψ⟩ . (193) Por outro lado, ⟨ϕm|ˆIa|ψ⟩ = a⟨ϕm|ˆI|ψ⟩ = a⟨ϕm| ( ∑ n |ϕn⟩⟨ϕn| ) |ψ⟩ = a ∑ n ⟨ϕm|ϕn⟩⟨ϕn|ψ⟩ = ∑ n aδmn⟨ϕn|ψ⟩ . (194) 32
  • 33. Então, ∑ n Amn⟨ϕn|ψ⟩ = ∑ n aδmn⟨ϕn|ψ⟩ , que pode ser escrito como ∑ n [Amn − aδmn] ⟨ϕn|ψ⟩ = 0 , (195) com Amn = ⟨ϕm| ˆA|ϕn⟩. Essa equação representa um sistema innito de equações homogêneas para os coecientes ⟨ϕn|ψ⟩, já que a base {|ϕn⟩} contém um número innito de kets. Esse sistema de equações pode ter soluções não triviais apenas se seu determinante for nulo: det (Amn − aδmn) = 0 . (196) O problema que surge aqui é que esse determinante corresponde a uma matriz com innitas linhas e innitas colunas. Para resolver (196) precisamos truncar a base {|ϕn⟩} e admitir que ela contém apenas N termos, onde N deve ser grande o suciente para garantir convergência. Nesse caso podemos reduzir (196) ao seguinte determinante de grau N: A11 − a A12 A13 . . . A1N A21 A22 − a A23 . . . A2N A31 A32 A33 − a . . . A3N . . . . . . . . . . . . . . . AN1 AN2 AN3 . . . ANN − a = 0 . (197) Essa equação é conhecida como equação secular ou característica. Suas soluções fornecem os N autovalores a1, a2, . . . , aN , já que é uma equação de N-ésimo grau em a. O conjunto desses N autovalores é chamado de espectro de ˆA. Conhecendo-se o conjunto de autovalores a1, a2, . . . , aN , pode-se facilmente determinar o correspondente conjunto de autovetores |ϕ1⟩, |ϕ2⟩, . . . , |ϕN ⟩. Para cada autovalor am de ˆA, pode-se obter a partir de (197) as N componentes ⟨ϕ1|ψ⟩, ⟨ϕ2|ψ⟩, . . . , ⟨ϕN |ψ⟩ do autovetor |ϕm⟩ correspondente. Se vários autovetores diferentes têm o mesmo autovalor, esse autovalor é dito ser dege- nerado. A ordem de degenerescência é determinada pelo número de autovetores linearmente independentes que têm o mesmo autovalor. Por exemplo, se um autovalor tem cinco autove- tores diferentes, diz-se que ele tem degenerescência quíntupla. Quando o conjunto de autovetores {|ϕn⟩} de ˆA for completo e ortonormal, esse conjunto pode ser usado como base. Nessa base, a matriz que representa o operador ˆA é diagonal: A =      a1 0 0 . . . 0 a2 0 . . . 0 0 a3 . . . . . . . . . . . . . . .      , (198) onde os elementos da diagonal principal são os autovalores an de ˆA, já que ⟨ϕm| ˆA|ϕn⟩ = an⟨ϕm|ϕn⟩ = anδmn . (199) 33
  • 34. O traço e o determinante são dados, respectivamente, pela soma e pelo produto dos autova- lores: Tr(A) = ∑ n an = a1 + a2 + . . . , (200) det(A) = ∏ n an = a1a2 . . . . (201) Algumas propriedades úteis dos determinantes são: det(ABC . . .) = det(A) · det(B) · det(C) · . . . (202) det(A∗ ) = (det A)∗ (203) det(A† ) = (det A)∗ (204) det(AT ) = det A (205) det(A) = eTr(ln A) (206) Para nalizar esta seção, apresentamos (sem demonstração) alguns teoremas úteis referentes ao problema de autovalor. Teorema 6. Os autovalores de uma matriz simétrica são reais, e seus autovetores correspon- dentes formam uma base ortonormal. Teorema 7. Os autovalores de uma matriz anti-simétrica são nulos ou imaginários puros. Teorema 8. Os autovalores de uma matriz Hermitiana são reais, e seus autovetores corres- pondentes formam uma base ortonormal. Teorema 9. Os autovalores de uma matriz anti-Hermitiana são nulos ou imaginários puros. Teorema 10. Os autovalores de uma matriz unitária tem valor absoluto igual a um. Teorema 11. Se os autovalores de uma matriz quadrada não são degenerados, os autovetores correspondentes formam uma base. 6 Representação em Bases Contínuas Nesta seção vamos considerar a representação de vetores de estado, bras e operadores em bases contínuas. Depois de apresentar o formalismo geral, consideraremos duas aplicações importantes: as representações nos espaços de posição e momento. Na seção anterior, vimos que as representações de kets, bras e operadores em uma base discreta são dadas por matrizes discretas. Mostraremos aqui que essas quantidades são repre- sentadas numa base contínua por matrizes contínuas, isto é, matrizes innitas não enumeráveis. 34
  • 35. 6.1 Tratamento Geral A condição de ortonormalidade para kets da base contínua |χk⟩ é expressa não pelo usual delta de Kronecker como em (137), mas pela função contínua delta de Dirac: ⟨χk|χk′ ⟩ = δ(k′ − k) , (207) onde k e k′ são parâmetros contínuos e δ(k′ − k) é a função delta de Dirac, denida por δ(x) = 1 2π ∫ +∞ −∞ eikx dx . (208) A condição de completeza dessa base contínua não é dada por uma soma discreta como em (139), mas por uma integral sobre a variável contínua, ∫ +∞ −∞ dk |χk⟩⟨χk| = ˆI , (209) onde ˆI é o operador unidade. Todo vetor de estado pode ser expandido em termos do conjunto completo de kets da base |χk⟩: |ψ⟩ = ˆI|ψ⟩ = (∫ +∞ −∞ dk |χk⟩⟨χk| ) |ψ⟩ = ∫ +∞ −∞ dk b(k) |χk⟩ , (210) onde b(k), que é igual a ⟨χk|ψ⟩, representa a projeção de |ψ⟩ sobre |χk⟩. A norma dos kets de base discreta é nita (⟨ϕn|ϕn⟩ = 1), mas a norma dos kets da base contínua é innita; uma combinação de (207) e (208) leva a ⟨χk|χk⟩ = δ(0) = 1 2π ∫ +∞ −∞ dx → ∞ . (211) Isto implica que os kets |χk⟩ não são quadrado-integráveis e portanto não são elementos do espaço de Hilbert (Lembre-se que o espaço gerado por funções quadrado-integráveis é um espaço de Hilbert). Apesar da divergência da norma de |χk⟩, o conjunto de kets |χk⟩ constitui uma base válida de vetores que gera o espaço de Hilbert, já que para qualquer vetor de estado |ψ⟩ o produto escalar ⟨χk|ψ⟩ é nito. 6.1.1 A Função Delta de Dirac Antes de lidar com a representação de kets, bras e operadores, vamos fazer um breve desvio para listar algumas das propriedades mais importantes da função delta de Dirac: δ(x) = 0 , para x ̸= 0 , (212) ∫ b a f(x) δ(x − x0) dx = { f(x0) se a x0 b 0 caso contrário , (213) ∫ +∞ −∞ f(x) dnδ(x − a) dxn dx = (−1)n dnf(x) dxn x=a , (214) δ(r − r′ ) = δ(x − x′ )δ(y − y′ )δ(z − z′ ) = 1 r2 sin θ δ(r − r′ )δ(θ − θ′ )δ(φ − φ′ ) . (215) 35
  • 36. 6.1.2 Representação de Kets, Bras e Operadores A representação de kets, bras e operadores pode ser facilmente inferida do estudo feito previamente para o caso de uma base discreta. Por exemplo, o ket |ψ⟩ é representado por uma matriz coluna que tem um número contínuo e innito de componentes (linhas) b(k): |ψ⟩ −→      . . . ⟨χk|ψ⟩ . . .      . (216) O bra ⟨ψ| é representado por uma matriz linha que tem um número contínuo e innito de componentes (colunas): ⟨ψ| −→ ( . . . ⟨ψ|χk⟩ . . . ) . (217) Operadores são representados por matrizes quadradas contínuas cujas linhas e colunas possuem um número contínuo e innito de componentes: ˆA −→      . . . . . . . . . . . . A(k, k′) . . . . . . . . . . . .      . (218) A título de aplicação, consideraremos as representações nas bases de posição e momento. 6.2 Representação de Posição Na representação de posição, a base consiste de um conjunto innito de vetores {|r⟩} que são autokets do operador posição ˆR: ˆR|r⟩ = r|r⟩ , (219) onde r (sem chapéu), o vetor posição, é o auto valor do operador ˆR. As condições de orto- normalidade e completeza são dadas respectivamente por ⟨r|r′ ⟩ = δ(r − r′ ) = δ(x − x′ )δ(y − y′ )δ(z − z′ ) (220) e ∫ d3 r |r⟩⟨r| = ˆI , (221) já que a função delta tridimensional é dada por δ(r − r′ ) = 1 (2π)3 ∫ d3 k eik·(r−r′) . (222) Assim, todo vetor de estado pode ser expandido como |ψ⟩ = ∫ d3 r |r⟩⟨r|ψ⟩ = ∫ d3 r ψ(r) |r⟩ , (223) onde ψ(r) denota a componente de |ψ⟩ na base {|r⟩}: ⟨r|ψ⟩ = ψ(r) . (224) 36
  • 37. Isto é conhecido como a função de onda para o vetor de estado |ψ⟩. De acordo com a in- terpretação probabilística de Born, a quantidade |⟨r|ψ⟩|2 d3r representa a probabilidade de encontrar o sistema no elemento de volume d3r. O produto escalar entre dois vetores de estado, |ψ⟩ e |ϕ⟩, pode ser expressa desta forma: ⟨ϕ|ψ⟩ = ⟨ϕ|ˆI|ψ⟩ = ⟨ϕ| (∫ d3 r |r⟩⟨r| ) |ψ⟩ = ∫ d3 r ⟨ϕ|r⟩⟨r|ψ⟩ = ∫ d3 r ⟨r|ϕ⟩∗ ⟨r|ψ⟩ = ∫ d3 r ϕ∗ (r) ψ(r) . (225) Como ˆR|r⟩ = r|r⟩, temos que ˆR2 = ˆRˆR aplicado a |r⟩ é ˆR2 |r⟩ = ˆR ( ˆR|r⟩ ) = ˆR (r|r⟩) = rˆR|r⟩ = r2 |r⟩ , que pode ser generalizado para ˆRn |r⟩ = rn |r⟩ . Com isso, temos ⟨r′ |ˆRn |r⟩ = ⟨r′ |rn |r⟩ = rn ⟨r′ |r⟩ = rn δ(r′ − r) . (226) Note que o operador ˆR é Hermitiano, pois ⟨ϕ|ˆR|ψ⟩ = ⟨ϕ|ˆRˆI|ψ⟩ = ⟨ϕ|ˆR (∫ d3 r |r⟩⟨r| ) |ψ⟩ = ∫ d3 r ⟨ϕ|ˆR|r⟩⟨r|ψ⟩ = ∫ d3 r r⟨ϕ|r⟩⟨r|ψ⟩ = [∫ d3 r r⟨ψ|r⟩⟨r|ϕ⟩ ]∗ = [∫ d3 r ⟨ψ|ˆR|r⟩⟨r|ϕ⟩ ]∗ = [ ⟨ψ|ˆR (∫ d3 r |r⟩⟨r| ) |ϕ⟩ ]∗ = ⟨ψ|ˆR|ϕ⟩∗ . (227) 6.3 Representação do Momento A base {|p⟩} da representação do momento é obtida dos autokets do operador momento ˆP: ˆP|p⟩ = p|p⟩ , (228) onde p é o vetor momento. A álgebra relevante a esta representação pode ser facilmente inferida da representação de posição. As condições de ortonormalidade e completeza da base |p⟩ do espaço de momento são dadas por ⟨p|p′ ⟩ = δ(p − p′ ) (229) 37
  • 38. e ∫ d3 p |p⟩⟨p| = ˆI . (230) Expandindo |ψ⟩ nesta base, obtemos |ψ⟩ = ˆI|ψ⟩ = ∫ d3 p |p⟩⟨p|ψ⟩ = ∫ d3 p Ψ(p) |p⟩ , (231) onde o coeciente Ψ(p) da expansão representa a função de onda no espaço de momento. A quantidade |Ψ(p)|2 d3p é a probabilidade de encontrar o momento do sistema no elemento de volume d3p localizado entre p e p + dp. Por analogia com (225) o produto escalar entre dois estados no espaço de momento é dado por ⟨ϕ|ψ⟩ = ⟨ϕ| (∫ d3 p |p⟩⟨p| ) |ψ⟩ = ∫ d3 p Φ∗ (p) Ψ(p) . (232) Como ˆP|p⟩ = p|p⟩, temos ⟨p′ |ˆPn |p⟩ = pn δ(p′ − p) . (233) 6.4 Conexão entre as Representações de Posição e do Momento Vamos agora estabelecer a conexão entre as representações de posição e momento. Para passar da base {|r⟩} para a base {|p⟩}, temos que encontrar a função de transformação ⟨r|p⟩. Para encontrar a expressão para a função de transformação ⟨r|p⟩ , vamos estabelecer uma conexão entre as representações de posição e momento do vetor de estado |ψ⟩: ⟨r|ψ⟩ = ⟨r| (∫ d3 p |p⟩⟨p| ) |ψ⟩ = ∫ d3 p ⟨r|p⟩⟨p|ψ⟩ = ∫ d3 p ⟨r|p⟩ Ψ(p) . (234) Portanto, ψ(r) = ∫ d3 p ⟨r|p⟩ Ψ(p) . (235) Da mesma forma, pode-se escrever Ψ(p) = ⟨p|ψ⟩ = ⟨p| (∫ d3 r |r⟩⟨r| ) |ψ⟩ = ∫ d3 r ⟨p|r⟩⟨r|ψ⟩ , ou Ψ(p) = ∫ d3 r ⟨p|r⟩ ψ(r) . (236) Estas duas últimas relações implicam que ψ(r) e Ψ(p) podem ser vistas como a transfor- mada de Fourier uma da outra. Na mecânica quântica, a transformada de Fourier de uma função f(r) é dada por f(r) = 1 (2π )3/2 ∫ d3 p eip·r/ g(p) . (237) Portanto, a função ⟨r|p⟩ é dada por ⟨r|p⟩ = eip·r/ (2π )3/2 (238) Note a presença da constante de Planck. 38
  • 39. Essa função transforma da representação de momento para a representação de posição. A função correspondente à transformação inversa, ⟨p|r⟩, é dada por ⟨p|r⟩ = ⟨r|p⟩∗ = e−ip·r/ (2π )3/2 (239) A quantidade |⟨r|p⟩|2 representa a densidade de probabilidade de encontrar a partícula na região em torno de r onde seu momento é p. Nota: Se a função de onda da posição ψ(r) = 1 (2π )3/2 ∫ d3 p eip·r/ Ψ(p) (240) estiver normalizada ', sua transformada de Fourier Ψ(p) = 1 (2π )3/2 ∫ d3 r e−ip·r/ ψ(r) (241) também deve estar normalizada, pois ∫ d3 p Ψ∗ (p) Ψ(p) = ∫ d3 p Ψ∗ (p) [ 1 (2π )3/2 ∫ d3 r e−ip·r/ ψ(r) ] = ∫ d3 r ψ(r) [ 1 (2π )3/2 ∫ d3 p Ψ∗ (p) e−ip·r/ ] = ∫ d3 r ψ(r) ψ∗ (r) = 1 . (242) Esse resultado é conhecido como o teorema de Parseval. 6.4.1 Operador Momento na Representação de Posição Para determinar a forma do operador momento ˆP na representação de posição, vamos calcular ⟨r|ˆP|ψ⟩: ⟨r|ˆP|ψ⟩ = ⟨r|ˆPˆI|ψ⟩ = ⟨r|ˆP (∫ |p⟩⟨p| d3 p ) |ψ⟩ = ∫ ⟨r|ˆP|p⟩⟨p|ψ⟩ d3 p = ∫ p ⟨r|p⟩⟨p|ψ⟩ d3 p = 1 (2π )3/2 ∫ p eip·r/ Ψ(p) d3 p . (243) ' Isto é, se ∫ d3 r ψ(r) ψ∗ (r) = 1 . 39
  • 40. Agora, como p eip·r/ = −i ∇eip·r/ , e usando (238), podemos reescrever (243) como ⟨r|ˆP|ψ⟩ = −i ∇ [ 1 (2π )3/2 ∫ eip·r/ Ψ(p) d3 p ] = −i ∇ [∫ ⟨r|p⟩⟨p|ψ⟩ d3 p ] = −i ∇⟨r|ψ⟩ . (244) Assim, ˆP é dado na representação de posição por ˆP = −i ∇ . (245) Suas componentes cartesianas são ˆPx = −i ∂ ∂x , ˆPy = −i ∂ ∂y , ˆPz = −i ∂ ∂z (246) Note que a forma do operador momento (245) pode ser obtida simplesmente aplicando o operador gradiente ∇ a uma função de onda plana ψ(r, t) = A ei(p·r−Et)/ : − i ∇ψ(r, t) = pψ(r, t) = ˆPψ(r, t) . (247) Como ˆP = −i ∇, podemos escrever o operador Hamiltoniano ˆH = ˆP2/2m + ˆV na repre- sentação de posição do seguinte modo: ˆH = − 2 2m ∇2 + ˆV (r) = − 2 2m ( ∂2 ∂x2 + ∂2 ∂y2 + ∂2 ∂z2 ) + ˆV (r) (248) onde ∇2 é o operador Laplaciano. Em coordenadas cartesianas é dado por ∇2 = ∂2 x +∂2 y +∂2 z . 6.4.2 Operador Posição na Representação de Momento A forma do operador posição ˆR na representação do momento pode ser facilmente inferida da representação de ˆP no espaço de posição. No espaço de momento o operador posição pode ser escrito como ˆRj = i ∂ ∂pj (j = x, y, z) , (249) ou ˆX = i ∂ ∂px , ˆY = i ∂ ∂py , ˆZ = i ∂ ∂pz (250) 6.4.3 Relações de Comutação Importantes Vamos calcular o comutador [ ˆRj, ˆPk]. As ações separadas de ˆX ˆPx e ˆPx ˆX sobre a função de onda ψ(r) são dadas por ˆX ˆPxψ(r) = ˆX ( ˆPxψ(r) ) = ˆX ( −i ∂ψ(r) ∂x ) = −i x ∂ψ(r) ∂x (251) 40
  • 41. e ˆPx ˆXψ(r) = ˆPx ( ˆXψ(r) ) = ˆPx (xψ(r)) = −i ∂ ∂x (xψ(r)) = −i ψ(r) − i x ∂ψ(r) ∂x . (252) Portanto, temos [ ˆX, ˆPx]ψ(r) = ˆX ˆPxψ(r) − ˆPx ˆXψ(r) = −i x ∂ψ(r) ∂x + i ψ(r) + i x ∂ψ(r) ∂x = i ψ(r) , ou [ ˆX, ˆPx] = i . (253) Relações similares podem ser prontamente derivadas para as componentes y e z, de forma que temos: [ ˆX, ˆPx] = i , [ ˆY , ˆPy] = i , [ ˆZ, ˆPz] = i (254) Note-se que [ ˆX, ˆPy]ψ(r) = ˆX ˆPyψ(r) − ˆPy ˆXψ(r) = ˆX ( −i ∂ψ(r) ∂y ) − ˆPx (xψ(r)) = −i x ∂ψ(r) ∂y + i x ∂ψ(r) ∂y = 0 , de modo que [ ˆX, ˆPy] = 0. Verica-se que [ ˆX, ˆPy] = [ ˆX, ˆPz] = [ ˆY , ˆPx] = [ ˆY , ˆPz] = [ ˆZ, ˆPx] = [ ˆZ, ˆPy] = 0 , (255) pois os graus de liberdade x, y e z são independentes. Note-se ainda que [ ˆX, ˆY ]ψ(r) = ˆX( ˆY ψ(r)) − ˆY ( ˆXψ(r)) = ˆX (xψ(r)) − ˆY (yψ(r)) = xyψ(r) − yxψ(r) = 0 , e verica-se que [ ˆX, ˆY ] = [ ˆX, ˆZ] = [ ˆY , ˆZ] = [ ˆZ, ˆX] = 0 . (256) Além disso, [ ˆPx, ˆPy]ψ(r) = ˆPx( ˆPyψ(r)) − ˆPy( ˆPxψ(r)) = −i ∂ ∂x ( −i ∂ψ(r) ∂y ) − [ −i ∂ ∂y ( −i ∂ψ(r) ∂x )] = − 2 ∂2ψ(r) ∂x∂y + 2 ∂2ψ(r) ∂y∂x = 0 . Verica-se também que [ ˆPx, ˆPy] = [ ˆPx, ˆPz] = [ ˆPy, ˆPz] = [ ˆPz, ˆPx] = 0 . (257) As relações em (254), (255), (256) e (257) podem ser agrupadas do seguinte modo: [ ˆRj, ˆRk] = i δjk , [ ˆRj, ˆRk] = 0 , [ ˆPj, ˆPk] = 0 (258) Essas relações são chamadas de relações canônicas de comutação. 41
  • 42. Agora, usando a relação (66), temos [ ˆX2 , ˆPx] = [ ˆX ˆX, ˆPx] = ˆX[ ˆX, ˆPx] + [ ˆX, ˆPx] ˆX = i ˆX + i ˆX = 2i ˆX , que leva a [ ˆX3 , ˆPx] = [ ˆX2 ˆX, ˆPx] = ˆX2 [ ˆX, ˆPx] + [ ˆX2 , ˆPx] ˆX = i ˆX2 + 2i ˆX2 = 3i ˆX2 , o que, por sua vez, leva a [ ˆX4 , ˆPx] = [ ˆX3 ˆX, ˆPx] = ˆX3 [ ˆX, ˆPx] + [ ˆX3 , ˆPx] ˆX = i ˆX3 + 3i ˆX3 = 4i ˆX3 . Continuando dessa forma, pode-se obter qualquer potência de ˆX. Podemos generalizar os resultados acima por [ ˆXn , ˆPx] = i n ˆXn−1 . (259) Resultado semelhante vale para potências de ˆPx: [ ˆX, ˆPn x ] = i n ˆPn−1 x . (260) Seguindo o mesmo procedimento que levou a (253), pode-se obter uma relação de comutação geral de ˆPx com uma função f( ˆX) arbitrária: [f( ˆX), ˆPx] = i df( ˆX) d ˆX =⇒ [ˆP, f( ˆR)] = −i ∇F( ˆR) (261) onde F é uma função do operador ˆR. Vamos calcular agora o comutador [ ˆX, ˆP] na representação do momento. O operador ˆX é dado, na representação do momento pela relação (250). Temos, então, [ ˆX, ˆP]ψ(p) = ˆX ˆPψ(p) − ˆP ˆXψ(p) = i ∂ ∂p (pψ(p)) − i p ∂ψ(p) ∂p = i ψ(p) + i p ∂ψ(p) ∂p − i p ∂ψ(p) ∂p = i ψ(p) , de forma que, na representação do momento, [ ˆX, ˆP] = [ i ∂ ∂p , ˆP ] = i . (262) Já vimos que na representação de posição, [ ˆX, ˆP] = [ ˆX, −i ∂ ∂x ] = i . (263) A forma explícita dos operadores depende da representação adotada, mas as relações de co- mutação para operadores são independentes da representação. 42
  • 43. 6.5 Operador de Paridade A reexão espacial em torno da origem do sistema de coordenadas é denominada uma operação de inversão ou de paridade. Essa transformação é discreta. O operador de paridade ˆP é denido por sua ação nos kets |r⟩ do espaço de posição: ˆP|r⟩ = | − r⟩ , ⟨r| ˆP† = ⟨−r| , (264) tal que ˆPψ(r) = ψ(−r) . (265) O operador de paridade é Hermitiano, ˆP† = ˆP, pois ∫ d3 r ϕ∗ (r) [ ˆPψ(r) ] = ∫ d3 r ϕ∗ (r)ψ(−r) = ∫ d3 r ϕ∗ (−r)ψ(r) = ∫ d3 r [ ˆPϕ(r) ]∗ ψ(r) . (266) Da denição (265), temos ˆP2 ψ(r) = ˆPψ(−r) = ψ(r) , (267) e assim, ˆP2 é igual ao operador unidade: ˆP2 = ˆI ou ˆP = ˆP−1 . (268) Logo, o operador de paridade é unitário, já que seu adjunto Hermitiano é igual a seu inverso: ˆP† = ˆP−1 . (269) Como ˆP2 = ˆI, os autovalores de ˆP são +1 e −1, com os autoestados correspondentes ˆPψ+(r) = ψ+(−r) = ψ+(r) , ˆPψ−(r) = ψ−(−r) = −ψ−(r) . (270) O autoestado |ψ+⟩ é denominado par e o autoestado |ψ−⟩ é ímpar. Logo, as autofunções do operador de paridade têm paridade denida: são pares ou ímpares. Como |ψ+⟩ e |ψ−⟩ são autoestados do mesmo operador Hermitiano ˆP, mas com autovalores diferentes, esses autoestados devem ser ortogonais: ⟨ψ+|ψ−⟩ = ∫ d3 r ψ∗ +(−r) ψ−(−r) ≡ − ∫ d3 r ψ∗ +(r) ψ−(r) = −⟨ψ+|ψ−⟩ , (271) e ⟨ψ+|ψ−⟩ é zero. Os estados |ψ+⟩ e |ψ−⟩ formam um conjunto completo, já que qualquer função pode ser escrita como ψ(r) = ψ+(r) + ψ−(r), o que conduz a ψ+(r) = 1 2 [ψ(r) + ψ(−r)] , ψ−(r) = 1 2 [ψ(r) − ψ(−r)] . (272) Como ˆP2 = ˆI, temos ˆPn = { ˆP quando n é ímpar, ˆI quando n é par. (273) 43
  • 44. 6.5.1 Operadores Pares e Ímpares Um operador ˆA é dito ser par se obedece à condição ˆP ˆA ˆP = ˆA (274) e um operador ˆB é ímpar se obedece a ˆP ˆB ˆP = − ˆB . (275) Verica-se que: ˆA ˆP = ( ˆP ˆA ˆP ) ˆP = ˆP ˆA ˆP2 = ˆP ˆA (276) e ˆB ˆP = − ( ˆP ˆB ˆP ) ˆP = − ˆP ˆB ˆP2 = − ˆP ˆB . (277) O fato de que operadores pares comutam com o operador de paridade, de acordo com (276), tem várias conseqüências úteis. Vamos examinar dois casos importantes que dependem de um operador par ter autovalores não degenerados ou degenerados: • Se um operador par é Hermitiano e nenhum de seus autovalores é degenerado, então este operador tem os mesmos autovetores que o operador de paridade. E como os autovetores do operador de paridade são pares ou ímpares, os autovetores de um operador Hermitiano, par e não degenerado devem também ser pares ou ímpares; diz-se que eles têm paridade denida. Essa propriedade é útil em aplicações onde se resolve a equação de Schrödinger para Hamiltonianos pares. • Se o operador par tem um espectro degenerado, seus autovetores não têm necessaria- mente uma paridade denida. E quanto à paridade dos operadores posição e momento, ˆR e ˆP? Pode-se facilmente mostrar que ambos são ímpares. No caso de ˆR, por exemplo, temos ˆP ˆR|r⟩ = r ˆP|r⟩ = r| − r⟩ e ˆR ˆP|r⟩ = R| − r⟩ = −r| − r⟩ , de modo que ˆP ˆR = − ˆR ˆP . (278) Pode-se mostrar também que ˆP ˆP = −ˆP ˆP . (279) De (278) e (278), tem-se ˆP ˆR ˆP† = − ˆR , ˆP ˆP ˆP† = −ˆP , (280) visto que ˆP† ˆP = 1. Se o operador ˆA é par e o operador ˆB é ímpar, pode-se vericar que ˆP ˆAn ˆP = ˆAn e ˆP ˆBn ˆP = (−1)n ˆBn . (281) Essas relações podem ser demonstradas facilmente. A primeira relação, por exemplo, vem de ˆP ˆAn ˆP = ( ˆP ˆA ˆP)( ˆP ˆA ˆP) . . . ( ˆP ˆA ˆP) = ( ˆP ˆP ˆA)( ˆP ˆP ˆA) . . . ( ˆP ˆP ˆA) = ( ˆP2 ˆA)( ˆP2 ˆA) . . . ( ˆP2 ˆA) = ˆA ˆA . . . ˆA = ˆAn . (282) 44
  • 45. 7 Mecânica Matricial e Mecânica Ondulatória Até agora trabalhamos a matemática pertinente à mecânica quântica em duas representa- ções diferentes: sistemas de base discreta e sistemas de base contínua. A teoria da mecânica quântica lida, em essência, com a solução do seguinte problema de autovalor: ˆH|ψ⟩ = E|ψ⟩ , (283) onde ˆH é a Hamiltoniana do sistema. Essa equação é geral e não depende de qualquer sistema de coordenadas ou representação. Mas , para resolvê-la precisamos representá-la em uma dado sistema de base. A complexidade associada à resolução dessa equação de autovalor irá variar de uma base para outra. No que se segue examinaremos a representação dessa equação de autovalor numa base discreta e então numa base contínua. 7.1 Mecânica Matricial A representação da mecânica quântica numa base discreta produz um problema matricial de autovalor. Ou seja, a representação de (283) numa base discreta {|ϕn⟩} produz a seguinte equação matricial de autovalor (veja (197)): H11 − E H12 H13 . . . H1N H21 H22 − E H23 . . . H2N H31 H22 H33 − E . . . H3N . . . . . . . . . . . . . . . HN1 HN2 HN3 . . . HNN − E = 0 . (284) Esta é uma equação de N-ésimo grau em E; suas soluções fornecem o espectro de energia do sistema: E1, E2, . . . , EN . Conhecendo o conjunto de autovalores E1, E2, . . . , EN , podemos facilmente determinar o correspondente conjunto de autovetores |ϕ1⟩, |ϕ2⟩, . . . , |ϕN ⟩. A diagonalização da matriz Hamiltoniana 284 de um sistema fornece o espectro de energia bem como os vetores de estado do sistema. Esse procedimento, que foi feito por Heisenberg, envolve apenas quantidades matriciais e equações matriciais de autovalor. Essa formulação da mecânica quântica é conhecida como mecânica matricial. O ponto de partida de Heisenberg, em sua tentativa de encontrar uma fundamentação teórica para as idéias de Bohr, foi a relação de transição atômica νnm = Em − En h , (285) que dá a freqüência de radiação associada à transição eletrônica da órbita m para a órbita n. As freqüências νnm podem ser arranjadas numa matriz quadrada, onde o elemento mn corresponde à transição do m-ésimo para o n-ésimo estado quântico. Podemos também construir matrizes para outras quantidades dinâmicas associadas à tran- sição m → n. Desta forma, toda quantidade física é representada por uma matriz. Por exem- plo, representamos níveis de energia por uma matriz de energia, a posição por uma matriz de posição, o momento por uma matriz de momento, o momento angular por uma matriz de momento angular, e assim por diante. Assim, o cálculo de quantidades físicas envolve o 45
  • 46. trabalho com a álgebra de quantidades matriciais. No contexto da mecânica matricial, lida-se com quantidades que não comutam, pois o produto de matrizes não comuta. Esta é uma característica essencial que distingue a mecânica matricial da mecânica clássica, onde todas as quantidades comutam. As componentes da posição e do momento não comutam no contexto da mecânica matricial, sendo relacionadas pela relação de comutação [ ˆX, ˆPx] = i . A mesma coisa se aplica às componentes do momento angular. O papel desempenhado pelas relações de comutação dentro do contexto da mecânica matricial é similar ao papel desempenhado pelas condições de quantização de Bohr na teoria atômica. A mecânica matricial de Heisenberg exige, portanto, a introdução de arsenal matemático espaços vetoriais lineares, espaço de Hilbert, álgebra de comutadores e álgebra matricial que é inteiramente diferente do arsenal matemático da mecânica clássica. 7.2 Mecânica Ondulatória A representação do formalismo da mecânica quântica numa base contínua produz uma problema de autovalor não na forma de uma equação matricial, como na formulação de Hei- senberg, mas na forma de uma equação diferencial. A representação da equação de autovalor (283) no espaço de posição fornece ⟨r| ˆH|ψ⟩ = E⟨r|ψ⟩ . (286) Como mostrado em (248), o Hamiltoniano é dado por − 2∇2/(2m) + ˆV (r) na representação de posição, de forma que podemos escrever (286) numa forma mais familiar: − 2 2m ∇2 ψ(r) + ˆV (r)ψ(r) = Eψ(r) (287) onde ⟨r|ψ⟩ = ψ(r) é a função de onda do sistema. Essa equação diferencial é conhecida como a equação de Schrödinger. Suas soluções fornecem o espectro de energia do sistema bem como suas funções de onda. Essa formulação da mecânica quântica na representação de posição é chamada de mecânica ondulatória. Ao contrário de Heisenberg, Schrödinger tomou um ponto de partida inteiramente diferente em sua busca de uma justicação teórica para as idéias de Bohr. Ele partiu da hipótese onda- partícula, formulada por de Broglie, e a estendeu aos elétrons em órbita do núcleo. Schrödinger queria encontrar uma equação que descrevesse o movimento do elétron dentro do átomo. Aqui o foco está no aspecto ondulatório do elétron. A condição de quantização de Bohr, L = n , é equivalente à relação de de Broglie, λ = 2π /p. Para estabelecer essa conexão, basta que se faça três considerações: (a) o comprimento de onda da onda associada ao elétron em órbita está conectada ao mo- mento linear do elétron por λ = 2π /p; (b) a órbita do elétron é circular, e (c) a circunferência da órbita do elétron é um múltiplo inteiro do comprimento de onda do elétron, isto é, 2πr = nλ. Isto leva prontamente a 2πr = n (2π /p), ou n = np ≡ L. Isso signica que para cada órbita existe apenas um comprimento de onda associado com o elétron orbitante. Assim a condição de quantização de Bohr implica, em essência, em uma unicidade da função de onda para cada órbita do elétron. 46
  • 47. 8 Notas Finais Historicamente, a formulação matricial da mecânica quântica foi feita por Heisenberg pouco antes de Schrödinger ter introduzido sua mecânica ondulatória. A equivalência entre as duas formulações foi provada alguns anos depois através da teoria das transformações unitárias. Diferentes na forma, ainda que idênticas em conteúdo, a mecânica ondulatória e a mecânica matricial atingem o mesmo objetivo: encontrar o espectro de energia e os estados de sistemas quânticos. A formulação matricial tem a vantagem da maior generalidade (formal), ainda que sofra de várias desvantagens. Do lado conceitual, não oferece qualquer idéia visual sobre a estrutura do átomo; é menos intuitiva que a mecânica ondulatória. Do lado técnico, é difícil de se usar em problemas de relativa facilidade, como o de encontrar estados estacionários de átomos. Contudo, se torna poderosa e prática na resolução de problemas como o oscilador harmônico ou no tratamento do formalismo do momento angular. Mas a maioria dos esforços da mecânica quântica se concentram na resolução da equação de Schrödinger, não no problema de autovalor matricial de Heisenberg. A mecânica matricial é usada apenas em poucos problemas, como o oscilador harmônico, onde é mais adequada que a mecânica ondulatória de Schrödinger. Na mecânica ondulatória, precisamos apenas especicar o potencial no qual a partícula se move, e a equação de Schrödinger toma conta do resto. Ou seja, conhecendo ˆV (r), podemos, em princípio, resolver a equação (287) para obter os vários níveis de energia da partícula e suas correspondentes funções de onda. A complexidade que se encontra na solução da equação diferencial depende inteiramente da forma do potencial; quanto mais simples o potencial, mais fácil é a solução. Soluções exatas da equação de Schrödinger são possíveis apenas para uns poucos sistemas idealizados. Sistemas reais, em geral, não se prestam a soluções exatas. Nesses casos, deve-se recorrer a soluções aproximadas. 47