Slides apresentados durante o minicurso Introdução à Amostragem Compressiva, no Simpósio Brasileiro de Telecomunicações. Maiores detalhes no livro Telecomunicações: Teoria, Avanços e Aplicações. ISBN 978-85-89748-08-7.
1. Introdu¸c˜ao `a Amostragem Compressiva
Edmar Candeia Gurj˜ao
Departmento de Engenharia El´etrica
Universidade Federal de Campina Grande
ecandeia@dee.ufcg.edu.br
01 de setembro de 2013
2. Apresenta¸c˜ao
Edmar Candeia Gurj˜ao
Professor do Departamento de Engenharia El´etrica da
Universidade Federal de Campina Grande - PB
´Areas de Interesse:
Amostragem Compressiva
R´adio Definido por Software
4. Introdu¸c˜ao
Quantidade de dados gerada pelos seres humanos tem crescido de
forma exponencial:
A quantidade de dados gerada no mundo cresce 58% por ano
Em 2010 foram gerados 1250 bilh˜oes de Gigabytes de dados
Mais bits que estrelas no universo.
A quantidade de armazenamento cresce a 40% ao ano.
Dependendo da resolu¸c˜ao e do padr˜ao de grava¸c˜ao escolhidos,
as imagens obtidas por uma cˆamera digital tem pixels
descartados.
Componentes em certas frequˆencias s˜ao eliminadas em muitos
padr˜oes de ´audio
Donoho, Cand`es e Tao: Porque n˜ao capturar somente os
dados de interesse (informa¸c˜ao)?
5. Introdu¸c˜ao
Teorema de Nyquist: um sinal x(t) limitado em frequˆencia,
|X(f )| = 0, |f | > FM, ´e univocamente determinado por suas
amostras x(nTS ), n = 0, ±1, ±2, ... desde que Fs = 2
Ts
≥ 2FM.
Leva em considera¸c˜ao somente o conte´udo espectral, e n˜ao a
informa¸c˜ao contida no sinal.
Aplica-se a qualquer classe de sinais.
7. Introdu¸c˜ao - Sinal Esparso
Uma representa¸c˜ao esparsa para um sinal x de comprimento
N tem S << N coeficientes diferentes de zero.
Ex. seno: tempo × frequˆencia
−8 −6 −4 −2 0 2 4 6 8
n
−1.5
−1.0
−0.5
0.0
0.5
1.0
1.5
cos(n)
(a)
−8 −6 −4 −2 0 2 4 6 8
N
−20
0
20
40
60
80
100
120
140
Amplitude
(b)
8. Introdu¸c˜ao - Sinal Esparso
Ressonˆancia Magn´etica e sua Transformada de Fourier
9. Introdu¸c˜ao - Coerˆencia
Dado um par de bases ortonormais, (Φ, A), tem-se
µ(Φ, A) =
√
N. max
1≤k,j≤N
|< φk, aj >|,
a medida de coerˆencia, e µ(Φ, A) ∈ [1,
√
N].
µ = 1 matrizes incoerentes
µ =
√
N matrizes coerentes
10. Amostragem Compressiva - Coerˆencia
Sendo Φ e A ortonormais, vamos fazer as linhas de A iguais
as primeiras M colunas de Φ, ou seja
A =
φ1,1 φ2,1 · · · φN,1
φ1,2 φ2,2 · · · φN,2
...
...
...
...
φ1,M φ2,M · · · φN,M
e
AΦ =
1 0 0 · · ·
0 1 0 · · ·
...
...
...
0 0 1 · · ·
logo µ(Φ, A) =
√
N e as matrizes tem alta coerˆencia.
11. Introdu¸c˜ao - Defini¸c˜ao de norma de um vetor
Norma lp de um vetor ( x p)p =
N
i=1
|xi|p
A norma l0 conta o n´umero de elementos n˜ao zero no vetor,
ou seja, o seu suporte.
Seja x = (x1, x2)
(c) Norma l1 (d) Norma l2
12. Introdu¸c˜ao - Princ´ıpio da Incerteza
Seja α a representa¸c˜ao de um vetor x na base Φ e β a sua
representa¸c˜ao na base A, ent˜ao mostra-se que
||α||0 + ||β||0 ≥
2
µ(Φ, A)
N˜ao ´e poss´ıvel obter simultaneamente uma representa¸c˜ao
esparsa do mesmo sinal em dois dom´ınios distintos.
13. Sinais Compress´ıveis
A melhor aproxima¸c˜ao com S-termos de um sinal ´e obtida
mantendo os maiores S coeficientes, e o erro ser´a dado por
σS = arg min
α∈σS
||x − Φα||2
Para sinais compress´ıveis
σk ≤ C2S1/2−s
14. Sinais Compress´ıveis
Uma representa¸c˜ao compress´ıvel aproxima bem um sinal com
S coeficientes diferentes de zero.
(e)
0 200 400 600 800 1000 1200
N
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
PixelAmplitude (f)
Usando somente os valores e as posi¸c˜oes diferentes de zero
pode-se obter uma representa¸c˜ao com alta fidelidade.
Fundamento para a codifica¸c˜oes por transformada: JPEG,
JPEG2000, MPEG, MP3, etc.
15. Amostragem Compressiva
Amostragem Compressiva (Compressed Sensing, Compressed
Sampling, Compressive Sensing) surguiu como um framework
para obter representa¸c˜oes bem mais compactas de sinais
esparsos ou compress´ıveis do que as obtidas baseando-se no
Teorema de Nyquist.
Ideia b´asica ´e fazer proje¸c˜oes em espa¸cos de dimens˜oes
menores e, quando necess´ario, recuperar usando otimiza¸c˜ao.
N˜ao ´e uma ideia nova: em outros contextos h´a aplica¸c˜oes que
datam de 1795.
16. Amostragem Compressiva
Sinal esparso x ∈ RN
x ´e S-eparso: {i : xi = 0} tem tamanho igual ou menor que S
Conjunto de medidas (proje¸c˜oes) y dadas por
ym = x, am , m = 1, ..., M.
am vetores utilizados para as medi¸c˜oes
Nota¸c˜ao matricial y = Ax.
y1
y2
...
yM
=
a11 a12 · · · a1N
a21 a22 · · · a2N
...
...
...
...
aM1 aM2 · · · aMN
×
x1
x2
...
xN
17. Sistemas Lineares
Se fizermos M = N:
y = A × x
yM
...
y2
y1
=
aM,1
...
a2,1
a1,1
. . .
. . .
. . .
aM,N
...
a2,N
a1,N
×
xN
...
x2
x1
18. Sistemas Lineares
Se fizermos M > N:
y = A × x
yM
...
...
y2
y1
=
aM,1
...
...
a2,1
a1,1
. . .
. . .
. . .
aM,N
...
...
a2,N
a1,N
×
xM
...
x2
x1
19. Sistemas Lineares
Se fizermos M < N:
y = A × x
yM
...
y2
y1
=
aM,1
...
a2,1
a1,1
. . .
. . .
. . .
aM,N
...
a2,N
a1,N
×
xN
...
x4
x3
x2
x1
20. Sistema Linear × representa¸c˜ao de sinais
Voltemos ao sistema linear:
y1
...
yM
=
a11 a12 · · · a1N
...
...
...
...
aM1 aM2 · · · aMN
×
x1
...
xN
Ap´os a multiplica¸c˜ao, observando somente a primeira linha:
y1 = a11x1 + a12x2 + ... + a1NxN
y1 carrega informa¸c˜oes sobre todos os xi , ponderados pelos
respectivos a1i .
Se soubermos N pondera¸c˜oes, podemos determinar os xi .
Se tivermos, ou pudermos fazer N > M combina¸c˜oes,
podemos proteger os xi contra erros.
Nesses casos pode-se recuperar fazendo x = [AT A]−1AT y.
21. Amostragem Compressiva
Caso de interesse M < N
Menos medidas que valores do sinal (compress˜ao)
y = Ax tem mais inc´ognitas que equa¸c˜oes
pode n˜ao ter solu¸c˜ao, ou ter infinitas solu¸c˜oes.
Vamos considerar que a matriz A ´e de rank completo, ou seja
suas colunas alcan¸cam (span) todo o espa¸co RN
,
´Oraculo que indique as posi¸c˜oes em que o vetor x ´e nulo,
conjunto S. Pode-se formar a matriz AS somente com as
colunas indicadas por S e resolver xS = [AT
S AS]−1AT
S y.
Sem ´oraculo em com x esparso: m´etodo de busca.
Solu¸c˜ao pelo ´oraculo servir´a de referˆencia.
22. Amostragem Compressiva
Norma lp de um vetor ( x p)p =
N
i=1
|xi|p
A norma l0 conta o n´umero de elementos n˜ao zero no vetor,
ou seja, o seu suporte.
Pode-se recuperar o sinal x a partir das medi¸c˜oes y resolvendo
o problema de otimiza¸c˜ao
(P0) min
˜x∈Rn
|| ˜x ||l0 sujeito a A˜x = y,
A solu¸c˜ao desse problema envolve uma busca nos
N
S
poss´ıveis suportes.
23. Amostragem Compressiva
Busca nos
N
S
poss´ıveis suportes.
Quanto mais esparso o sinal (menor o valor de S) para um
mesmo N, pior.
Exemplo: [Livro Elad] Para M = 500 e N = 2000, se o sinal
tem S = 20 n˜ao zeros, tem-se
N
S
≈ 3, 9 × 1047
Problema NP-completo.
24. Amostragem Compressiva
Alternativa ao problema P0: A norma l1 coincide com a
norma l0 dado que algumas condi¸c˜oes sejam satisfeitas.
Tomando M ≥ S log2(N/S) << N recupera-se o sinal original
resolvendo o problema
(P1) min
˜x∈Rn
|| ˜x ||l1 sujeito a A˜x = y,
Como escolher o valor de M?
Erro m´ınimo na recupera¸c˜ao: E||˜x − x||2
<
Para x = (x1, x2)
(g) Norma l1 (h) Norma l2
25. Amostragem Compressiva
Espa¸co nulo de uma matriz:
N(A) = {x : Ax = 0}.
Vetores S-eparsos ser˜ao escritos como Ax, logo
x e x ambos S-esparsos deveremos ter Ax = Ax , ou ainda
A(x − x ) = 0
Como x − x pertence ao conjunto de vetores 2S-esparsos,
Condi¸c˜ao do espa¸co nulo (Null space condition):
Para que seja poss´ıvel recuperar um vetor S-esparso a partir
de Ax, N(A) n˜ao deve conter vetores 2S-esparsos.
26. Amostragem Compressiva
Caso o sinal z n˜ao seja esparso:
aplicar alguma transforma¸c˜ao Φ e obter uma representa¸c˜ao
x = Φz que seja esparsa
Φ ortonormal, φΦH = φHΦ = I, sendo ΦH o hermitiano
transposto
(i) Lena (j) Coeficientes DWT
27. Amostragem Compressiva
Em seguida usar uma matriz A para comprimir o sinal.
Entretanto, as linhas {φj } de Φ n˜ao podem ser esparsamente
representadas pelas colunas {ai } of A (ou vice-versa).
Dado um par de bases ortonormais, (Φ, A), tem-se
µ(Φ, A) =
√
n. max
1≤k,j≤N
|< φk, aj >|,
a medida de coerˆencia, µ(Φ, A) ∈ [1,
√
N].
28. Amostragem Compressiva
Matrizes Φ e A devem ser incoerentes, ou seja, µ(Φ, A) = 1
Matriz cujos elementos tem distribui¸c˜ao Gaussiana ´e
incoerente a qualquer outra base.
Problema pr´atico: como gerar a mesma matriz na compress˜ao
e na descompacta¸c˜ao?
29. Amostragem Compressiva
Duas tarefas principais:
Projetar uma boa matriz de medi¸c˜ao: alta compress˜ao
mantendo a informa¸c˜ao e criando robustez contra erros.
Projetar um bom algoritmo de reconstru¸c˜ao: rapidez, baixo
custo computacional e robustez contra erros.
30. Amostragem Compressiva
Matriz A que permite a recupera¸c˜ao do vetor S-esparso v e
para um δS > 0 ´e que
(1 − δS )||v||2
2 ≤ ||Av ||2
2≤ (1 + δS )||v||2
2.
Conhecida como propriedade de isometria restrita (em inglˆes
restricted isometry property (RIP)).
A RIP de ordem 2S para dois sinais S-esparsos, x1 e x2:
(1 − δ2S ) ≤
Ax1 − Ax2
2
l2
x1 − x2
2
l2
≤ (1 + δ2S ). (1)
31. Amostragem Compressiva
A obten¸c˜ao de matrizes que obede¸cam a RIP ainda ´e objeto
de estudos
Por´em selecionando as entradas de A como vari´aveis aleat´orias
com m´edia zero e variˆancia 1/N, obt´em-se uma matriz de
medi¸c˜ao universal, que tem as seguintes propriedades:
´e incoerente com a base Φ = I, e
´e universal no sentido que Θ = ΦA ser´a Gaussiana e i.i.d
independente da base ortonormal Φ.
32. Amostragem Compressiva - Ru´ıdo
Ru´ıdo atinge o sinal j´a a mostrado, ou seja, o sinal original
deve ser recuperado a partir das amostras
y = Ax + n
sendo n um ru´ıdo, ou
Ru´ıdo aparece durante a amostragem, ou seja,
y = A{x + z} + n
conhecido como noise folding.
33. Amostragem Compressiva - Ru´ıdo
Primeiro caso (ru´ıdo adicionado ao sinal amostrado):
Na presen¸ca de ru´ıdo y = Ax + z
(P2) min
˜x∈RN
|| ˜x ||l1 sujeito a ||A˜x − y||2 ≤ ,
Para um ru´ıdo Gaussiano com variˆancia σ2:
Solu¸c˜ao pelo or´aculo (conhecimento das posi¸c˜oes diferentes de
zero):
E||xOracle
− x||2
= Mσ2
.
Seletor Dantzig estima ˆxDS
com erro m´edio quadr´atico dado
por:
1
N
E ˆxDS
− x 2
2 ≥ C
S
M
log(N)σ2
(2)
34. Amostragem Compressiva - Ru´ıdo
Segundo caso (ru´ıdo adicionado durante amostragem):
y = A{x + z} + n (3)
n ru´ıdo de medi¸c˜ao, z como um ru´ıdo associado ao sinal com
co-variˆancia σ2
0I:
y = Bx + u
B uma matriz com RIP pr´oxima ao da matriz A, e u um ru´ıdo
branco de m´edia zero e co-variˆancia (σ2 + N
M σ2
0)I.
Como M << N, a compress˜ao aumenta a variˆancia do ru´ıdo,
fato denominado de noise folding.
35. Amostragem Compressiva - Ferramental
Matriz Gaussiana AM×N
Obter as medidas yN = Ax.
Recupera-se os sinal usando minimiza¸c˜ao da norma l1:
1. Relaxa¸c˜ao convexa (Convex relaxation) utiliza¸c˜ao um
problema de otimiza¸c˜ao convexa para recuperar o sinal esparso.
2. Busca Gulosa: algoritmos que fazem a busca uma
aproxima¸c˜ao esparsa pela busca de coeficientes que fornecem a
melhor representa¸c˜ao.
3. Framework Bayesiano (Bayesian framework) assume uma
distribui¸c˜ao a priori do sinal esparso e utilizando estima¸c˜ao
recupera os sinal esparso.
4. Otimiza¸c˜ao n˜ao-convexa (Nonconvex optimization) utiliza
m´etodos de otimiza¸c˜ao n˜ao convexa para recuperar o sinal
esparso.
5. Combinatoriais fazem um busca sobre todos os poss´ıveis
conjuntos de suporte para determinar em quais deles est˜ao os
coeficientes do sinal esparso.
36. M´etodos Baseados em Otimiza¸c˜ao Convexa
De forma geral parte-se de um fun¸c˜ao de custo J(x) que ´e pequena
para x esparso, e busca-se resolver
min
ˆx
{J(ˆx) : y = Aˆx}
Usando J(x) = ||x||1 ´e comum usar Programa¸c˜ao Linear. Exemplo
mais comum l1 magic.
37. M´etodos de Otimiza¸c˜ao
Partindo do problema b´asico da minimiza¸c˜ao da norma l1 :
min
˜x∈Rn
|| ˜x ||1 sujeito a A˜x = y,
escreve-se o problema de otimiza¸c˜ao
min
˜x∈Rn
1
2
|| A˜x − y ||2
2 +τ||bfx||1,
sendo τ um parˆametro de regulariza¸c˜ao cujo valor governa a
esparsidade da solu¸c˜ao, desenvolveram-se v´arios algoritmos: l1l s,
Fixed-Point Continuation, etc..
38. Dantzig Selector
Estima¸c˜ao de um parˆametro x ∈ RN das observa¸c˜oes ruidosas
y ∈ RM, quando M << N, e ru´ıdo Gaussiano n ∼ N(0, σ2
nIM).
min
˜y∈RN
||ˆy||l1 sujeito a ||A∗
r||l∞ = sup
i≤i≤N
|(A∗
r)i | ≤ λp · σ (4)
para algum λp > 0, e o vetor de res´ıduos r = y − A˜y.
|(A∗r)i | ≤ λN · σ for i = 1, ..., N: res´ıduos no n´ıvel de ru´ıdo.
Dado o sinal esparso S e a matriz Gaussiana com entradas i.i.d., o
n´umero de medidas ´e dada por:M = S · log(p/S).
39. M´etodos de Busca Gulosa
M´etodo de persegui¸c˜ao (pursuit): consiste em refinar a
estimativa de um vetor pela modifica¸c˜ao de um ou mais de seus
componentes e escolher a modifica¸c˜ao que melhora a
representa¸c˜ao do sinal.
Basis Pursuit
Matching Pursuit
Orthogonal Matching Pursuit
40. Matching Pursuit
Dada a representa¸c˜ao compacta y, a matriz A, faz-se o res´ıduo
r0 = y e com os passos:
λk = arg max
λ
< rk, ak > ak
||ak||2
rk = rk−1 −
< rk, aλk
> aλk
||aλk
||2
e
ˆxλk
= ˆxλk
+ < rk−1, aλk
>
Crit´erio de parada: norma do res´ıduo muito pequena.
41. Orthogonal Matching Pursuit
Entradas:
Uma matriz, de medi¸c˜ao Φ, N × d
Um vetor N-dimensional v de dados
O n´ıvel m de esparsidade do sinal ideal
Sa´ıdas:
Uma estimativa ˆs em Rd do sinal ideal
Um conjunto Λm contendo m elementos de {1, ..., d}
Uma aproxima¸c˜ao N dimensional am do vetor v
Um res´ıduo N dimensional rm = v − am
42. Orthogonal Matching Pursuit
Inicializa¸c˜ao:
Fa¸ca r0 = v, Λ0 = ∅, e o contador de inicializa¸c˜ao t = 1
Itera¸c˜ao: Enquanto t < m fa¸ca
1. Encontre o ´ındice λt que resolve o problema de otimiza¸c˜ao
λt = arg max
j=1,...,d
< rt−1, ϕj >
2. Amplie o conjunto ´ındice e a matriz com os ´atomos escolhidos: Λt = Λt−1 ∪ {λt } e Ωt = [Ωt−1 ϕλt
].
Inicie com Ω0 como a matriz vazia.
3. Resolva o problema dos m´ınimos quadrados para obter a nova estimativa do sinal
xt = arg min
x
||v − Φtx||2
4. Calcule a nova aproxima¸c˜ao dos dados e o novo res´ıduo
at = Φt xt e rt = v − at
5. Incremente t.
43. M´etodos Combinatoriais
An´alise das poss´ıveis representa¸c˜oes dos sinais.
Complexidade maior do que os algoritmos de persegui¸c˜ao
Dependendo da rela¸c˜ao entre a esparsidade e o tamanho do
sinal, d˜ao respostas mais adequadas que os demais.
Exemplo: dados N items como determinar S com defeito?
Teste de grupos: aplica-se o teste a um grupo de L elementos,
caso haja erro, esse grupo ´e subdividido.
Aplica¸c˜ao na detec¸c˜ao de doen¸cas durante a guerra.
.
44. M´etodos Combinatoriais × Algoritmos de Busca
Transi¸c˜ao de fase (phase transition) [Donoho e Tanner]: limiar
entre a compress˜ao obtida e a esparsidade de um sinal. Determina
regi˜ao em que deve-se usar os algoritmos de busca ou
combinacionais.
(k) Observer Universality of Phase
Transition. Donho e Tanner
(l) Fonte: Nuit Blanche
45. Amostragem Compressiva - Hardware
Objetivo: Convers˜ao do sinal no dom´ınio anal´ogico para o
dom´ınio digital por´em capturando apenas a informa¸c˜ao
Conversores Anal´ogicos para Informa¸c˜ao, ou AIC do inglˆes
Analog to Information Converter.
Sinal x(t), t ∈ [0, T], um conjunto de fun¸c˜oes teste
{φ(t)}M
j=1, e realizar M medi¸c˜oes da forma
y[j] =
T
0
x(t)φj (t)dt. (5)
Para construir esse sistema de medi¸c˜ao devemos ter trˆes
componentes
hardware para gerar sinais de teste φj (t)
M correlatores que multipliquem o sinal x(t) com cada um dos
φj (t)
M integradores com um estado inicial com valor zero.
46. Amostragem Compressiva - Modulador Aleat´orio
x(t) ´e correlacionado com uma sequˆencia de pulsos aleat´orios ±1,
que alterna entre os valores numa taxa de Nyquist NaHz
proporcional `a taxa de Nyquist de x(t).
Sinal misturado ´e integrado em um per´ıodo de tempo de 1/Ma e
amostrado por um ADC de taxa MaHz << NaHz, o que fornece:
y[j] =
j/Ma
(j−1)/Ma
pc(t)x(t)dt. (6)
47. Amostragem Compressiva
Denotando pc[n] como a sequˆencia de s´ımbolos ±1 usada para
gerar pc(t), temos que pc(t) = pc[n], t ∈ [(n − 1)/Na, 1/Na], e
como exemplo seja j = 1, temos
y[1] =
1/Ma
0
pc(t)x(t)dt =
Na/Ma
0
pc[n]
1/Ma
0
x(t)dt (7)
e como Na ´e a taxa de Nyquist de x(t) ent˜ao
1/Ma
0 x(t)dt ´e a
m´edia de x(t) no n-´esimo intervalo, que pode ser denotado por
x[n], o que nos leva a
y[1] =
Na/Ma
n=1
pc[n]x[n]. (8)
48. Amostragem Compressiva - NUS
Amostrador n˜ao uniforme (non-uniform sampler - NUS): mant´em
somente uma parte das amostras.
49. Amostragem Compressiva - Xampling
Baseia-se na uni˜ao de subespa¸cos para determinar em qual dos
subespa¸cos as amostras do sinal est˜ao e em seguida utilizar um
conversor AD comercial para digitalizar o sinal.
50. Amostragem Compressiva - Propriedades
Amostragem Aleat´oria A amostragem se d´a pela multiplica¸c˜ao por
uma matriz pseudo-aleat´oria que pode ser gerada por
uma semente, que pode ser encarada como uma
chave criptogr´afica.
Robustez a Erros A perda de amostras do sinal comprimido n˜ao
gera a perda total do sinal reconstru´ıdo, pois pode
ser encarada apenas como uma redu¸c˜ao do n´umero
de amostras do sinal.
Universalidade O projeto do codificador leva em conta a
esparsidade do sinal, e n˜ao sua banda de frequˆencia,
sinais com o mesmo n´ıvel de esparsidade podem ser
amostrados com o mesmo codificador, independente
da natureza do sinal.
Complexidade Reversa O codificador ´e extremamente simples. Isso
possibilita a aplica¸c˜ao de compress˜ao onde existe
limita¸c˜ao de hardware, como em redes de sensores
sem fio.
53. Amostragem Compressiva – Imagens em terahertz
Ondas em Terahertz (0,3 a 10 THz,) pentram barreiras como
roupas e pl´astico.
Podem ser usadas em seguran¸ca para revelar, de forma n˜ao
destrutiva, objetos escondidos
Dependendo da resolu¸c˜ao, pode levar horas para obter uma
imagem.
56. Amostragem Compressiva – Corre¸c˜ao de Erros
Vetor de informa¸c˜ao x de tamanho N, uma matriz de
codifica¸c˜ao AM×N e o vetor c´odigo y = Ax. No caso da
codifica¸c˜ao para controle de erros, ser´e feito M > N, pois o
objetivo aqui ´e introduzir redundˆancia.
O vetor c´odigo y ´e corrompido por um ru´ıdo e gerando o
vetor yr = Ax + e, sendo e um vetor esparso arbitr´ario de
tamanho M com
||e||0 ≤ ρM
sendo ρ < 1.
Para reconstruir x deve-se reconstruir e pois y = ax + e
fornece Ax e consequentemente x pois A ´e uma matriz de
rank completo.
Obtendo uma matriz F tal que FA = 0 pode-se fazer
y = F(Ax + e) = Fe
e o problema se reduz a reconstruir o vetor esparso e a partir
de Fe.
57. Amostragem Compressiva – Corre¸c˜ao de Erros
Outra maneira ´e resolver o problema de otimiza¸c˜ao
min
g∈RN
|| y − Ag ||l1 .
pois sendo g = f + h chega-se a
min
g∈RN
|| e − Ah ||l1 .
Os autores estabelecem o tamanho m´aximo do suporte de
vetor de erros e para o qual a minimiza¸c˜ao ´e ´unica.
58. Processamento de Sinais no Dom´ınio Comprimido
A opera¸c˜ao Ax ´e
Linear
Obedecendo a RIP as propriedades dos sinais se mant´em
Parˆametros podem ser medidos na representa¸c˜ao comprimida,
y = Ax.
Algumas classes de processamento n˜ao necessitam recuperar o
sinal original: inferˆencia, classifica¸c˜ao, estima¸c˜ao e detec¸c˜ao
de parˆametros.
59. Aplica¸c˜oes da Amostragem Compressiva
Compress˜ao de ´audio
M´usica → MDCT → Comprimir usando Amostragem
compressiva → Recuperar → Medida de distor¸c˜ao
Qualidade Perceptual Interpreta¸c˜ao
-5 a -4 Diferen¸ca percept´ıvel e muito desagrad´avel
-4 a -3 Diferen¸ca percept´ıvel e desagrad´avel
-3 a -2 Diferen¸ca percept´ıvel e levemente desagrad´avel
-2 a -1 Diferen¸ca percept´ıvel mas n˜ao desagrad´avel
-1 a 0 Diferen¸ca impercept´ıvel
60. Aplica¸c˜oes da Amostragem Compressiva
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
−4
−3.5
−3
−2.5
−2
−1.5
−1
−0.5
0
Taxa de Compressão
QualidadePerceptualMédia
Comparação entre CODECs comuns e ACS
MP2
MP3
AAC
OGG
ACS
Figura: CODECs comuns e ACS
61. Aplica¸c˜oes da Amostragem Compressiva
Jhonson-Lindenstrauss Lemma: para um conjunto de N pontos em
M dimens˜oes ´e poss´ıvel encontrar uma proje¸c˜ao aleat´oria
f : RN×D → RN×M com M = log N
2
Considere uma cole¸c˜ao de N objetos cada um com D dimens˜oes
representado no instante n por uma matriz
X(n) = [x1(n) x2(n) ... xN(n)]T
e atualizados de forma ass´ıncrona com ∆(n + 1) = (i, j, vn+1) que
informa a atualiza¸c˜ao da linha i, coluna j com o valor v.
62. Aplica¸c˜oes da Amostragem Compressiva
Atualiza¸c˜oes na matriz X(n) ∈ Rn×d podem ser vistas como:
xi,j (n) = xi,j (n − 1) + vn
e em uma nota¸c˜ao matricial
X(n) = X(n − 1) + V(n)
sendo V(n) = Vmn(n) = vnδi,mδj,n.
63. Aplica¸c˜oes da Amostragem Compressiva
Se considerarmos A(0) = 0 temos
A(n) =
n
i=1
V(i).
Usando a matriz R ∈ RD×M podemos escrever o esbo¸co da
matriz A(n) usando a proje¸c˜ao
S(n) = A(n) · R
e
S(n) =
n
i=1
V(n)R.
As atualiza¸c˜oes podem ser feitas considerando
S(n + 1) =
n+1
i=1
V(n)R =
n
i=1
V(n)R + V(n + 1)R
ent˜ao para atualizar os esbo¸cos pode-se projetar a atualiza¸c˜ao
sobre a matriz R.
64. Aplica¸c˜oes da Amostragem Compressiva
Esbo¸co de uma atualiza¸c˜ao pode ser vista como
V(n)R = [0 ...v(n) ...0]T
[r1 r2 ... rN] = v(n)
0 0 ... 0
...
... · · ·
...
rj,1 rj,2 · · · rj,k
...
... · · ·
...
0 0 ... 0
ent˜ao a atualiza¸c˜ao dos esbo¸cos consiste em multiplicar o
valore da autaliza¸c˜ao pela linha ad matriz de proje¸c˜ao.
65. Aplica¸c˜oes da Amostragem Compressiva
Considerando dados gerados por medidores de energia el´etrica
Conjunto de 400 usu´arios
Medida de ”similaridade”(S) entre usu´arios: distˆancia entre
os vetores que representem os seus consumos.
SO similaridade calculada nos dados originais
SP similaridade calculada nos dados projetados
E = |SO −SP |
S1
.100
68. Fontes de Informa¸c˜ao
Nuit Blanche blog (http://nuit-blanche.blogspot.com.br/)
DSP at Rice University (http://dsp.rice.edu/cs)
An Introduction to Compressive Sensing, Connexions.