SlideShare uma empresa Scribd logo
1 de 71
Baixar para ler offline
Introdu¸c˜ao `a Amostragem Compressiva
Edmar Candeia Gurj˜ao
Departmento de Engenharia El´etrica
Universidade Federal de Campina Grande
ecandeia@dee.ufcg.edu.br
01 de setembro de 2013
Apresenta¸c˜ao
Edmar Candeia Gurj˜ao
Professor do Departamento de Engenharia El´etrica da
Universidade Federal de Campina Grande - PB
´Areas de Interesse:
Amostragem Compressiva
R´adio Definido por Software
Sum´ario
1. Introdu¸c˜ao
2. Amostragem Compressiva
3. Aplica¸c˜oes
4. Desafios
5. Fontes de Informa¸c˜ao
Introdu¸c˜ao
Quantidade de dados gerada pelos seres humanos tem crescido de
forma exponencial:
A quantidade de dados gerada no mundo cresce 58% por ano
Em 2010 foram gerados 1250 bilh˜oes de Gigabytes de dados
Mais bits que estrelas no universo.
A quantidade de armazenamento cresce a 40% ao ano.
Dependendo da resolu¸c˜ao e do padr˜ao de grava¸c˜ao escolhidos,
as imagens obtidas por uma cˆamera digital tem pixels
descartados.
Componentes em certas frequˆencias s˜ao eliminadas em muitos
padr˜oes de ´audio
Donoho, Cand`es e Tao: Porque n˜ao capturar somente os
dados de interesse (informa¸c˜ao)?
Introdu¸c˜ao
Teorema de Nyquist: um sinal x(t) limitado em frequˆencia,
|X(f )| = 0, |f | > FM, ´e univocamente determinado por suas
amostras x(nTS ), n = 0, ±1, ±2, ... desde que Fs = 2
Ts
≥ 2FM.
Leva em considera¸c˜ao somente o conte´udo espectral, e n˜ao a
informa¸c˜ao contida no sinal.
Aplica-se a qualquer classe de sinais.
Introdu¸c˜ao
Alternativa para reduzir a quantidade de dados: sub-amostrar:
Pode-se perder muita informa¸c˜ao.
Introdu¸c˜ao - Sinal Esparso
Uma representa¸c˜ao esparsa para um sinal x de comprimento
N tem S << N coeficientes diferentes de zero.
Ex. seno: tempo × frequˆencia
−8 −6 −4 −2 0 2 4 6 8
n
−1.5
−1.0
−0.5
0.0
0.5
1.0
1.5
cos(n)
(a)
−8 −6 −4 −2 0 2 4 6 8
N
−20
0
20
40
60
80
100
120
140
Amplitude
(b)
Introdu¸c˜ao - Sinal Esparso
Ressonˆancia Magn´etica e sua Transformada de Fourier
Introdu¸c˜ao - Coerˆencia
Dado um par de bases ortonormais, (Φ, A), tem-se
µ(Φ, A) =
√
N. max
1≤k,j≤N
|< φk, aj >|,
a medida de coerˆencia, e µ(Φ, A) ∈ [1,
√
N].
µ = 1 matrizes incoerentes
µ =
√
N matrizes coerentes
Amostragem Compressiva - Coerˆencia
Sendo Φ e A ortonormais, vamos fazer as linhas de A iguais
as primeiras M colunas de Φ, ou seja
A =





φ1,1 φ2,1 · · · φN,1
φ1,2 φ2,2 · · · φN,2
...
...
...
...
φ1,M φ2,M · · · φN,M





e
AΦ =





1 0 0 · · ·
0 1 0 · · ·
...
...
...
0 0 1 · · ·





logo µ(Φ, A) =
√
N e as matrizes tem alta coerˆencia.
Introdu¸c˜ao - Defini¸c˜ao de norma de um vetor
Norma lp de um vetor ( x p)p =
N
i=1
|xi|p
A norma l0 conta o n´umero de elementos n˜ao zero no vetor,
ou seja, o seu suporte.
Seja x = (x1, x2)
(c) Norma l1 (d) Norma l2
Introdu¸c˜ao - Princ´ıpio da Incerteza
Seja α a representa¸c˜ao de um vetor x na base Φ e β a sua
representa¸c˜ao na base A, ent˜ao mostra-se que
||α||0 + ||β||0 ≥
2
µ(Φ, A)
N˜ao ´e poss´ıvel obter simultaneamente uma representa¸c˜ao
esparsa do mesmo sinal em dois dom´ınios distintos.
Sinais Compress´ıveis
A melhor aproxima¸c˜ao com S-termos de um sinal ´e obtida
mantendo os maiores S coeficientes, e o erro ser´a dado por
σS = arg min
α∈σS
||x − Φα||2
Para sinais compress´ıveis
σk ≤ C2S1/2−s
Sinais Compress´ıveis
Uma representa¸c˜ao compress´ıvel aproxima bem um sinal com
S coeficientes diferentes de zero.
(e)
0 200 400 600 800 1000 1200
N
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
PixelAmplitude (f)
Usando somente os valores e as posi¸c˜oes diferentes de zero
pode-se obter uma representa¸c˜ao com alta fidelidade.
Fundamento para a codifica¸c˜oes por transformada: JPEG,
JPEG2000, MPEG, MP3, etc.
Amostragem Compressiva
Amostragem Compressiva (Compressed Sensing, Compressed
Sampling, Compressive Sensing) surguiu como um framework
para obter representa¸c˜oes bem mais compactas de sinais
esparsos ou compress´ıveis do que as obtidas baseando-se no
Teorema de Nyquist.
Ideia b´asica ´e fazer proje¸c˜oes em espa¸cos de dimens˜oes
menores e, quando necess´ario, recuperar usando otimiza¸c˜ao.
N˜ao ´e uma ideia nova: em outros contextos h´a aplica¸c˜oes que
datam de 1795.
Amostragem Compressiva
Sinal esparso x ∈ RN
x ´e S-eparso: {i : xi = 0} tem tamanho igual ou menor que S
Conjunto de medidas (proje¸c˜oes) y dadas por
ym = x, am , m = 1, ..., M.
am vetores utilizados para as medi¸c˜oes
Nota¸c˜ao matricial y = Ax.





y1
y2
...
yM





=





a11 a12 · · · a1N
a21 a22 · · · a2N
...
...
...
...
aM1 aM2 · · · aMN





×





x1
x2
...
xN





Sistemas Lineares
Se fizermos M = N:
y = A × x
yM
...
y2
y1
=
aM,1
...
a2,1
a1,1
. . .
. . .
. . .
aM,N
...
a2,N
a1,N
×
xN
...
x2
x1
Sistemas Lineares
Se fizermos M > N:
y = A × x
yM
...
...
y2
y1
=
aM,1
...
...
a2,1
a1,1
. . .
. . .
. . .
aM,N
...
...
a2,N
a1,N
×
xM
...
x2
x1
Sistemas Lineares
Se fizermos M < N:
y = A × x
yM
...
y2
y1
=
aM,1
...
a2,1
a1,1
. . .
. . .
. . .
aM,N
...
a2,N
a1,N
×
xN
...
x4
x3
x2
x1
Sistema Linear × representa¸c˜ao de sinais
Voltemos ao sistema linear:



y1
...
yM


 =



a11 a12 · · · a1N
...
...
...
...
aM1 aM2 · · · aMN


 ×



x1
...
xN



Ap´os a multiplica¸c˜ao, observando somente a primeira linha:
y1 = a11x1 + a12x2 + ... + a1NxN
y1 carrega informa¸c˜oes sobre todos os xi , ponderados pelos
respectivos a1i .
Se soubermos N pondera¸c˜oes, podemos determinar os xi .
Se tivermos, ou pudermos fazer N > M combina¸c˜oes,
podemos proteger os xi contra erros.
Nesses casos pode-se recuperar fazendo x = [AT A]−1AT y.
Amostragem Compressiva
Caso de interesse M < N
Menos medidas que valores do sinal (compress˜ao)
y = Ax tem mais inc´ognitas que equa¸c˜oes
pode n˜ao ter solu¸c˜ao, ou ter infinitas solu¸c˜oes.
Vamos considerar que a matriz A ´e de rank completo, ou seja
suas colunas alcan¸cam (span) todo o espa¸co RN
,
´Oraculo que indique as posi¸c˜oes em que o vetor x ´e nulo,
conjunto S. Pode-se formar a matriz AS somente com as
colunas indicadas por S e resolver xS = [AT
S AS]−1AT
S y.
Sem ´oraculo em com x esparso: m´etodo de busca.
Solu¸c˜ao pelo ´oraculo servir´a de referˆencia.
Amostragem Compressiva
Norma lp de um vetor ( x p)p =
N
i=1
|xi|p
A norma l0 conta o n´umero de elementos n˜ao zero no vetor,
ou seja, o seu suporte.
Pode-se recuperar o sinal x a partir das medi¸c˜oes y resolvendo
o problema de otimiza¸c˜ao
(P0) min
˜x∈Rn
|| ˜x ||l0 sujeito a A˜x = y,
A solu¸c˜ao desse problema envolve uma busca nos
N
S
poss´ıveis suportes.
Amostragem Compressiva
Busca nos
N
S
poss´ıveis suportes.
Quanto mais esparso o sinal (menor o valor de S) para um
mesmo N, pior.
Exemplo: [Livro Elad] Para M = 500 e N = 2000, se o sinal
tem S = 20 n˜ao zeros, tem-se
N
S
≈ 3, 9 × 1047
Problema NP-completo.
Amostragem Compressiva
Alternativa ao problema P0: A norma l1 coincide com a
norma l0 dado que algumas condi¸c˜oes sejam satisfeitas.
Tomando M ≥ S log2(N/S) << N recupera-se o sinal original
resolvendo o problema
(P1) min
˜x∈Rn
|| ˜x ||l1 sujeito a A˜x = y,
Como escolher o valor de M?
Erro m´ınimo na recupera¸c˜ao: E||˜x − x||2
<
Para x = (x1, x2)
(g) Norma l1 (h) Norma l2
Amostragem Compressiva
Espa¸co nulo de uma matriz:
N(A) = {x : Ax = 0}.
Vetores S-eparsos ser˜ao escritos como Ax, logo
x e x ambos S-esparsos deveremos ter Ax = Ax , ou ainda
A(x − x ) = 0
Como x − x pertence ao conjunto de vetores 2S-esparsos,
Condi¸c˜ao do espa¸co nulo (Null space condition):
Para que seja poss´ıvel recuperar um vetor S-esparso a partir
de Ax, N(A) n˜ao deve conter vetores 2S-esparsos.
Amostragem Compressiva
Caso o sinal z n˜ao seja esparso:
aplicar alguma transforma¸c˜ao Φ e obter uma representa¸c˜ao
x = Φz que seja esparsa
Φ ortonormal, φΦH = φHΦ = I, sendo ΦH o hermitiano
transposto
(i) Lena (j) Coeficientes DWT
Amostragem Compressiva
Em seguida usar uma matriz A para comprimir o sinal.
Entretanto, as linhas {φj } de Φ n˜ao podem ser esparsamente
representadas pelas colunas {ai } of A (ou vice-versa).
Dado um par de bases ortonormais, (Φ, A), tem-se
µ(Φ, A) =
√
n. max
1≤k,j≤N
|< φk, aj >|,
a medida de coerˆencia, µ(Φ, A) ∈ [1,
√
N].
Amostragem Compressiva
Matrizes Φ e A devem ser incoerentes, ou seja, µ(Φ, A) = 1
Matriz cujos elementos tem distribui¸c˜ao Gaussiana ´e
incoerente a qualquer outra base.
Problema pr´atico: como gerar a mesma matriz na compress˜ao
e na descompacta¸c˜ao?
Amostragem Compressiva
Duas tarefas principais:
Projetar uma boa matriz de medi¸c˜ao: alta compress˜ao
mantendo a informa¸c˜ao e criando robustez contra erros.
Projetar um bom algoritmo de reconstru¸c˜ao: rapidez, baixo
custo computacional e robustez contra erros.
Amostragem Compressiva
Matriz A que permite a recupera¸c˜ao do vetor S-esparso v e
para um δS > 0 ´e que
(1 − δS )||v||2
2 ≤ ||Av ||2
2≤ (1 + δS )||v||2
2.
Conhecida como propriedade de isometria restrita (em inglˆes
restricted isometry property (RIP)).
A RIP de ordem 2S para dois sinais S-esparsos, x1 e x2:
(1 − δ2S ) ≤
Ax1 − Ax2
2
l2
x1 − x2
2
l2
≤ (1 + δ2S ). (1)
Amostragem Compressiva
A obten¸c˜ao de matrizes que obede¸cam a RIP ainda ´e objeto
de estudos
Por´em selecionando as entradas de A como vari´aveis aleat´orias
com m´edia zero e variˆancia 1/N, obt´em-se uma matriz de
medi¸c˜ao universal, que tem as seguintes propriedades:
´e incoerente com a base Φ = I, e
´e universal no sentido que Θ = ΦA ser´a Gaussiana e i.i.d
independente da base ortonormal Φ.
Amostragem Compressiva - Ru´ıdo
Ru´ıdo atinge o sinal j´a a mostrado, ou seja, o sinal original
deve ser recuperado a partir das amostras
y = Ax + n
sendo n um ru´ıdo, ou
Ru´ıdo aparece durante a amostragem, ou seja,
y = A{x + z} + n
conhecido como noise folding.
Amostragem Compressiva - Ru´ıdo
Primeiro caso (ru´ıdo adicionado ao sinal amostrado):
Na presen¸ca de ru´ıdo y = Ax + z
(P2) min
˜x∈RN
|| ˜x ||l1 sujeito a ||A˜x − y||2 ≤ ,
Para um ru´ıdo Gaussiano com variˆancia σ2:
Solu¸c˜ao pelo or´aculo (conhecimento das posi¸c˜oes diferentes de
zero):
E||xOracle
− x||2
= Mσ2
.
Seletor Dantzig estima ˆxDS
com erro m´edio quadr´atico dado
por:
1
N
E ˆxDS
− x 2
2 ≥ C
S
M
log(N)σ2
(2)
Amostragem Compressiva - Ru´ıdo
Segundo caso (ru´ıdo adicionado durante amostragem):
y = A{x + z} + n (3)
n ru´ıdo de medi¸c˜ao, z como um ru´ıdo associado ao sinal com
co-variˆancia σ2
0I:
y = Bx + u
B uma matriz com RIP pr´oxima ao da matriz A, e u um ru´ıdo
branco de m´edia zero e co-variˆancia (σ2 + N
M σ2
0)I.
Como M << N, a compress˜ao aumenta a variˆancia do ru´ıdo,
fato denominado de noise folding.
Amostragem Compressiva - Ferramental
Matriz Gaussiana AM×N
Obter as medidas yN = Ax.
Recupera-se os sinal usando minimiza¸c˜ao da norma l1:
1. Relaxa¸c˜ao convexa (Convex relaxation) utiliza¸c˜ao um
problema de otimiza¸c˜ao convexa para recuperar o sinal esparso.
2. Busca Gulosa: algoritmos que fazem a busca uma
aproxima¸c˜ao esparsa pela busca de coeficientes que fornecem a
melhor representa¸c˜ao.
3. Framework Bayesiano (Bayesian framework) assume uma
distribui¸c˜ao a priori do sinal esparso e utilizando estima¸c˜ao
recupera os sinal esparso.
4. Otimiza¸c˜ao n˜ao-convexa (Nonconvex optimization) utiliza
m´etodos de otimiza¸c˜ao n˜ao convexa para recuperar o sinal
esparso.
5. Combinatoriais fazem um busca sobre todos os poss´ıveis
conjuntos de suporte para determinar em quais deles est˜ao os
coeficientes do sinal esparso.
M´etodos Baseados em Otimiza¸c˜ao Convexa
De forma geral parte-se de um fun¸c˜ao de custo J(x) que ´e pequena
para x esparso, e busca-se resolver
min
ˆx
{J(ˆx) : y = Aˆx}
Usando J(x) = ||x||1 ´e comum usar Programa¸c˜ao Linear. Exemplo
mais comum l1 magic.
M´etodos de Otimiza¸c˜ao
Partindo do problema b´asico da minimiza¸c˜ao da norma l1 :
min
˜x∈Rn
|| ˜x ||1 sujeito a A˜x = y,
escreve-se o problema de otimiza¸c˜ao
min
˜x∈Rn
1
2
|| A˜x − y ||2
2 +τ||bfx||1,
sendo τ um parˆametro de regulariza¸c˜ao cujo valor governa a
esparsidade da solu¸c˜ao, desenvolveram-se v´arios algoritmos: l1l s,
Fixed-Point Continuation, etc..
Dantzig Selector
Estima¸c˜ao de um parˆametro x ∈ RN das observa¸c˜oes ruidosas
y ∈ RM, quando M << N, e ru´ıdo Gaussiano n ∼ N(0, σ2
nIM).
min
˜y∈RN
||ˆy||l1 sujeito a ||A∗
r||l∞ = sup
i≤i≤N
|(A∗
r)i | ≤ λp · σ (4)
para algum λp > 0, e o vetor de res´ıduos r = y − A˜y.
|(A∗r)i | ≤ λN · σ for i = 1, ..., N: res´ıduos no n´ıvel de ru´ıdo.
Dado o sinal esparso S e a matriz Gaussiana com entradas i.i.d., o
n´umero de medidas ´e dada por:M = S · log(p/S).
M´etodos de Busca Gulosa
M´etodo de persegui¸c˜ao (pursuit): consiste em refinar a
estimativa de um vetor pela modifica¸c˜ao de um ou mais de seus
componentes e escolher a modifica¸c˜ao que melhora a
representa¸c˜ao do sinal.
Basis Pursuit
Matching Pursuit
Orthogonal Matching Pursuit
Matching Pursuit
Dada a representa¸c˜ao compacta y, a matriz A, faz-se o res´ıduo
r0 = y e com os passos:
λk = arg max
λ
< rk, ak > ak
||ak||2
rk = rk−1 −
< rk, aλk
> aλk
||aλk
||2
e
ˆxλk
= ˆxλk
+ < rk−1, aλk
>
Crit´erio de parada: norma do res´ıduo muito pequena.
Orthogonal Matching Pursuit
Entradas:
Uma matriz, de medi¸c˜ao Φ, N × d
Um vetor N-dimensional v de dados
O n´ıvel m de esparsidade do sinal ideal
Sa´ıdas:
Uma estimativa ˆs em Rd do sinal ideal
Um conjunto Λm contendo m elementos de {1, ..., d}
Uma aproxima¸c˜ao N dimensional am do vetor v
Um res´ıduo N dimensional rm = v − am
Orthogonal Matching Pursuit
Inicializa¸c˜ao:
Fa¸ca r0 = v, Λ0 = ∅, e o contador de inicializa¸c˜ao t = 1
Itera¸c˜ao: Enquanto t < m fa¸ca
1. Encontre o ´ındice λt que resolve o problema de otimiza¸c˜ao
λt = arg max
j=1,...,d
< rt−1, ϕj >
2. Amplie o conjunto ´ındice e a matriz com os ´atomos escolhidos: Λt = Λt−1 ∪ {λt } e Ωt = [Ωt−1 ϕλt
].
Inicie com Ω0 como a matriz vazia.
3. Resolva o problema dos m´ınimos quadrados para obter a nova estimativa do sinal
xt = arg min
x
||v − Φtx||2
4. Calcule a nova aproxima¸c˜ao dos dados e o novo res´ıduo
at = Φt xt e rt = v − at
5. Incremente t.
M´etodos Combinatoriais
An´alise das poss´ıveis representa¸c˜oes dos sinais.
Complexidade maior do que os algoritmos de persegui¸c˜ao
Dependendo da rela¸c˜ao entre a esparsidade e o tamanho do
sinal, d˜ao respostas mais adequadas que os demais.
Exemplo: dados N items como determinar S com defeito?
Teste de grupos: aplica-se o teste a um grupo de L elementos,
caso haja erro, esse grupo ´e subdividido.
Aplica¸c˜ao na detec¸c˜ao de doen¸cas durante a guerra.
.
M´etodos Combinatoriais × Algoritmos de Busca
Transi¸c˜ao de fase (phase transition) [Donoho e Tanner]: limiar
entre a compress˜ao obtida e a esparsidade de um sinal. Determina
regi˜ao em que deve-se usar os algoritmos de busca ou
combinacionais.
(k) Observer Universality of Phase
Transition. Donho e Tanner
(l) Fonte: Nuit Blanche
Amostragem Compressiva - Hardware
Objetivo: Convers˜ao do sinal no dom´ınio anal´ogico para o
dom´ınio digital por´em capturando apenas a informa¸c˜ao
Conversores Anal´ogicos para Informa¸c˜ao, ou AIC do inglˆes
Analog to Information Converter.
Sinal x(t), t ∈ [0, T], um conjunto de fun¸c˜oes teste
{φ(t)}M
j=1, e realizar M medi¸c˜oes da forma
y[j] =
T
0
x(t)φj (t)dt. (5)
Para construir esse sistema de medi¸c˜ao devemos ter trˆes
componentes
hardware para gerar sinais de teste φj (t)
M correlatores que multipliquem o sinal x(t) com cada um dos
φj (t)
M integradores com um estado inicial com valor zero.
Amostragem Compressiva - Modulador Aleat´orio
x(t) ´e correlacionado com uma sequˆencia de pulsos aleat´orios ±1,
que alterna entre os valores numa taxa de Nyquist NaHz
proporcional `a taxa de Nyquist de x(t).
Sinal misturado ´e integrado em um per´ıodo de tempo de 1/Ma e
amostrado por um ADC de taxa MaHz << NaHz, o que fornece:
y[j] =
j/Ma
(j−1)/Ma
pc(t)x(t)dt. (6)
Amostragem Compressiva
Denotando pc[n] como a sequˆencia de s´ımbolos ±1 usada para
gerar pc(t), temos que pc(t) = pc[n], t ∈ [(n − 1)/Na, 1/Na], e
como exemplo seja j = 1, temos
y[1] =
1/Ma
0
pc(t)x(t)dt =
Na/Ma
0
pc[n]
1/Ma
0
x(t)dt (7)
e como Na ´e a taxa de Nyquist de x(t) ent˜ao
1/Ma
0 x(t)dt ´e a
m´edia de x(t) no n-´esimo intervalo, que pode ser denotado por
x[n], o que nos leva a
y[1] =
Na/Ma
n=1
pc[n]x[n]. (8)
Amostragem Compressiva - NUS
Amostrador n˜ao uniforme (non-uniform sampler - NUS): mant´em
somente uma parte das amostras.
Amostragem Compressiva - Xampling
Baseia-se na uni˜ao de subespa¸cos para determinar em qual dos
subespa¸cos as amostras do sinal est˜ao e em seguida utilizar um
conversor AD comercial para digitalizar o sinal.
Amostragem Compressiva - Propriedades
Amostragem Aleat´oria A amostragem se d´a pela multiplica¸c˜ao por
uma matriz pseudo-aleat´oria que pode ser gerada por
uma semente, que pode ser encarada como uma
chave criptogr´afica.
Robustez a Erros A perda de amostras do sinal comprimido n˜ao
gera a perda total do sinal reconstru´ıdo, pois pode
ser encarada apenas como uma redu¸c˜ao do n´umero
de amostras do sinal.
Universalidade O projeto do codificador leva em conta a
esparsidade do sinal, e n˜ao sua banda de frequˆencia,
sinais com o mesmo n´ıvel de esparsidade podem ser
amostrados com o mesmo codificador, independente
da natureza do sinal.
Complexidade Reversa O codificador ´e extremamente simples. Isso
possibilita a aplica¸c˜ao de compress˜ao onde existe
limita¸c˜ao de hardware, como em redes de sensores
sem fio.
Amostragem Compressiva – Aplica¸c˜oes de maior destaque
Amostragem Compressiva – Aplica¸c˜oes de maior destaque
Amostragem Compressiva – Imagens em terahertz
Ondas em Terahertz (0,3 a 10 THz,) pentram barreiras como
roupas e pl´astico.
Podem ser usadas em seguran¸ca para revelar, de forma n˜ao
destrutiva, objetos escondidos
Dependendo da resolu¸c˜ao, pode levar horas para obter uma
imagem.
Amostragem Compressiva – Imagens em terahertz
Amostragem Compressiva – Imagens em terahertz
Amostragem Compressiva – Corre¸c˜ao de Erros
Vetor de informa¸c˜ao x de tamanho N, uma matriz de
codifica¸c˜ao AM×N e o vetor c´odigo y = Ax. No caso da
codifica¸c˜ao para controle de erros, ser´e feito M > N, pois o
objetivo aqui ´e introduzir redundˆancia.
O vetor c´odigo y ´e corrompido por um ru´ıdo e gerando o
vetor yr = Ax + e, sendo e um vetor esparso arbitr´ario de
tamanho M com
||e||0 ≤ ρM
sendo ρ < 1.
Para reconstruir x deve-se reconstruir e pois y = ax + e
fornece Ax e consequentemente x pois A ´e uma matriz de
rank completo.
Obtendo uma matriz F tal que FA = 0 pode-se fazer
y = F(Ax + e) = Fe
e o problema se reduz a reconstruir o vetor esparso e a partir
de Fe.
Amostragem Compressiva – Corre¸c˜ao de Erros
Outra maneira ´e resolver o problema de otimiza¸c˜ao
min
g∈RN
|| y − Ag ||l1 .
pois sendo g = f + h chega-se a
min
g∈RN
|| e − Ah ||l1 .
Os autores estabelecem o tamanho m´aximo do suporte de
vetor de erros e para o qual a minimiza¸c˜ao ´e ´unica.
Processamento de Sinais no Dom´ınio Comprimido
A opera¸c˜ao Ax ´e
Linear
Obedecendo a RIP as propriedades dos sinais se mant´em
Parˆametros podem ser medidos na representa¸c˜ao comprimida,
y = Ax.
Algumas classes de processamento n˜ao necessitam recuperar o
sinal original: inferˆencia, classifica¸c˜ao, estima¸c˜ao e detec¸c˜ao
de parˆametros.
Aplica¸c˜oes da Amostragem Compressiva
Compress˜ao de ´audio
M´usica → MDCT → Comprimir usando Amostragem
compressiva → Recuperar → Medida de distor¸c˜ao
Qualidade Perceptual Interpreta¸c˜ao
-5 a -4 Diferen¸ca percept´ıvel e muito desagrad´avel
-4 a -3 Diferen¸ca percept´ıvel e desagrad´avel
-3 a -2 Diferen¸ca percept´ıvel e levemente desagrad´avel
-2 a -1 Diferen¸ca percept´ıvel mas n˜ao desagrad´avel
-1 a 0 Diferen¸ca impercept´ıvel
Aplica¸c˜oes da Amostragem Compressiva
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
−4
−3.5
−3
−2.5
−2
−1.5
−1
−0.5
0
Taxa de Compressão
QualidadePerceptualMédia
Comparação entre CODECs comuns e ACS
MP2
MP3
AAC
OGG
ACS
Figura: CODECs comuns e ACS
Aplica¸c˜oes da Amostragem Compressiva
Jhonson-Lindenstrauss Lemma: para um conjunto de N pontos em
M dimens˜oes ´e poss´ıvel encontrar uma proje¸c˜ao aleat´oria
f : RN×D → RN×M com M = log N
2
Considere uma cole¸c˜ao de N objetos cada um com D dimens˜oes
representado no instante n por uma matriz
X(n) = [x1(n) x2(n) ... xN(n)]T
e atualizados de forma ass´ıncrona com ∆(n + 1) = (i, j, vn+1) que
informa a atualiza¸c˜ao da linha i, coluna j com o valor v.
Aplica¸c˜oes da Amostragem Compressiva
Atualiza¸c˜oes na matriz X(n) ∈ Rn×d podem ser vistas como:
xi,j (n) = xi,j (n − 1) + vn
e em uma nota¸c˜ao matricial
X(n) = X(n − 1) + V(n)
sendo V(n) = Vmn(n) = vnδi,mδj,n.
Aplica¸c˜oes da Amostragem Compressiva
Se considerarmos A(0) = 0 temos
A(n) =
n
i=1
V(i).
Usando a matriz R ∈ RD×M podemos escrever o esbo¸co da
matriz A(n) usando a proje¸c˜ao
S(n) = A(n) · R
e
S(n) =
n
i=1
V(n)R.
As atualiza¸c˜oes podem ser feitas considerando
S(n + 1) =
n+1
i=1
V(n)R =
n
i=1
V(n)R + V(n + 1)R
ent˜ao para atualizar os esbo¸cos pode-se projetar a atualiza¸c˜ao
sobre a matriz R.
Aplica¸c˜oes da Amostragem Compressiva
Esbo¸co de uma atualiza¸c˜ao pode ser vista como
V(n)R = [0 ...v(n) ...0]T
[r1 r2 ... rN] = v(n)








0 0 ... 0
...
... · · ·
...
rj,1 rj,2 · · · rj,k
...
... · · ·
...
0 0 ... 0








ent˜ao a atualiza¸c˜ao dos esbo¸cos consiste em multiplicar o
valore da autaliza¸c˜ao pela linha ad matriz de proje¸c˜ao.
Aplica¸c˜oes da Amostragem Compressiva
Considerando dados gerados por medidores de energia el´etrica
Conjunto de 400 usu´arios
Medida de ”similaridade”(S) entre usu´arios: distˆancia entre
os vetores que representem os seus consumos.
SO similaridade calculada nos dados originais
SP similaridade calculada nos dados projetados
E = |SO −SP |
S1
.100
Aplica¸c˜oes da Amostragem Compressiva
Erro na recupera¸c˜ao × Compress˜ao
Aplica¸c˜oes da Amostragem Compressiva
Tempo de processamento × Compress˜ao
Fontes de Informa¸c˜ao
Nuit Blanche blog (http://nuit-blanche.blogspot.com.br/)
DSP at Rice University (http://dsp.rice.edu/cs)
An Introduction to Compressive Sensing, Connexions.
Fontes de Informa¸c˜ao
Fontes de Informa¸c˜ao
Finalmente
Obrigado!
Edmar Candeia Gurj˜ao
ecandeia@dee.ufcg.edu.br

Mais conteúdo relacionado

Destaque

La Tierra un mosaico de paisajes!!!
La Tierra un mosaico de paisajes!!!La Tierra un mosaico de paisajes!!!
La Tierra un mosaico de paisajes!!!
guest1443a7
 
Tp gimnasia Aye Barberis
Tp gimnasia Aye BarberisTp gimnasia Aye Barberis
Tp gimnasia Aye Barberis
erikaraggio
 
Aplicativo mobile
Aplicativo mobileAplicativo mobile
Aplicativo mobile
BELOWE
 
Carreteras Del Mundo
Carreteras Del MundoCarreteras Del Mundo
Carreteras Del Mundo
guest047182b
 
Ciencias Naturales Y EducacióN Ambiental
Ciencias Naturales Y EducacióN AmbientalCiencias Naturales Y EducacióN Ambiental
Ciencias Naturales Y EducacióN Ambiental
AreadeArte
 
Lo S A Dh Es Iv Os
Lo S  A Dh Es Iv OsLo S  A Dh Es Iv Os
Lo S A Dh Es Iv Os
mayralore
 
Gestion incertidumbre-plan-estrategico
Gestion  incertidumbre-plan-estrategicoGestion  incertidumbre-plan-estrategico
Gestion incertidumbre-plan-estrategico
pplepiu
 

Destaque (20)

Correo Electronico Gmail
Correo Electronico GmailCorreo Electronico Gmail
Correo Electronico Gmail
 
La Tierra un mosaico de paisajes!!!
La Tierra un mosaico de paisajes!!!La Tierra un mosaico de paisajes!!!
La Tierra un mosaico de paisajes!!!
 
Tp gimnasia Aye Barberis
Tp gimnasia Aye BarberisTp gimnasia Aye Barberis
Tp gimnasia Aye Barberis
 
Aplicativo mobile
Aplicativo mobileAplicativo mobile
Aplicativo mobile
 
Carreteras Del Mundo
Carreteras Del MundoCarreteras Del Mundo
Carreteras Del Mundo
 
2 em 1mat_43a
2 em 1mat_43a2 em 1mat_43a
2 em 1mat_43a
 
AñO 7 Nº 24 Abril 1994
AñO 7 Nº 24 Abril 1994AñO 7 Nº 24 Abril 1994
AñO 7 Nº 24 Abril 1994
 
Ciencias Naturales Y EducacióN Ambiental
Ciencias Naturales Y EducacióN AmbientalCiencias Naturales Y EducacióN Ambiental
Ciencias Naturales Y EducacióN Ambiental
 
AñO 1 Nº 4 Diciembre 1988
AñO 1 Nº 4 Diciembre 1988AñO 1 Nº 4 Diciembre 1988
AñO 1 Nº 4 Diciembre 1988
 
AñO 4 Nº 16 Diciembre 1991
AñO 4 Nº 16 Diciembre 1991AñO 4 Nº 16 Diciembre 1991
AñO 4 Nº 16 Diciembre 1991
 
Facebook
FacebookFacebook
Facebook
 
Lo S A Dh Es Iv Os
Lo S  A Dh Es Iv OsLo S  A Dh Es Iv Os
Lo S A Dh Es Iv Os
 
Oficina de ideias_2
Oficina de ideias_2Oficina de ideias_2
Oficina de ideias_2
 
La dignidad
La dignidadLa dignidad
La dignidad
 
Compare Elearning 2007 Juan Acevedo MiñO
Compare Elearning 2007 Juan Acevedo MiñOCompare Elearning 2007 Juan Acevedo MiñO
Compare Elearning 2007 Juan Acevedo MiñO
 
Trabajo de seguridad en internet
Trabajo de seguridad en internetTrabajo de seguridad en internet
Trabajo de seguridad en internet
 
Presentación URL-RSU
Presentación URL-RSUPresentación URL-RSU
Presentación URL-RSU
 
ESPM - Ismael Rocha
ESPM - Ismael RochaESPM - Ismael Rocha
ESPM - Ismael Rocha
 
Gestion incertidumbre-plan-estrategico
Gestion  incertidumbre-plan-estrategicoGestion  incertidumbre-plan-estrategico
Gestion incertidumbre-plan-estrategico
 
Dih deyra
Dih deyraDih deyra
Dih deyra
 

Semelhante a Introdução à Amostragem Compressiva

Exercitandoaula2
Exercitandoaula2Exercitandoaula2
Exercitandoaula2
AlexGrift
 
Sistemas lineares
Sistemas linearesSistemas lineares
Sistemas lineares
con_seguir
 
Ger numaleat(1)
Ger numaleat(1)Ger numaleat(1)
Ger numaleat(1)
Iago Lira
 
Implementação mód4
Implementação   mód4 Implementação   mód4
Implementação mód4
inechidias
 
Implementação mód4 -
Implementação   mód4 - Implementação   mód4 -
Implementação mód4 -
inechidias
 

Semelhante a Introdução à Amostragem Compressiva (20)

Sistemas equacoes lineares
Sistemas equacoes linearesSistemas equacoes lineares
Sistemas equacoes lineares
 
Exercitandoaula2
Exercitandoaula2Exercitandoaula2
Exercitandoaula2
 
ajuste de curva
ajuste de curvaajuste de curva
ajuste de curva
 
Equação de Recorrência - I (Otimização)
Equação de Recorrência - I (Otimização)Equação de Recorrência - I (Otimização)
Equação de Recorrência - I (Otimização)
 
00 propserpot
00 propserpot00 propserpot
00 propserpot
 
Aplicações da equação de Schrödinger independente do tempo
Aplicações da equação de Schrödinger independente do tempoAplicações da equação de Schrödinger independente do tempo
Aplicações da equação de Schrödinger independente do tempo
 
Regressao linear multipla
Regressao linear multiplaRegressao linear multipla
Regressao linear multipla
 
Gabarito pa
Gabarito paGabarito pa
Gabarito pa
 
sistema.ppt
sistema.pptsistema.ppt
sistema.ppt
 
Sistemas lineares
Sistemas linearesSistemas lineares
Sistemas lineares
 
Sequencias e-series
Sequencias e-seriesSequencias e-series
Sequencias e-series
 
Apêndice eletro
Apêndice eletroApêndice eletro
Apêndice eletro
 
Aula 4 Profmat - Algoritmo de Euclides - MDC e MMC 25 08-17
Aula 4   Profmat - Algoritmo de Euclides - MDC e MMC 25 08-17Aula 4   Profmat - Algoritmo de Euclides - MDC e MMC 25 08-17
Aula 4 Profmat - Algoritmo de Euclides - MDC e MMC 25 08-17
 
Aman 2018
Aman 2018Aman 2018
Aman 2018
 
Revisao 2 2019.pdf
Revisao 2 2019.pdfRevisao 2 2019.pdf
Revisao 2 2019.pdf
 
Inteligência de Enxames: Abelhas
Inteligência de Enxames: AbelhasInteligência de Enxames: Abelhas
Inteligência de Enxames: Abelhas
 
Seqe
SeqeSeqe
Seqe
 
Ger numaleat(1)
Ger numaleat(1)Ger numaleat(1)
Ger numaleat(1)
 
Implementação mód4
Implementação   mód4 Implementação   mód4
Implementação mód4
 
Implementação mód4 -
Implementação   mód4 - Implementação   mód4 -
Implementação mód4 -
 

Último

A QUATRO MÃOS - MARILDA CASTANHA . pdf
A QUATRO MÃOS  -  MARILDA CASTANHA . pdfA QUATRO MÃOS  -  MARILDA CASTANHA . pdf
A QUATRO MÃOS - MARILDA CASTANHA . pdf
Ana Lemos
 
Considere a seguinte situação fictícia: Durante uma reunião de equipe em uma...
Considere a seguinte situação fictícia:  Durante uma reunião de equipe em uma...Considere a seguinte situação fictícia:  Durante uma reunião de equipe em uma...
Considere a seguinte situação fictícia: Durante uma reunião de equipe em uma...
azulassessoria9
 
GEOGRAFIA - COMÉRCIO INTERNACIONAL E BLOCOS ECONÔMICOS - PROF. LUCAS QUEIROZ.pdf
GEOGRAFIA - COMÉRCIO INTERNACIONAL E BLOCOS ECONÔMICOS - PROF. LUCAS QUEIROZ.pdfGEOGRAFIA - COMÉRCIO INTERNACIONAL E BLOCOS ECONÔMICOS - PROF. LUCAS QUEIROZ.pdf
GEOGRAFIA - COMÉRCIO INTERNACIONAL E BLOCOS ECONÔMICOS - PROF. LUCAS QUEIROZ.pdf
RavenaSales1
 
Slide - EBD ADEB 2024 Licao 02 2Trim.pptx
Slide - EBD ADEB 2024 Licao 02 2Trim.pptxSlide - EBD ADEB 2024 Licao 02 2Trim.pptx
Slide - EBD ADEB 2024 Licao 02 2Trim.pptx
edelon1
 
PROJETO DE EXTENSÃO I - TECNOLOGIA DA INFORMAÇÃO Relatório Final de Atividade...
PROJETO DE EXTENSÃO I - TECNOLOGIA DA INFORMAÇÃO Relatório Final de Atividade...PROJETO DE EXTENSÃO I - TECNOLOGIA DA INFORMAÇÃO Relatório Final de Atividade...
PROJETO DE EXTENSÃO I - TECNOLOGIA DA INFORMAÇÃO Relatório Final de Atividade...
HELENO FAVACHO
 
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
azulassessoria9
 
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
azulassessoria9
 
2° ANO - ENSINO FUNDAMENTAL ENSINO RELIGIOSO
2° ANO - ENSINO FUNDAMENTAL ENSINO RELIGIOSO2° ANO - ENSINO FUNDAMENTAL ENSINO RELIGIOSO
2° ANO - ENSINO FUNDAMENTAL ENSINO RELIGIOSO
LeloIurk1
 
421243121-Apostila-Ensino-Religioso-Do-1-ao-5-ano.pdf
421243121-Apostila-Ensino-Religioso-Do-1-ao-5-ano.pdf421243121-Apostila-Ensino-Religioso-Do-1-ao-5-ano.pdf
421243121-Apostila-Ensino-Religioso-Do-1-ao-5-ano.pdf
LeloIurk1
 

Último (20)

A QUATRO MÃOS - MARILDA CASTANHA . pdf
A QUATRO MÃOS  -  MARILDA CASTANHA . pdfA QUATRO MÃOS  -  MARILDA CASTANHA . pdf
A QUATRO MÃOS - MARILDA CASTANHA . pdf
 
Jogo de Rimas - Para impressão em pdf a ser usado para crianças
Jogo de Rimas - Para impressão em pdf a ser usado para criançasJogo de Rimas - Para impressão em pdf a ser usado para crianças
Jogo de Rimas - Para impressão em pdf a ser usado para crianças
 
PRÁTICAS PEDAGÓGICAS GESTÃO DA APRENDIZAGEM
PRÁTICAS PEDAGÓGICAS GESTÃO DA APRENDIZAGEMPRÁTICAS PEDAGÓGICAS GESTÃO DA APRENDIZAGEM
PRÁTICAS PEDAGÓGICAS GESTÃO DA APRENDIZAGEM
 
DeClara n.º 75 Abril 2024 - O Jornal digital do Agrupamento de Escolas Clara ...
DeClara n.º 75 Abril 2024 - O Jornal digital do Agrupamento de Escolas Clara ...DeClara n.º 75 Abril 2024 - O Jornal digital do Agrupamento de Escolas Clara ...
DeClara n.º 75 Abril 2024 - O Jornal digital do Agrupamento de Escolas Clara ...
 
About Vila Galé- Cadeia Empresarial de Hotéis
About Vila Galé- Cadeia Empresarial de HotéisAbout Vila Galé- Cadeia Empresarial de Hotéis
About Vila Galé- Cadeia Empresarial de Hotéis
 
Aula sobre o Imperialismo Europeu no século XIX
Aula sobre o Imperialismo Europeu no século XIXAula sobre o Imperialismo Europeu no século XIX
Aula sobre o Imperialismo Europeu no século XIX
 
Análise poema país de abril (Mauel alegre)
Análise poema país de abril (Mauel alegre)Análise poema país de abril (Mauel alegre)
Análise poema país de abril (Mauel alegre)
 
Considere a seguinte situação fictícia: Durante uma reunião de equipe em uma...
Considere a seguinte situação fictícia:  Durante uma reunião de equipe em uma...Considere a seguinte situação fictícia:  Durante uma reunião de equipe em uma...
Considere a seguinte situação fictícia: Durante uma reunião de equipe em uma...
 
PRÉDIOS HISTÓRICOS DE ASSARÉ Prof. Francisco Leite.pdf
PRÉDIOS HISTÓRICOS DE ASSARÉ Prof. Francisco Leite.pdfPRÉDIOS HISTÓRICOS DE ASSARÉ Prof. Francisco Leite.pdf
PRÉDIOS HISTÓRICOS DE ASSARÉ Prof. Francisco Leite.pdf
 
GEOGRAFIA - COMÉRCIO INTERNACIONAL E BLOCOS ECONÔMICOS - PROF. LUCAS QUEIROZ.pdf
GEOGRAFIA - COMÉRCIO INTERNACIONAL E BLOCOS ECONÔMICOS - PROF. LUCAS QUEIROZ.pdfGEOGRAFIA - COMÉRCIO INTERNACIONAL E BLOCOS ECONÔMICOS - PROF. LUCAS QUEIROZ.pdf
GEOGRAFIA - COMÉRCIO INTERNACIONAL E BLOCOS ECONÔMICOS - PROF. LUCAS QUEIROZ.pdf
 
Slide - EBD ADEB 2024 Licao 02 2Trim.pptx
Slide - EBD ADEB 2024 Licao 02 2Trim.pptxSlide - EBD ADEB 2024 Licao 02 2Trim.pptx
Slide - EBD ADEB 2024 Licao 02 2Trim.pptx
 
PROJETO DE EXTENSÃO I - Radiologia Tecnologia
PROJETO DE EXTENSÃO I - Radiologia TecnologiaPROJETO DE EXTENSÃO I - Radiologia Tecnologia
PROJETO DE EXTENSÃO I - Radiologia Tecnologia
 
PROJETO DE EXTENSÃO I - TECNOLOGIA DA INFORMAÇÃO Relatório Final de Atividade...
PROJETO DE EXTENSÃO I - TECNOLOGIA DA INFORMAÇÃO Relatório Final de Atividade...PROJETO DE EXTENSÃO I - TECNOLOGIA DA INFORMAÇÃO Relatório Final de Atividade...
PROJETO DE EXTENSÃO I - TECNOLOGIA DA INFORMAÇÃO Relatório Final de Atividade...
 
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: LEITURA DE IMAGENS, GRÁFICOS E MA...
 
"É melhor praticar para a nota" - Como avaliar comportamentos em contextos de...
"É melhor praticar para a nota" - Como avaliar comportamentos em contextos de..."É melhor praticar para a nota" - Como avaliar comportamentos em contextos de...
"É melhor praticar para a nota" - Como avaliar comportamentos em contextos de...
 
Projeto_de_Extensão_Agronomia_adquira_ja_(91)_98764-0830.pdf
Projeto_de_Extensão_Agronomia_adquira_ja_(91)_98764-0830.pdfProjeto_de_Extensão_Agronomia_adquira_ja_(91)_98764-0830.pdf
Projeto_de_Extensão_Agronomia_adquira_ja_(91)_98764-0830.pdf
 
Atividade - Letra da música Esperando na Janela.
Atividade -  Letra da música Esperando na Janela.Atividade -  Letra da música Esperando na Janela.
Atividade - Letra da música Esperando na Janela.
 
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
PROVA - ESTUDO CONTEMPORÂNEO E TRANSVERSAL: COMUNICAÇÃO ASSERTIVA E INTERPESS...
 
2° ANO - ENSINO FUNDAMENTAL ENSINO RELIGIOSO
2° ANO - ENSINO FUNDAMENTAL ENSINO RELIGIOSO2° ANO - ENSINO FUNDAMENTAL ENSINO RELIGIOSO
2° ANO - ENSINO FUNDAMENTAL ENSINO RELIGIOSO
 
421243121-Apostila-Ensino-Religioso-Do-1-ao-5-ano.pdf
421243121-Apostila-Ensino-Religioso-Do-1-ao-5-ano.pdf421243121-Apostila-Ensino-Religioso-Do-1-ao-5-ano.pdf
421243121-Apostila-Ensino-Religioso-Do-1-ao-5-ano.pdf
 

Introdução à Amostragem Compressiva

  • 1. Introdu¸c˜ao `a Amostragem Compressiva Edmar Candeia Gurj˜ao Departmento de Engenharia El´etrica Universidade Federal de Campina Grande ecandeia@dee.ufcg.edu.br 01 de setembro de 2013
  • 2. Apresenta¸c˜ao Edmar Candeia Gurj˜ao Professor do Departamento de Engenharia El´etrica da Universidade Federal de Campina Grande - PB ´Areas de Interesse: Amostragem Compressiva R´adio Definido por Software
  • 3. Sum´ario 1. Introdu¸c˜ao 2. Amostragem Compressiva 3. Aplica¸c˜oes 4. Desafios 5. Fontes de Informa¸c˜ao
  • 4. Introdu¸c˜ao Quantidade de dados gerada pelos seres humanos tem crescido de forma exponencial: A quantidade de dados gerada no mundo cresce 58% por ano Em 2010 foram gerados 1250 bilh˜oes de Gigabytes de dados Mais bits que estrelas no universo. A quantidade de armazenamento cresce a 40% ao ano. Dependendo da resolu¸c˜ao e do padr˜ao de grava¸c˜ao escolhidos, as imagens obtidas por uma cˆamera digital tem pixels descartados. Componentes em certas frequˆencias s˜ao eliminadas em muitos padr˜oes de ´audio Donoho, Cand`es e Tao: Porque n˜ao capturar somente os dados de interesse (informa¸c˜ao)?
  • 5. Introdu¸c˜ao Teorema de Nyquist: um sinal x(t) limitado em frequˆencia, |X(f )| = 0, |f | > FM, ´e univocamente determinado por suas amostras x(nTS ), n = 0, ±1, ±2, ... desde que Fs = 2 Ts ≥ 2FM. Leva em considera¸c˜ao somente o conte´udo espectral, e n˜ao a informa¸c˜ao contida no sinal. Aplica-se a qualquer classe de sinais.
  • 6. Introdu¸c˜ao Alternativa para reduzir a quantidade de dados: sub-amostrar: Pode-se perder muita informa¸c˜ao.
  • 7. Introdu¸c˜ao - Sinal Esparso Uma representa¸c˜ao esparsa para um sinal x de comprimento N tem S << N coeficientes diferentes de zero. Ex. seno: tempo × frequˆencia −8 −6 −4 −2 0 2 4 6 8 n −1.5 −1.0 −0.5 0.0 0.5 1.0 1.5 cos(n) (a) −8 −6 −4 −2 0 2 4 6 8 N −20 0 20 40 60 80 100 120 140 Amplitude (b)
  • 8. Introdu¸c˜ao - Sinal Esparso Ressonˆancia Magn´etica e sua Transformada de Fourier
  • 9. Introdu¸c˜ao - Coerˆencia Dado um par de bases ortonormais, (Φ, A), tem-se µ(Φ, A) = √ N. max 1≤k,j≤N |< φk, aj >|, a medida de coerˆencia, e µ(Φ, A) ∈ [1, √ N]. µ = 1 matrizes incoerentes µ = √ N matrizes coerentes
  • 10. Amostragem Compressiva - Coerˆencia Sendo Φ e A ortonormais, vamos fazer as linhas de A iguais as primeiras M colunas de Φ, ou seja A =      φ1,1 φ2,1 · · · φN,1 φ1,2 φ2,2 · · · φN,2 ... ... ... ... φ1,M φ2,M · · · φN,M      e AΦ =      1 0 0 · · · 0 1 0 · · · ... ... ... 0 0 1 · · ·      logo µ(Φ, A) = √ N e as matrizes tem alta coerˆencia.
  • 11. Introdu¸c˜ao - Defini¸c˜ao de norma de um vetor Norma lp de um vetor ( x p)p = N i=1 |xi|p A norma l0 conta o n´umero de elementos n˜ao zero no vetor, ou seja, o seu suporte. Seja x = (x1, x2) (c) Norma l1 (d) Norma l2
  • 12. Introdu¸c˜ao - Princ´ıpio da Incerteza Seja α a representa¸c˜ao de um vetor x na base Φ e β a sua representa¸c˜ao na base A, ent˜ao mostra-se que ||α||0 + ||β||0 ≥ 2 µ(Φ, A) N˜ao ´e poss´ıvel obter simultaneamente uma representa¸c˜ao esparsa do mesmo sinal em dois dom´ınios distintos.
  • 13. Sinais Compress´ıveis A melhor aproxima¸c˜ao com S-termos de um sinal ´e obtida mantendo os maiores S coeficientes, e o erro ser´a dado por σS = arg min α∈σS ||x − Φα||2 Para sinais compress´ıveis σk ≤ C2S1/2−s
  • 14. Sinais Compress´ıveis Uma representa¸c˜ao compress´ıvel aproxima bem um sinal com S coeficientes diferentes de zero. (e) 0 200 400 600 800 1000 1200 N 0.00 0.05 0.10 0.15 0.20 0.25 0.30 0.35 PixelAmplitude (f) Usando somente os valores e as posi¸c˜oes diferentes de zero pode-se obter uma representa¸c˜ao com alta fidelidade. Fundamento para a codifica¸c˜oes por transformada: JPEG, JPEG2000, MPEG, MP3, etc.
  • 15. Amostragem Compressiva Amostragem Compressiva (Compressed Sensing, Compressed Sampling, Compressive Sensing) surguiu como um framework para obter representa¸c˜oes bem mais compactas de sinais esparsos ou compress´ıveis do que as obtidas baseando-se no Teorema de Nyquist. Ideia b´asica ´e fazer proje¸c˜oes em espa¸cos de dimens˜oes menores e, quando necess´ario, recuperar usando otimiza¸c˜ao. N˜ao ´e uma ideia nova: em outros contextos h´a aplica¸c˜oes que datam de 1795.
  • 16. Amostragem Compressiva Sinal esparso x ∈ RN x ´e S-eparso: {i : xi = 0} tem tamanho igual ou menor que S Conjunto de medidas (proje¸c˜oes) y dadas por ym = x, am , m = 1, ..., M. am vetores utilizados para as medi¸c˜oes Nota¸c˜ao matricial y = Ax.      y1 y2 ... yM      =      a11 a12 · · · a1N a21 a22 · · · a2N ... ... ... ... aM1 aM2 · · · aMN      ×      x1 x2 ... xN     
  • 17. Sistemas Lineares Se fizermos M = N: y = A × x yM ... y2 y1 = aM,1 ... a2,1 a1,1 . . . . . . . . . aM,N ... a2,N a1,N × xN ... x2 x1
  • 18. Sistemas Lineares Se fizermos M > N: y = A × x yM ... ... y2 y1 = aM,1 ... ... a2,1 a1,1 . . . . . . . . . aM,N ... ... a2,N a1,N × xM ... x2 x1
  • 19. Sistemas Lineares Se fizermos M < N: y = A × x yM ... y2 y1 = aM,1 ... a2,1 a1,1 . . . . . . . . . aM,N ... a2,N a1,N × xN ... x4 x3 x2 x1
  • 20. Sistema Linear × representa¸c˜ao de sinais Voltemos ao sistema linear:    y1 ... yM    =    a11 a12 · · · a1N ... ... ... ... aM1 aM2 · · · aMN    ×    x1 ... xN    Ap´os a multiplica¸c˜ao, observando somente a primeira linha: y1 = a11x1 + a12x2 + ... + a1NxN y1 carrega informa¸c˜oes sobre todos os xi , ponderados pelos respectivos a1i . Se soubermos N pondera¸c˜oes, podemos determinar os xi . Se tivermos, ou pudermos fazer N > M combina¸c˜oes, podemos proteger os xi contra erros. Nesses casos pode-se recuperar fazendo x = [AT A]−1AT y.
  • 21. Amostragem Compressiva Caso de interesse M < N Menos medidas que valores do sinal (compress˜ao) y = Ax tem mais inc´ognitas que equa¸c˜oes pode n˜ao ter solu¸c˜ao, ou ter infinitas solu¸c˜oes. Vamos considerar que a matriz A ´e de rank completo, ou seja suas colunas alcan¸cam (span) todo o espa¸co RN , ´Oraculo que indique as posi¸c˜oes em que o vetor x ´e nulo, conjunto S. Pode-se formar a matriz AS somente com as colunas indicadas por S e resolver xS = [AT S AS]−1AT S y. Sem ´oraculo em com x esparso: m´etodo de busca. Solu¸c˜ao pelo ´oraculo servir´a de referˆencia.
  • 22. Amostragem Compressiva Norma lp de um vetor ( x p)p = N i=1 |xi|p A norma l0 conta o n´umero de elementos n˜ao zero no vetor, ou seja, o seu suporte. Pode-se recuperar o sinal x a partir das medi¸c˜oes y resolvendo o problema de otimiza¸c˜ao (P0) min ˜x∈Rn || ˜x ||l0 sujeito a A˜x = y, A solu¸c˜ao desse problema envolve uma busca nos N S poss´ıveis suportes.
  • 23. Amostragem Compressiva Busca nos N S poss´ıveis suportes. Quanto mais esparso o sinal (menor o valor de S) para um mesmo N, pior. Exemplo: [Livro Elad] Para M = 500 e N = 2000, se o sinal tem S = 20 n˜ao zeros, tem-se N S ≈ 3, 9 × 1047 Problema NP-completo.
  • 24. Amostragem Compressiva Alternativa ao problema P0: A norma l1 coincide com a norma l0 dado que algumas condi¸c˜oes sejam satisfeitas. Tomando M ≥ S log2(N/S) << N recupera-se o sinal original resolvendo o problema (P1) min ˜x∈Rn || ˜x ||l1 sujeito a A˜x = y, Como escolher o valor de M? Erro m´ınimo na recupera¸c˜ao: E||˜x − x||2 < Para x = (x1, x2) (g) Norma l1 (h) Norma l2
  • 25. Amostragem Compressiva Espa¸co nulo de uma matriz: N(A) = {x : Ax = 0}. Vetores S-eparsos ser˜ao escritos como Ax, logo x e x ambos S-esparsos deveremos ter Ax = Ax , ou ainda A(x − x ) = 0 Como x − x pertence ao conjunto de vetores 2S-esparsos, Condi¸c˜ao do espa¸co nulo (Null space condition): Para que seja poss´ıvel recuperar um vetor S-esparso a partir de Ax, N(A) n˜ao deve conter vetores 2S-esparsos.
  • 26. Amostragem Compressiva Caso o sinal z n˜ao seja esparso: aplicar alguma transforma¸c˜ao Φ e obter uma representa¸c˜ao x = Φz que seja esparsa Φ ortonormal, φΦH = φHΦ = I, sendo ΦH o hermitiano transposto (i) Lena (j) Coeficientes DWT
  • 27. Amostragem Compressiva Em seguida usar uma matriz A para comprimir o sinal. Entretanto, as linhas {φj } de Φ n˜ao podem ser esparsamente representadas pelas colunas {ai } of A (ou vice-versa). Dado um par de bases ortonormais, (Φ, A), tem-se µ(Φ, A) = √ n. max 1≤k,j≤N |< φk, aj >|, a medida de coerˆencia, µ(Φ, A) ∈ [1, √ N].
  • 28. Amostragem Compressiva Matrizes Φ e A devem ser incoerentes, ou seja, µ(Φ, A) = 1 Matriz cujos elementos tem distribui¸c˜ao Gaussiana ´e incoerente a qualquer outra base. Problema pr´atico: como gerar a mesma matriz na compress˜ao e na descompacta¸c˜ao?
  • 29. Amostragem Compressiva Duas tarefas principais: Projetar uma boa matriz de medi¸c˜ao: alta compress˜ao mantendo a informa¸c˜ao e criando robustez contra erros. Projetar um bom algoritmo de reconstru¸c˜ao: rapidez, baixo custo computacional e robustez contra erros.
  • 30. Amostragem Compressiva Matriz A que permite a recupera¸c˜ao do vetor S-esparso v e para um δS > 0 ´e que (1 − δS )||v||2 2 ≤ ||Av ||2 2≤ (1 + δS )||v||2 2. Conhecida como propriedade de isometria restrita (em inglˆes restricted isometry property (RIP)). A RIP de ordem 2S para dois sinais S-esparsos, x1 e x2: (1 − δ2S ) ≤ Ax1 − Ax2 2 l2 x1 − x2 2 l2 ≤ (1 + δ2S ). (1)
  • 31. Amostragem Compressiva A obten¸c˜ao de matrizes que obede¸cam a RIP ainda ´e objeto de estudos Por´em selecionando as entradas de A como vari´aveis aleat´orias com m´edia zero e variˆancia 1/N, obt´em-se uma matriz de medi¸c˜ao universal, que tem as seguintes propriedades: ´e incoerente com a base Φ = I, e ´e universal no sentido que Θ = ΦA ser´a Gaussiana e i.i.d independente da base ortonormal Φ.
  • 32. Amostragem Compressiva - Ru´ıdo Ru´ıdo atinge o sinal j´a a mostrado, ou seja, o sinal original deve ser recuperado a partir das amostras y = Ax + n sendo n um ru´ıdo, ou Ru´ıdo aparece durante a amostragem, ou seja, y = A{x + z} + n conhecido como noise folding.
  • 33. Amostragem Compressiva - Ru´ıdo Primeiro caso (ru´ıdo adicionado ao sinal amostrado): Na presen¸ca de ru´ıdo y = Ax + z (P2) min ˜x∈RN || ˜x ||l1 sujeito a ||A˜x − y||2 ≤ , Para um ru´ıdo Gaussiano com variˆancia σ2: Solu¸c˜ao pelo or´aculo (conhecimento das posi¸c˜oes diferentes de zero): E||xOracle − x||2 = Mσ2 . Seletor Dantzig estima ˆxDS com erro m´edio quadr´atico dado por: 1 N E ˆxDS − x 2 2 ≥ C S M log(N)σ2 (2)
  • 34. Amostragem Compressiva - Ru´ıdo Segundo caso (ru´ıdo adicionado durante amostragem): y = A{x + z} + n (3) n ru´ıdo de medi¸c˜ao, z como um ru´ıdo associado ao sinal com co-variˆancia σ2 0I: y = Bx + u B uma matriz com RIP pr´oxima ao da matriz A, e u um ru´ıdo branco de m´edia zero e co-variˆancia (σ2 + N M σ2 0)I. Como M << N, a compress˜ao aumenta a variˆancia do ru´ıdo, fato denominado de noise folding.
  • 35. Amostragem Compressiva - Ferramental Matriz Gaussiana AM×N Obter as medidas yN = Ax. Recupera-se os sinal usando minimiza¸c˜ao da norma l1: 1. Relaxa¸c˜ao convexa (Convex relaxation) utiliza¸c˜ao um problema de otimiza¸c˜ao convexa para recuperar o sinal esparso. 2. Busca Gulosa: algoritmos que fazem a busca uma aproxima¸c˜ao esparsa pela busca de coeficientes que fornecem a melhor representa¸c˜ao. 3. Framework Bayesiano (Bayesian framework) assume uma distribui¸c˜ao a priori do sinal esparso e utilizando estima¸c˜ao recupera os sinal esparso. 4. Otimiza¸c˜ao n˜ao-convexa (Nonconvex optimization) utiliza m´etodos de otimiza¸c˜ao n˜ao convexa para recuperar o sinal esparso. 5. Combinatoriais fazem um busca sobre todos os poss´ıveis conjuntos de suporte para determinar em quais deles est˜ao os coeficientes do sinal esparso.
  • 36. M´etodos Baseados em Otimiza¸c˜ao Convexa De forma geral parte-se de um fun¸c˜ao de custo J(x) que ´e pequena para x esparso, e busca-se resolver min ˆx {J(ˆx) : y = Aˆx} Usando J(x) = ||x||1 ´e comum usar Programa¸c˜ao Linear. Exemplo mais comum l1 magic.
  • 37. M´etodos de Otimiza¸c˜ao Partindo do problema b´asico da minimiza¸c˜ao da norma l1 : min ˜x∈Rn || ˜x ||1 sujeito a A˜x = y, escreve-se o problema de otimiza¸c˜ao min ˜x∈Rn 1 2 || A˜x − y ||2 2 +τ||bfx||1, sendo τ um parˆametro de regulariza¸c˜ao cujo valor governa a esparsidade da solu¸c˜ao, desenvolveram-se v´arios algoritmos: l1l s, Fixed-Point Continuation, etc..
  • 38. Dantzig Selector Estima¸c˜ao de um parˆametro x ∈ RN das observa¸c˜oes ruidosas y ∈ RM, quando M << N, e ru´ıdo Gaussiano n ∼ N(0, σ2 nIM). min ˜y∈RN ||ˆy||l1 sujeito a ||A∗ r||l∞ = sup i≤i≤N |(A∗ r)i | ≤ λp · σ (4) para algum λp > 0, e o vetor de res´ıduos r = y − A˜y. |(A∗r)i | ≤ λN · σ for i = 1, ..., N: res´ıduos no n´ıvel de ru´ıdo. Dado o sinal esparso S e a matriz Gaussiana com entradas i.i.d., o n´umero de medidas ´e dada por:M = S · log(p/S).
  • 39. M´etodos de Busca Gulosa M´etodo de persegui¸c˜ao (pursuit): consiste em refinar a estimativa de um vetor pela modifica¸c˜ao de um ou mais de seus componentes e escolher a modifica¸c˜ao que melhora a representa¸c˜ao do sinal. Basis Pursuit Matching Pursuit Orthogonal Matching Pursuit
  • 40. Matching Pursuit Dada a representa¸c˜ao compacta y, a matriz A, faz-se o res´ıduo r0 = y e com os passos: λk = arg max λ < rk, ak > ak ||ak||2 rk = rk−1 − < rk, aλk > aλk ||aλk ||2 e ˆxλk = ˆxλk + < rk−1, aλk > Crit´erio de parada: norma do res´ıduo muito pequena.
  • 41. Orthogonal Matching Pursuit Entradas: Uma matriz, de medi¸c˜ao Φ, N × d Um vetor N-dimensional v de dados O n´ıvel m de esparsidade do sinal ideal Sa´ıdas: Uma estimativa ˆs em Rd do sinal ideal Um conjunto Λm contendo m elementos de {1, ..., d} Uma aproxima¸c˜ao N dimensional am do vetor v Um res´ıduo N dimensional rm = v − am
  • 42. Orthogonal Matching Pursuit Inicializa¸c˜ao: Fa¸ca r0 = v, Λ0 = ∅, e o contador de inicializa¸c˜ao t = 1 Itera¸c˜ao: Enquanto t < m fa¸ca 1. Encontre o ´ındice λt que resolve o problema de otimiza¸c˜ao λt = arg max j=1,...,d < rt−1, ϕj > 2. Amplie o conjunto ´ındice e a matriz com os ´atomos escolhidos: Λt = Λt−1 ∪ {λt } e Ωt = [Ωt−1 ϕλt ]. Inicie com Ω0 como a matriz vazia. 3. Resolva o problema dos m´ınimos quadrados para obter a nova estimativa do sinal xt = arg min x ||v − Φtx||2 4. Calcule a nova aproxima¸c˜ao dos dados e o novo res´ıduo at = Φt xt e rt = v − at 5. Incremente t.
  • 43. M´etodos Combinatoriais An´alise das poss´ıveis representa¸c˜oes dos sinais. Complexidade maior do que os algoritmos de persegui¸c˜ao Dependendo da rela¸c˜ao entre a esparsidade e o tamanho do sinal, d˜ao respostas mais adequadas que os demais. Exemplo: dados N items como determinar S com defeito? Teste de grupos: aplica-se o teste a um grupo de L elementos, caso haja erro, esse grupo ´e subdividido. Aplica¸c˜ao na detec¸c˜ao de doen¸cas durante a guerra. .
  • 44. M´etodos Combinatoriais × Algoritmos de Busca Transi¸c˜ao de fase (phase transition) [Donoho e Tanner]: limiar entre a compress˜ao obtida e a esparsidade de um sinal. Determina regi˜ao em que deve-se usar os algoritmos de busca ou combinacionais. (k) Observer Universality of Phase Transition. Donho e Tanner (l) Fonte: Nuit Blanche
  • 45. Amostragem Compressiva - Hardware Objetivo: Convers˜ao do sinal no dom´ınio anal´ogico para o dom´ınio digital por´em capturando apenas a informa¸c˜ao Conversores Anal´ogicos para Informa¸c˜ao, ou AIC do inglˆes Analog to Information Converter. Sinal x(t), t ∈ [0, T], um conjunto de fun¸c˜oes teste {φ(t)}M j=1, e realizar M medi¸c˜oes da forma y[j] = T 0 x(t)φj (t)dt. (5) Para construir esse sistema de medi¸c˜ao devemos ter trˆes componentes hardware para gerar sinais de teste φj (t) M correlatores que multipliquem o sinal x(t) com cada um dos φj (t) M integradores com um estado inicial com valor zero.
  • 46. Amostragem Compressiva - Modulador Aleat´orio x(t) ´e correlacionado com uma sequˆencia de pulsos aleat´orios ±1, que alterna entre os valores numa taxa de Nyquist NaHz proporcional `a taxa de Nyquist de x(t). Sinal misturado ´e integrado em um per´ıodo de tempo de 1/Ma e amostrado por um ADC de taxa MaHz << NaHz, o que fornece: y[j] = j/Ma (j−1)/Ma pc(t)x(t)dt. (6)
  • 47. Amostragem Compressiva Denotando pc[n] como a sequˆencia de s´ımbolos ±1 usada para gerar pc(t), temos que pc(t) = pc[n], t ∈ [(n − 1)/Na, 1/Na], e como exemplo seja j = 1, temos y[1] = 1/Ma 0 pc(t)x(t)dt = Na/Ma 0 pc[n] 1/Ma 0 x(t)dt (7) e como Na ´e a taxa de Nyquist de x(t) ent˜ao 1/Ma 0 x(t)dt ´e a m´edia de x(t) no n-´esimo intervalo, que pode ser denotado por x[n], o que nos leva a y[1] = Na/Ma n=1 pc[n]x[n]. (8)
  • 48. Amostragem Compressiva - NUS Amostrador n˜ao uniforme (non-uniform sampler - NUS): mant´em somente uma parte das amostras.
  • 49. Amostragem Compressiva - Xampling Baseia-se na uni˜ao de subespa¸cos para determinar em qual dos subespa¸cos as amostras do sinal est˜ao e em seguida utilizar um conversor AD comercial para digitalizar o sinal.
  • 50. Amostragem Compressiva - Propriedades Amostragem Aleat´oria A amostragem se d´a pela multiplica¸c˜ao por uma matriz pseudo-aleat´oria que pode ser gerada por uma semente, que pode ser encarada como uma chave criptogr´afica. Robustez a Erros A perda de amostras do sinal comprimido n˜ao gera a perda total do sinal reconstru´ıdo, pois pode ser encarada apenas como uma redu¸c˜ao do n´umero de amostras do sinal. Universalidade O projeto do codificador leva em conta a esparsidade do sinal, e n˜ao sua banda de frequˆencia, sinais com o mesmo n´ıvel de esparsidade podem ser amostrados com o mesmo codificador, independente da natureza do sinal. Complexidade Reversa O codificador ´e extremamente simples. Isso possibilita a aplica¸c˜ao de compress˜ao onde existe limita¸c˜ao de hardware, como em redes de sensores sem fio.
  • 51. Amostragem Compressiva – Aplica¸c˜oes de maior destaque
  • 52. Amostragem Compressiva – Aplica¸c˜oes de maior destaque
  • 53. Amostragem Compressiva – Imagens em terahertz Ondas em Terahertz (0,3 a 10 THz,) pentram barreiras como roupas e pl´astico. Podem ser usadas em seguran¸ca para revelar, de forma n˜ao destrutiva, objetos escondidos Dependendo da resolu¸c˜ao, pode levar horas para obter uma imagem.
  • 54. Amostragem Compressiva – Imagens em terahertz
  • 55. Amostragem Compressiva – Imagens em terahertz
  • 56. Amostragem Compressiva – Corre¸c˜ao de Erros Vetor de informa¸c˜ao x de tamanho N, uma matriz de codifica¸c˜ao AM×N e o vetor c´odigo y = Ax. No caso da codifica¸c˜ao para controle de erros, ser´e feito M > N, pois o objetivo aqui ´e introduzir redundˆancia. O vetor c´odigo y ´e corrompido por um ru´ıdo e gerando o vetor yr = Ax + e, sendo e um vetor esparso arbitr´ario de tamanho M com ||e||0 ≤ ρM sendo ρ < 1. Para reconstruir x deve-se reconstruir e pois y = ax + e fornece Ax e consequentemente x pois A ´e uma matriz de rank completo. Obtendo uma matriz F tal que FA = 0 pode-se fazer y = F(Ax + e) = Fe e o problema se reduz a reconstruir o vetor esparso e a partir de Fe.
  • 57. Amostragem Compressiva – Corre¸c˜ao de Erros Outra maneira ´e resolver o problema de otimiza¸c˜ao min g∈RN || y − Ag ||l1 . pois sendo g = f + h chega-se a min g∈RN || e − Ah ||l1 . Os autores estabelecem o tamanho m´aximo do suporte de vetor de erros e para o qual a minimiza¸c˜ao ´e ´unica.
  • 58. Processamento de Sinais no Dom´ınio Comprimido A opera¸c˜ao Ax ´e Linear Obedecendo a RIP as propriedades dos sinais se mant´em Parˆametros podem ser medidos na representa¸c˜ao comprimida, y = Ax. Algumas classes de processamento n˜ao necessitam recuperar o sinal original: inferˆencia, classifica¸c˜ao, estima¸c˜ao e detec¸c˜ao de parˆametros.
  • 59. Aplica¸c˜oes da Amostragem Compressiva Compress˜ao de ´audio M´usica → MDCT → Comprimir usando Amostragem compressiva → Recuperar → Medida de distor¸c˜ao Qualidade Perceptual Interpreta¸c˜ao -5 a -4 Diferen¸ca percept´ıvel e muito desagrad´avel -4 a -3 Diferen¸ca percept´ıvel e desagrad´avel -3 a -2 Diferen¸ca percept´ıvel e levemente desagrad´avel -2 a -1 Diferen¸ca percept´ıvel mas n˜ao desagrad´avel -1 a 0 Diferen¸ca impercept´ıvel
  • 60. Aplica¸c˜oes da Amostragem Compressiva 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5 −4 −3.5 −3 −2.5 −2 −1.5 −1 −0.5 0 Taxa de Compressão QualidadePerceptualMédia Comparação entre CODECs comuns e ACS MP2 MP3 AAC OGG ACS Figura: CODECs comuns e ACS
  • 61. Aplica¸c˜oes da Amostragem Compressiva Jhonson-Lindenstrauss Lemma: para um conjunto de N pontos em M dimens˜oes ´e poss´ıvel encontrar uma proje¸c˜ao aleat´oria f : RN×D → RN×M com M = log N 2 Considere uma cole¸c˜ao de N objetos cada um com D dimens˜oes representado no instante n por uma matriz X(n) = [x1(n) x2(n) ... xN(n)]T e atualizados de forma ass´ıncrona com ∆(n + 1) = (i, j, vn+1) que informa a atualiza¸c˜ao da linha i, coluna j com o valor v.
  • 62. Aplica¸c˜oes da Amostragem Compressiva Atualiza¸c˜oes na matriz X(n) ∈ Rn×d podem ser vistas como: xi,j (n) = xi,j (n − 1) + vn e em uma nota¸c˜ao matricial X(n) = X(n − 1) + V(n) sendo V(n) = Vmn(n) = vnδi,mδj,n.
  • 63. Aplica¸c˜oes da Amostragem Compressiva Se considerarmos A(0) = 0 temos A(n) = n i=1 V(i). Usando a matriz R ∈ RD×M podemos escrever o esbo¸co da matriz A(n) usando a proje¸c˜ao S(n) = A(n) · R e S(n) = n i=1 V(n)R. As atualiza¸c˜oes podem ser feitas considerando S(n + 1) = n+1 i=1 V(n)R = n i=1 V(n)R + V(n + 1)R ent˜ao para atualizar os esbo¸cos pode-se projetar a atualiza¸c˜ao sobre a matriz R.
  • 64. Aplica¸c˜oes da Amostragem Compressiva Esbo¸co de uma atualiza¸c˜ao pode ser vista como V(n)R = [0 ...v(n) ...0]T [r1 r2 ... rN] = v(n)         0 0 ... 0 ... ... · · · ... rj,1 rj,2 · · · rj,k ... ... · · · ... 0 0 ... 0         ent˜ao a atualiza¸c˜ao dos esbo¸cos consiste em multiplicar o valore da autaliza¸c˜ao pela linha ad matriz de proje¸c˜ao.
  • 65. Aplica¸c˜oes da Amostragem Compressiva Considerando dados gerados por medidores de energia el´etrica Conjunto de 400 usu´arios Medida de ”similaridade”(S) entre usu´arios: distˆancia entre os vetores que representem os seus consumos. SO similaridade calculada nos dados originais SP similaridade calculada nos dados projetados E = |SO −SP | S1 .100
  • 66. Aplica¸c˜oes da Amostragem Compressiva Erro na recupera¸c˜ao × Compress˜ao
  • 67. Aplica¸c˜oes da Amostragem Compressiva Tempo de processamento × Compress˜ao
  • 68. Fontes de Informa¸c˜ao Nuit Blanche blog (http://nuit-blanche.blogspot.com.br/) DSP at Rice University (http://dsp.rice.edu/cs) An Introduction to Compressive Sensing, Connexions.