Your SlideShare is downloading. ×
Introdução à Amostragem Compressiva
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×
Saving this for later? Get the SlideShare app to save on your phone or tablet. Read anywhere, anytime – even offline.
Text the download link to your phone
Standard text messaging rates apply

Introdução à Amostragem Compressiva

365
views

Published on

Slides apresentados durante o minicurso Introdução à Amostragem Compressiva, no Simpósio Brasileiro de Telecomunicações. Maiores detalhes no livro Telecomunicações: Teoria, Avanços e Aplicações. ISBN …

Slides apresentados durante o minicurso Introdução à Amostragem Compressiva, no Simpósio Brasileiro de Telecomunicações. Maiores detalhes no livro Telecomunicações: Teoria, Avanços e Aplicações. ISBN 978-85-89748-08-7.

Published in: Education

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total Views
365
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
12
Comments
0
Likes
0
Embeds 0
No embeds

Report content
Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
No notes for slide

Transcript

  • 1. Introdu¸c˜ao `a Amostragem Compressiva Edmar Candeia Gurj˜ao Departmento de Engenharia El´etrica Universidade Federal de Campina Grande ecandeia@dee.ufcg.edu.br 01 de setembro de 2013
  • 2. Apresenta¸c˜ao Edmar Candeia Gurj˜ao Professor do Departamento de Engenharia El´etrica da Universidade Federal de Campina Grande - PB ´Areas de Interesse: Amostragem Compressiva R´adio Definido por Software
  • 3. Sum´ario 1. Introdu¸c˜ao 2. Amostragem Compressiva 3. Aplica¸c˜oes 4. Desafios 5. Fontes de Informa¸c˜ao
  • 4. Introdu¸c˜ao Quantidade de dados gerada pelos seres humanos tem crescido de forma exponencial: A quantidade de dados gerada no mundo cresce 58% por ano Em 2010 foram gerados 1250 bilh˜oes de Gigabytes de dados Mais bits que estrelas no universo. A quantidade de armazenamento cresce a 40% ao ano. Dependendo da resolu¸c˜ao e do padr˜ao de grava¸c˜ao escolhidos, as imagens obtidas por uma cˆamera digital tem pixels descartados. Componentes em certas frequˆencias s˜ao eliminadas em muitos padr˜oes de ´audio Donoho, Cand`es e Tao: Porque n˜ao capturar somente os dados de interesse (informa¸c˜ao)?
  • 5. Introdu¸c˜ao Teorema de Nyquist: um sinal x(t) limitado em frequˆencia, |X(f )| = 0, |f | > FM, ´e univocamente determinado por suas amostras x(nTS ), n = 0, ±1, ±2, ... desde que Fs = 2 Ts ≥ 2FM. Leva em considera¸c˜ao somente o conte´udo espectral, e n˜ao a informa¸c˜ao contida no sinal. Aplica-se a qualquer classe de sinais.
  • 6. Introdu¸c˜ao Alternativa para reduzir a quantidade de dados: sub-amostrar: Pode-se perder muita informa¸c˜ao.
  • 7. Introdu¸c˜ao - Sinal Esparso Uma representa¸c˜ao esparsa para um sinal x de comprimento N tem S << N coeficientes diferentes de zero. Ex. seno: tempo × frequˆencia −8 −6 −4 −2 0 2 4 6 8 n −1.5 −1.0 −0.5 0.0 0.5 1.0 1.5 cos(n) (a) −8 −6 −4 −2 0 2 4 6 8 N −20 0 20 40 60 80 100 120 140 Amplitude (b)
  • 8. Introdu¸c˜ao - Sinal Esparso Ressonˆancia Magn´etica e sua Transformada de Fourier
  • 9. Introdu¸c˜ao - Coerˆencia Dado um par de bases ortonormais, (Φ, A), tem-se µ(Φ, A) = √ N. max 1≤k,j≤N |< φk, aj >|, a medida de coerˆencia, e µ(Φ, A) ∈ [1, √ N]. µ = 1 matrizes incoerentes µ = √ N matrizes coerentes
  • 10. Amostragem Compressiva - Coerˆencia Sendo Φ e A ortonormais, vamos fazer as linhas de A iguais as primeiras M colunas de Φ, ou seja A =      φ1,1 φ2,1 · · · φN,1 φ1,2 φ2,2 · · · φN,2 ... ... ... ... φ1,M φ2,M · · · φN,M      e AΦ =      1 0 0 · · · 0 1 0 · · · ... ... ... 0 0 1 · · ·      logo µ(Φ, A) = √ N e as matrizes tem alta coerˆencia.
  • 11. Introdu¸c˜ao - Defini¸c˜ao de norma de um vetor Norma lp de um vetor ( x p)p = N i=1 |xi|p A norma l0 conta o n´umero de elementos n˜ao zero no vetor, ou seja, o seu suporte. Seja x = (x1, x2) (c) Norma l1 (d) Norma l2
  • 12. Introdu¸c˜ao - Princ´ıpio da Incerteza Seja α a representa¸c˜ao de um vetor x na base Φ e β a sua representa¸c˜ao na base A, ent˜ao mostra-se que ||α||0 + ||β||0 ≥ 2 µ(Φ, A) N˜ao ´e poss´ıvel obter simultaneamente uma representa¸c˜ao esparsa do mesmo sinal em dois dom´ınios distintos.
  • 13. Sinais Compress´ıveis A melhor aproxima¸c˜ao com S-termos de um sinal ´e obtida mantendo os maiores S coeficientes, e o erro ser´a dado por σS = arg min α∈σS ||x − Φα||2 Para sinais compress´ıveis σk ≤ C2S1/2−s
  • 14. Sinais Compress´ıveis Uma representa¸c˜ao compress´ıvel aproxima bem um sinal com S coeficientes diferentes de zero. (e) 0 200 400 600 800 1000 1200 N 0.00 0.05 0.10 0.15 0.20 0.25 0.30 0.35 PixelAmplitude (f) Usando somente os valores e as posi¸c˜oes diferentes de zero pode-se obter uma representa¸c˜ao com alta fidelidade. Fundamento para a codifica¸c˜oes por transformada: JPEG, JPEG2000, MPEG, MP3, etc.
  • 15. Amostragem Compressiva Amostragem Compressiva (Compressed Sensing, Compressed Sampling, Compressive Sensing) surguiu como um framework para obter representa¸c˜oes bem mais compactas de sinais esparsos ou compress´ıveis do que as obtidas baseando-se no Teorema de Nyquist. Ideia b´asica ´e fazer proje¸c˜oes em espa¸cos de dimens˜oes menores e, quando necess´ario, recuperar usando otimiza¸c˜ao. N˜ao ´e uma ideia nova: em outros contextos h´a aplica¸c˜oes que datam de 1795.
  • 16. Amostragem Compressiva Sinal esparso x ∈ RN x ´e S-eparso: {i : xi = 0} tem tamanho igual ou menor que S Conjunto de medidas (proje¸c˜oes) y dadas por ym = x, am , m = 1, ..., M. am vetores utilizados para as medi¸c˜oes Nota¸c˜ao matricial y = Ax.      y1 y2 ... yM      =      a11 a12 · · · a1N a21 a22 · · · a2N ... ... ... ... aM1 aM2 · · · aMN      ×      x1 x2 ... xN     
  • 17. Sistemas Lineares Se fizermos M = N: y = A × x yM ... y2 y1 = aM,1 ... a2,1 a1,1 . . . . . . . . . aM,N ... a2,N a1,N × xN ... x2 x1
  • 18. Sistemas Lineares Se fizermos M > N: y = A × x yM ... ... y2 y1 = aM,1 ... ... a2,1 a1,1 . . . . . . . . . aM,N ... ... a2,N a1,N × xM ... x2 x1
  • 19. Sistemas Lineares Se fizermos M < N: y = A × x yM ... y2 y1 = aM,1 ... a2,1 a1,1 . . . . . . . . . aM,N ... a2,N a1,N × xN ... x4 x3 x2 x1
  • 20. Sistema Linear × representa¸c˜ao de sinais Voltemos ao sistema linear:    y1 ... yM    =    a11 a12 · · · a1N ... ... ... ... aM1 aM2 · · · aMN    ×    x1 ... xN    Ap´os a multiplica¸c˜ao, observando somente a primeira linha: y1 = a11x1 + a12x2 + ... + a1NxN y1 carrega informa¸c˜oes sobre todos os xi , ponderados pelos respectivos a1i . Se soubermos N pondera¸c˜oes, podemos determinar os xi . Se tivermos, ou pudermos fazer N > M combina¸c˜oes, podemos proteger os xi contra erros. Nesses casos pode-se recuperar fazendo x = [AT A]−1AT y.
  • 21. Amostragem Compressiva Caso de interesse M < N Menos medidas que valores do sinal (compress˜ao) y = Ax tem mais inc´ognitas que equa¸c˜oes pode n˜ao ter solu¸c˜ao, ou ter infinitas solu¸c˜oes. Vamos considerar que a matriz A ´e de rank completo, ou seja suas colunas alcan¸cam (span) todo o espa¸co RN , ´Oraculo que indique as posi¸c˜oes em que o vetor x ´e nulo, conjunto S. Pode-se formar a matriz AS somente com as colunas indicadas por S e resolver xS = [AT S AS]−1AT S y. Sem ´oraculo em com x esparso: m´etodo de busca. Solu¸c˜ao pelo ´oraculo servir´a de referˆencia.
  • 22. Amostragem Compressiva Norma lp de um vetor ( x p)p = N i=1 |xi|p A norma l0 conta o n´umero de elementos n˜ao zero no vetor, ou seja, o seu suporte. Pode-se recuperar o sinal x a partir das medi¸c˜oes y resolvendo o problema de otimiza¸c˜ao (P0) min ˜x∈Rn || ˜x ||l0 sujeito a A˜x = y, A solu¸c˜ao desse problema envolve uma busca nos N S poss´ıveis suportes.
  • 23. Amostragem Compressiva Busca nos N S poss´ıveis suportes. Quanto mais esparso o sinal (menor o valor de S) para um mesmo N, pior. Exemplo: [Livro Elad] Para M = 500 e N = 2000, se o sinal tem S = 20 n˜ao zeros, tem-se N S ≈ 3, 9 × 1047 Problema NP-completo.
  • 24. Amostragem Compressiva Alternativa ao problema P0: A norma l1 coincide com a norma l0 dado que algumas condi¸c˜oes sejam satisfeitas. Tomando M ≥ S log2(N/S) << N recupera-se o sinal original resolvendo o problema (P1) min ˜x∈Rn || ˜x ||l1 sujeito a A˜x = y, Como escolher o valor de M? Erro m´ınimo na recupera¸c˜ao: E||˜x − x||2 < Para x = (x1, x2) (g) Norma l1 (h) Norma l2
  • 25. Amostragem Compressiva Espa¸co nulo de uma matriz: N(A) = {x : Ax = 0}. Vetores S-eparsos ser˜ao escritos como Ax, logo x e x ambos S-esparsos deveremos ter Ax = Ax , ou ainda A(x − x ) = 0 Como x − x pertence ao conjunto de vetores 2S-esparsos, Condi¸c˜ao do espa¸co nulo (Null space condition): Para que seja poss´ıvel recuperar um vetor S-esparso a partir de Ax, N(A) n˜ao deve conter vetores 2S-esparsos.
  • 26. Amostragem Compressiva Caso o sinal z n˜ao seja esparso: aplicar alguma transforma¸c˜ao Φ e obter uma representa¸c˜ao x = Φz que seja esparsa Φ ortonormal, φΦH = φHΦ = I, sendo ΦH o hermitiano transposto (i) Lena (j) Coeficientes DWT
  • 27. Amostragem Compressiva Em seguida usar uma matriz A para comprimir o sinal. Entretanto, as linhas {φj } de Φ n˜ao podem ser esparsamente representadas pelas colunas {ai } of A (ou vice-versa). Dado um par de bases ortonormais, (Φ, A), tem-se µ(Φ, A) = √ n. max 1≤k,j≤N |< φk, aj >|, a medida de coerˆencia, µ(Φ, A) ∈ [1, √ N].
  • 28. Amostragem Compressiva Matrizes Φ e A devem ser incoerentes, ou seja, µ(Φ, A) = 1 Matriz cujos elementos tem distribui¸c˜ao Gaussiana ´e incoerente a qualquer outra base. Problema pr´atico: como gerar a mesma matriz na compress˜ao e na descompacta¸c˜ao?
  • 29. Amostragem Compressiva Duas tarefas principais: Projetar uma boa matriz de medi¸c˜ao: alta compress˜ao mantendo a informa¸c˜ao e criando robustez contra erros. Projetar um bom algoritmo de reconstru¸c˜ao: rapidez, baixo custo computacional e robustez contra erros.
  • 30. Amostragem Compressiva Matriz A que permite a recupera¸c˜ao do vetor S-esparso v e para um δS > 0 ´e que (1 − δS )||v||2 2 ≤ ||Av ||2 2≤ (1 + δS )||v||2 2. Conhecida como propriedade de isometria restrita (em inglˆes restricted isometry property (RIP)). A RIP de ordem 2S para dois sinais S-esparsos, x1 e x2: (1 − δ2S ) ≤ Ax1 − Ax2 2 l2 x1 − x2 2 l2 ≤ (1 + δ2S ). (1)
  • 31. Amostragem Compressiva A obten¸c˜ao de matrizes que obede¸cam a RIP ainda ´e objeto de estudos Por´em selecionando as entradas de A como vari´aveis aleat´orias com m´edia zero e variˆancia 1/N, obt´em-se uma matriz de medi¸c˜ao universal, que tem as seguintes propriedades: ´e incoerente com a base Φ = I, e ´e universal no sentido que Θ = ΦA ser´a Gaussiana e i.i.d independente da base ortonormal Φ.
  • 32. Amostragem Compressiva - Ru´ıdo Ru´ıdo atinge o sinal j´a a mostrado, ou seja, o sinal original deve ser recuperado a partir das amostras y = Ax + n sendo n um ru´ıdo, ou Ru´ıdo aparece durante a amostragem, ou seja, y = A{x + z} + n conhecido como noise folding.
  • 33. Amostragem Compressiva - Ru´ıdo Primeiro caso (ru´ıdo adicionado ao sinal amostrado): Na presen¸ca de ru´ıdo y = Ax + z (P2) min ˜x∈RN || ˜x ||l1 sujeito a ||A˜x − y||2 ≤ , Para um ru´ıdo Gaussiano com variˆancia σ2: Solu¸c˜ao pelo or´aculo (conhecimento das posi¸c˜oes diferentes de zero): E||xOracle − x||2 = Mσ2 . Seletor Dantzig estima ˆxDS com erro m´edio quadr´atico dado por: 1 N E ˆxDS − x 2 2 ≥ C S M log(N)σ2 (2)
  • 34. Amostragem Compressiva - Ru´ıdo Segundo caso (ru´ıdo adicionado durante amostragem): y = A{x + z} + n (3) n ru´ıdo de medi¸c˜ao, z como um ru´ıdo associado ao sinal com co-variˆancia σ2 0I: y = Bx + u B uma matriz com RIP pr´oxima ao da matriz A, e u um ru´ıdo branco de m´edia zero e co-variˆancia (σ2 + N M σ2 0)I. Como M << N, a compress˜ao aumenta a variˆancia do ru´ıdo, fato denominado de noise folding.
  • 35. Amostragem Compressiva - Ferramental Matriz Gaussiana AM×N Obter as medidas yN = Ax. Recupera-se os sinal usando minimiza¸c˜ao da norma l1: 1. Relaxa¸c˜ao convexa (Convex relaxation) utiliza¸c˜ao um problema de otimiza¸c˜ao convexa para recuperar o sinal esparso. 2. Busca Gulosa: algoritmos que fazem a busca uma aproxima¸c˜ao esparsa pela busca de coeficientes que fornecem a melhor representa¸c˜ao. 3. Framework Bayesiano (Bayesian framework) assume uma distribui¸c˜ao a priori do sinal esparso e utilizando estima¸c˜ao recupera os sinal esparso. 4. Otimiza¸c˜ao n˜ao-convexa (Nonconvex optimization) utiliza m´etodos de otimiza¸c˜ao n˜ao convexa para recuperar o sinal esparso. 5. Combinatoriais fazem um busca sobre todos os poss´ıveis conjuntos de suporte para determinar em quais deles est˜ao os coeficientes do sinal esparso.
  • 36. M´etodos Baseados em Otimiza¸c˜ao Convexa De forma geral parte-se de um fun¸c˜ao de custo J(x) que ´e pequena para x esparso, e busca-se resolver min ˆx {J(ˆx) : y = Aˆx} Usando J(x) = ||x||1 ´e comum usar Programa¸c˜ao Linear. Exemplo mais comum l1 magic.
  • 37. M´etodos de Otimiza¸c˜ao Partindo do problema b´asico da minimiza¸c˜ao da norma l1 : min ˜x∈Rn || ˜x ||1 sujeito a A˜x = y, escreve-se o problema de otimiza¸c˜ao min ˜x∈Rn 1 2 || A˜x − y ||2 2 +τ||bfx||1, sendo τ um parˆametro de regulariza¸c˜ao cujo valor governa a esparsidade da solu¸c˜ao, desenvolveram-se v´arios algoritmos: l1l s, Fixed-Point Continuation, etc..
  • 38. Dantzig Selector Estima¸c˜ao de um parˆametro x ∈ RN das observa¸c˜oes ruidosas y ∈ RM, quando M << N, e ru´ıdo Gaussiano n ∼ N(0, σ2 nIM). min ˜y∈RN ||ˆy||l1 sujeito a ||A∗ r||l∞ = sup i≤i≤N |(A∗ r)i | ≤ λp · σ (4) para algum λp > 0, e o vetor de res´ıduos r = y − A˜y. |(A∗r)i | ≤ λN · σ for i = 1, ..., N: res´ıduos no n´ıvel de ru´ıdo. Dado o sinal esparso S e a matriz Gaussiana com entradas i.i.d., o n´umero de medidas ´e dada por:M = S · log(p/S).
  • 39. M´etodos de Busca Gulosa M´etodo de persegui¸c˜ao (pursuit): consiste em refinar a estimativa de um vetor pela modifica¸c˜ao de um ou mais de seus componentes e escolher a modifica¸c˜ao que melhora a representa¸c˜ao do sinal. Basis Pursuit Matching Pursuit Orthogonal Matching Pursuit
  • 40. Matching Pursuit Dada a representa¸c˜ao compacta y, a matriz A, faz-se o res´ıduo r0 = y e com os passos: λk = arg max λ < rk, ak > ak ||ak||2 rk = rk−1 − < rk, aλk > aλk ||aλk ||2 e ˆxλk = ˆxλk + < rk−1, aλk > Crit´erio de parada: norma do res´ıduo muito pequena.
  • 41. Orthogonal Matching Pursuit Entradas: Uma matriz, de medi¸c˜ao Φ, N × d Um vetor N-dimensional v de dados O n´ıvel m de esparsidade do sinal ideal Sa´ıdas: Uma estimativa ˆs em Rd do sinal ideal Um conjunto Λm contendo m elementos de {1, ..., d} Uma aproxima¸c˜ao N dimensional am do vetor v Um res´ıduo N dimensional rm = v − am
  • 42. Orthogonal Matching Pursuit Inicializa¸c˜ao: Fa¸ca r0 = v, Λ0 = ∅, e o contador de inicializa¸c˜ao t = 1 Itera¸c˜ao: Enquanto t < m fa¸ca 1. Encontre o ´ındice λt que resolve o problema de otimiza¸c˜ao λt = arg max j=1,...,d < rt−1, ϕj > 2. Amplie o conjunto ´ındice e a matriz com os ´atomos escolhidos: Λt = Λt−1 ∪ {λt } e Ωt = [Ωt−1 ϕλt ]. Inicie com Ω0 como a matriz vazia. 3. Resolva o problema dos m´ınimos quadrados para obter a nova estimativa do sinal xt = arg min x ||v − Φtx||2 4. Calcule a nova aproxima¸c˜ao dos dados e o novo res´ıduo at = Φt xt e rt = v − at 5. Incremente t.
  • 43. M´etodos Combinatoriais An´alise das poss´ıveis representa¸c˜oes dos sinais. Complexidade maior do que os algoritmos de persegui¸c˜ao Dependendo da rela¸c˜ao entre a esparsidade e o tamanho do sinal, d˜ao respostas mais adequadas que os demais. Exemplo: dados N items como determinar S com defeito? Teste de grupos: aplica-se o teste a um grupo de L elementos, caso haja erro, esse grupo ´e subdividido. Aplica¸c˜ao na detec¸c˜ao de doen¸cas durante a guerra. .
  • 44. M´etodos Combinatoriais × Algoritmos de Busca Transi¸c˜ao de fase (phase transition) [Donoho e Tanner]: limiar entre a compress˜ao obtida e a esparsidade de um sinal. Determina regi˜ao em que deve-se usar os algoritmos de busca ou combinacionais. (k) Observer Universality of Phase Transition. Donho e Tanner (l) Fonte: Nuit Blanche
  • 45. Amostragem Compressiva - Hardware Objetivo: Convers˜ao do sinal no dom´ınio anal´ogico para o dom´ınio digital por´em capturando apenas a informa¸c˜ao Conversores Anal´ogicos para Informa¸c˜ao, ou AIC do inglˆes Analog to Information Converter. Sinal x(t), t ∈ [0, T], um conjunto de fun¸c˜oes teste {φ(t)}M j=1, e realizar M medi¸c˜oes da forma y[j] = T 0 x(t)φj (t)dt. (5) Para construir esse sistema de medi¸c˜ao devemos ter trˆes componentes hardware para gerar sinais de teste φj (t) M correlatores que multipliquem o sinal x(t) com cada um dos φj (t) M integradores com um estado inicial com valor zero.
  • 46. Amostragem Compressiva - Modulador Aleat´orio x(t) ´e correlacionado com uma sequˆencia de pulsos aleat´orios ±1, que alterna entre os valores numa taxa de Nyquist NaHz proporcional `a taxa de Nyquist de x(t). Sinal misturado ´e integrado em um per´ıodo de tempo de 1/Ma e amostrado por um ADC de taxa MaHz << NaHz, o que fornece: y[j] = j/Ma (j−1)/Ma pc(t)x(t)dt. (6)
  • 47. Amostragem Compressiva Denotando pc[n] como a sequˆencia de s´ımbolos ±1 usada para gerar pc(t), temos que pc(t) = pc[n], t ∈ [(n − 1)/Na, 1/Na], e como exemplo seja j = 1, temos y[1] = 1/Ma 0 pc(t)x(t)dt = Na/Ma 0 pc[n] 1/Ma 0 x(t)dt (7) e como Na ´e a taxa de Nyquist de x(t) ent˜ao 1/Ma 0 x(t)dt ´e a m´edia de x(t) no n-´esimo intervalo, que pode ser denotado por x[n], o que nos leva a y[1] = Na/Ma n=1 pc[n]x[n]. (8)
  • 48. Amostragem Compressiva - NUS Amostrador n˜ao uniforme (non-uniform sampler - NUS): mant´em somente uma parte das amostras.
  • 49. Amostragem Compressiva - Xampling Baseia-se na uni˜ao de subespa¸cos para determinar em qual dos subespa¸cos as amostras do sinal est˜ao e em seguida utilizar um conversor AD comercial para digitalizar o sinal.
  • 50. Amostragem Compressiva - Propriedades Amostragem Aleat´oria A amostragem se d´a pela multiplica¸c˜ao por uma matriz pseudo-aleat´oria que pode ser gerada por uma semente, que pode ser encarada como uma chave criptogr´afica. Robustez a Erros A perda de amostras do sinal comprimido n˜ao gera a perda total do sinal reconstru´ıdo, pois pode ser encarada apenas como uma redu¸c˜ao do n´umero de amostras do sinal. Universalidade O projeto do codificador leva em conta a esparsidade do sinal, e n˜ao sua banda de frequˆencia, sinais com o mesmo n´ıvel de esparsidade podem ser amostrados com o mesmo codificador, independente da natureza do sinal. Complexidade Reversa O codificador ´e extremamente simples. Isso possibilita a aplica¸c˜ao de compress˜ao onde existe limita¸c˜ao de hardware, como em redes de sensores sem fio.
  • 51. Amostragem Compressiva – Aplica¸c˜oes de maior destaque
  • 52. Amostragem Compressiva – Aplica¸c˜oes de maior destaque
  • 53. Amostragem Compressiva – Imagens em terahertz Ondas em Terahertz (0,3 a 10 THz,) pentram barreiras como roupas e pl´astico. Podem ser usadas em seguran¸ca para revelar, de forma n˜ao destrutiva, objetos escondidos Dependendo da resolu¸c˜ao, pode levar horas para obter uma imagem.
  • 54. Amostragem Compressiva – Imagens em terahertz
  • 55. Amostragem Compressiva – Imagens em terahertz
  • 56. Amostragem Compressiva – Corre¸c˜ao de Erros Vetor de informa¸c˜ao x de tamanho N, uma matriz de codifica¸c˜ao AM×N e o vetor c´odigo y = Ax. No caso da codifica¸c˜ao para controle de erros, ser´e feito M > N, pois o objetivo aqui ´e introduzir redundˆancia. O vetor c´odigo y ´e corrompido por um ru´ıdo e gerando o vetor yr = Ax + e, sendo e um vetor esparso arbitr´ario de tamanho M com ||e||0 ≤ ρM sendo ρ < 1. Para reconstruir x deve-se reconstruir e pois y = ax + e fornece Ax e consequentemente x pois A ´e uma matriz de rank completo. Obtendo uma matriz F tal que FA = 0 pode-se fazer y = F(Ax + e) = Fe e o problema se reduz a reconstruir o vetor esparso e a partir de Fe.
  • 57. Amostragem Compressiva – Corre¸c˜ao de Erros Outra maneira ´e resolver o problema de otimiza¸c˜ao min g∈RN || y − Ag ||l1 . pois sendo g = f + h chega-se a min g∈RN || e − Ah ||l1 . Os autores estabelecem o tamanho m´aximo do suporte de vetor de erros e para o qual a minimiza¸c˜ao ´e ´unica.
  • 58. Processamento de Sinais no Dom´ınio Comprimido A opera¸c˜ao Ax ´e Linear Obedecendo a RIP as propriedades dos sinais se mant´em Parˆametros podem ser medidos na representa¸c˜ao comprimida, y = Ax. Algumas classes de processamento n˜ao necessitam recuperar o sinal original: inferˆencia, classifica¸c˜ao, estima¸c˜ao e detec¸c˜ao de parˆametros.
  • 59. Aplica¸c˜oes da Amostragem Compressiva Compress˜ao de ´audio M´usica → MDCT → Comprimir usando Amostragem compressiva → Recuperar → Medida de distor¸c˜ao Qualidade Perceptual Interpreta¸c˜ao -5 a -4 Diferen¸ca percept´ıvel e muito desagrad´avel -4 a -3 Diferen¸ca percept´ıvel e desagrad´avel -3 a -2 Diferen¸ca percept´ıvel e levemente desagrad´avel -2 a -1 Diferen¸ca percept´ıvel mas n˜ao desagrad´avel -1 a 0 Diferen¸ca impercept´ıvel
  • 60. Aplica¸c˜oes da Amostragem Compressiva 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5 −4 −3.5 −3 −2.5 −2 −1.5 −1 −0.5 0 Taxa de Compressão QualidadePerceptualMédia Comparação entre CODECs comuns e ACS MP2 MP3 AAC OGG ACS Figura: CODECs comuns e ACS
  • 61. Aplica¸c˜oes da Amostragem Compressiva Jhonson-Lindenstrauss Lemma: para um conjunto de N pontos em M dimens˜oes ´e poss´ıvel encontrar uma proje¸c˜ao aleat´oria f : RN×D → RN×M com M = log N 2 Considere uma cole¸c˜ao de N objetos cada um com D dimens˜oes representado no instante n por uma matriz X(n) = [x1(n) x2(n) ... xN(n)]T e atualizados de forma ass´ıncrona com ∆(n + 1) = (i, j, vn+1) que informa a atualiza¸c˜ao da linha i, coluna j com o valor v.
  • 62. Aplica¸c˜oes da Amostragem Compressiva Atualiza¸c˜oes na matriz X(n) ∈ Rn×d podem ser vistas como: xi,j (n) = xi,j (n − 1) + vn e em uma nota¸c˜ao matricial X(n) = X(n − 1) + V(n) sendo V(n) = Vmn(n) = vnδi,mδj,n.
  • 63. Aplica¸c˜oes da Amostragem Compressiva Se considerarmos A(0) = 0 temos A(n) = n i=1 V(i). Usando a matriz R ∈ RD×M podemos escrever o esbo¸co da matriz A(n) usando a proje¸c˜ao S(n) = A(n) · R e S(n) = n i=1 V(n)R. As atualiza¸c˜oes podem ser feitas considerando S(n + 1) = n+1 i=1 V(n)R = n i=1 V(n)R + V(n + 1)R ent˜ao para atualizar os esbo¸cos pode-se projetar a atualiza¸c˜ao sobre a matriz R.
  • 64. Aplica¸c˜oes da Amostragem Compressiva Esbo¸co de uma atualiza¸c˜ao pode ser vista como V(n)R = [0 ...v(n) ...0]T [r1 r2 ... rN] = v(n)         0 0 ... 0 ... ... · · · ... rj,1 rj,2 · · · rj,k ... ... · · · ... 0 0 ... 0         ent˜ao a atualiza¸c˜ao dos esbo¸cos consiste em multiplicar o valore da autaliza¸c˜ao pela linha ad matriz de proje¸c˜ao.
  • 65. Aplica¸c˜oes da Amostragem Compressiva Considerando dados gerados por medidores de energia el´etrica Conjunto de 400 usu´arios Medida de ”similaridade”(S) entre usu´arios: distˆancia entre os vetores que representem os seus consumos. SO similaridade calculada nos dados originais SP similaridade calculada nos dados projetados E = |SO −SP | S1 .100
  • 66. Aplica¸c˜oes da Amostragem Compressiva Erro na recupera¸c˜ao × Compress˜ao
  • 67. Aplica¸c˜oes da Amostragem Compressiva Tempo de processamento × Compress˜ao
  • 68. Fontes de Informa¸c˜ao Nuit Blanche blog (http://nuit-blanche.blogspot.com.br/) DSP at Rice University (http://dsp.rice.edu/cs) An Introduction to Compressive Sensing, Connexions.
  • 69. Fontes de Informa¸c˜ao
  • 70. Fontes de Informa¸c˜ao
  • 71. Finalmente Obrigado! Edmar Candeia Gurj˜ao ecandeia@dee.ufcg.edu.br