Your SlideShare is downloading. ×
0
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Concatenación de modulaciones con codificación caótica
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×
Saving this for later? Get the SlideShare app to save on your phone or tablet. Read anywhere, anytime – even offline.
Text the download link to your phone
Standard text messaging rates apply

Concatenación de modulaciones con codificación caótica

335

Published on

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total Views
335
On Slideshare
0
From Embeds
0
Number of Embeds
1
Actions
Shares
0
Downloads
4
Comments
0
Likes
0
Embeds 0
No embeds

Report content
Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
No notes for slide

Transcript

  • 1. Sistemas de Comunicación Caóticos ConcatenadosFrancisco J. Escribano1, Luis López2, Miguel A. F. Sanjuán31Departamento de Teoría de la Señal y Comunicaciones, Universidad de Alcalá de Henares2Departamento de Sistemas Telemáticos y Computación, Universidad Rey Juan Carlos3Departamento de Física, Universidad Rey Juan Carlos NoLineal Barcelona, 16-19 de junio de 2008
  • 2. 1. Introducción Comunicación con caos: se plantea en los años 90 (S. Hayes, C. Grebogi and E. Ott, “Communicating with Chaos”, PRL, 70 (1993)). Señales con aspecto ruidoso potencialmente aptas para canales dispersivos, aplicaciones de banda ancha y comunicaciones seguras. Al interés inicial no siguió una realización de las expectativas en el campo de las modulaciones digitales de base caótica. Desde el 2000, nuevos desarrollos han abierto posibilidades para una comunicación eficiente. Base: establecimiento de principios comunes a las comunicaciones digitales y a los sistemas caóticos. Los desarrollos considerados se basan en las aplicaciones caóticas discretas y en los principios de la dinámica simbólica.1/14
  • 3. 1. Introducción Un método habitual de codificación se basa en la codificación de condiciones iniciales. Ejemplo con la aplicación de Bernoulli: f B ( x ) : [0,1] → [0,1] Aplicación de Bernoulli  1  2 x n −1 x n −1 < 1 x n = f B ( x n −1 ) =  2 0.9 1  2 x n −1 − 1 x n −1 ≥ 0.8  2 0.7 N ∑b 0.6 −m r = m 2 = x0 xn xn 0.5 m =1 0.4 N x n = f Bn ( x 0 ) = ∑ bm 2 − m + n m = n +1 0.3 0.2  1 0.1 b n +1 =  xn + 2/14  2 0 0 0.1 0.2 0.3 0.4 0.5 xn−1 0.6 0.7 0.8 0.9 1 xn-1
  • 4. 1. Introducción Generalización para otras aplicaciones fC: función de conversión entre el estado simbólico del sistema (r) y la condición inicial (x0). x 0 = g (r ) xn = f C n (g (r )) = ( (r )) g f B n Se necesitaría precisión infinita: truncamiento hasta una determinada precisión (Q bits). n+Q rn′ = ∑ bm 2 − m + n m = n +1 x n = g (rn′ ) ′ Sistemas unidimensionales -> tasa R=1 bit/muestra.3/14
  • 5. 1. Introducción Los resultados de codificación con condiciones iniciales usando aplicaciones lineales a trozos no son prometedores. Para la aplicación de Bernoulli, la distancia mínima entre dos secuencias que difieren en un solo bit, cuando Q -> ∞, es: ∞ 1 1  d min E b  2  Eb  d 2 =∑ i = Pb ≅ erfc   = erfc     min i =1 4 3  4P N0  N0     La tasa de error es similar a la de enviar los bits sin codificar. Posibilidades para aumentar el rendimiento en tasa de error: ► Emplear sistemas multidimensionales con tasa R inferior a 1 bit/muestra -> incremento de la redundancia. ► Limitar el conjunto de posibles condiciones iniciales -> incremento potencial de la distancia mínima entre las posibles secuencias codificadas.4/14
  • 6. 2. Concatenación en serie Los sistemas basados en aplicaciones unidimensionales por sí solos no pueden garantizar resultados competitivos. Posiblidad de mejora: concatenación (G. Forney, “Concatenated Codes”, MIT Press, 1966). Combinación de las propiedades de las modulaciones caóticas en el canal con la protección de los códigos de canal binarios. Desde el punto de vista de la codificación con condiciones iniciales, el empleo de un codificador de canal previo a la codificación caótica cumple el doble objetivo: ► Disminución de la tasa R de acuerdo con la redundancia añadida por el codificador binario. ► Restricción del espacio de definición de las condiciones iniciales, ya que no toda secuencia es posible a la salida del codificador.5/14
  • 7. 3. Codificador concatenado La codificación con condiciones iniciales para Q finito equivale a la codificación mediante una máquina de estados finitos de 2Q estados: modulación con codificación caótica. bn r1 r2 r3 rQ dn r1 r2 r3 rQ zn 1/2 Codificación zn 1/2 con la 1/2 Q−2 Aplicación Q−2 1/2 Q−1 de Bernoulli 1/2 1/2 Q−1 Q Q 1/2 1/2 Con la adición de recursividad en el codificador caótico, se puede considerar el esquema concatenado como una instancia de la concatenación en serie de codificadores de canal. Decoder Λ( b n ; Ο) bn Outer cn dn Inner xn AWGN only rn Λ( d n ; Ο) bn CC π Chaos Coded or SISO SISO Message Modulator Dispersive π−1 source Interleaver Inner Outer Λ( c n ; Ι) Λ( d n ; Ι) Λ( c n ; Ο) Encoder Channel π6/14
  • 8. 4. Decodificador iterativo La restricción en el espacio de definición de las condiciones iniciales del caso ideal no garantiza por sí sola los resultados. Decodificación catastrófica -> la elección errónea de una secuencia a distancia finita de la secuencia envidada puede originar un número virtualmente no acotado de errores de bit. (H. Andersson, “Error-Correcting Codes Based on Chaotic Dynamical Systems”, PhD Thesis, Linköping University, Sweden, 1998). La analogía con los codificadores binarios concatenados permite construir decodificadores iterativos robustos. Los decodificadores iterativos se basan en el intercambio de estimaciones probabilísticas.7/14
  • 9. 5. Análisis La analogía con sistemas digitales bien caracterizados permite aplicar herramientas de análisis conocidas. La curva de tasa de error de bit en un canal con ruido blanco gaussiano aditivo va a tener tres zonas características: Zona de no convergencia del algoritmo bit error rate Zona de inicio de la convergencia: caída brusca Zona de convergencia total: pedestal de error signal to noise ratio La ubicación de la zona de convergencia se estudia teóricamente. Consideramos codificadores binarios convoluciones de R=1/2.8/14
  • 10. 5. Análisis Estudio de la convergencia de un decodificador iterativo que usa información probabilística: diagramas de intercambio de información extrínseca (EXtrinsic Information Transfer -EXIT). r 1 SISO Λ( d; Ο) I( O) Λ( d; Ι) Decoder 0 0 I( I) 1 I(O) = T (I(I), Θ) Información mutua: 1  2 p(Λ | d )  I = ∑ p(Λ | d ) log2    p(Λ | 1) + p(Λ | 0) dΛ9/14 2 d =0,1  
  • 11. 5. Análisis Ejemplos de convergencia en decodificación: 1 1 bit error rate I2 I2 0 0 0 1 signal to noise ratio 0 I1 1 I1 1 1 BSM, Q=4,5,6, Eb/N0=2.0 dB 0.9 0.9 0.8 BSM, Q=4,5,6, Eb/N0=1.0 dB 0.8 0.7 0.7 BSM, Q=5, Eb/N0=8.0 dB no feedback 0.6 0.6 I2 0.5 I2 I2 0.5 2 I CC ν=7 0.4 0.4 0.3 BSM, Q=4,5,6, Eb/N0=0.0 dB 0.3 0.2 0.2 CC ν=410/14 0.1 0.1 0 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −6 −5 −4 −3 −2 −1 0 I1 10 10 10 10 10 10 10 I1 BER BER
  • 12. 5. Análisis Ejemplos de convergencia en decodificación: 1 1 bit error rate I2 I2 0 0 0 1 signal to noise ratio 0 I1 1 I1 1 1 BSM, Q=4,5,6, Eb/N0=2.0 dB 0.9 0.9 0.8 BSM, Q=4,5,6, Eb/N0=1.0 dB 0.8 0.7 0.7 BSM, Q=5, Eb/N0=8.0 dB no feedback 0.6 0.6 I2 0.5 I2 I2 0.5 2 I CC ν=7 0.4 0.4 0.3 BSM, Q=4,5,6, Eb/N0=0.0 dB 0.3 0.2 0.2 CC ν=410/14 0.1 0.1 0 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −6 −5 −4 −3 −2 −1 0 I1 10 10 10 10 10 10 10 I1 BER BER
  • 13. 5. Análisis Ejemplos de convergencia en decodificación: 1 1 bit error rate I2 I2 0 0 0 1 signal to noise ratio 0 I1 1 I1 1 1 BSM, Q=4,5,6, Eb/N0=2.0 dB 0.9 0.9 0.8 BSM, Q=4,5,6, Eb/N0=1.0 dB 0.8 0.7 0.7 BSM, Q=5, Eb/N0=8.0 dB no feedback 0.6 0.6 I2 0.5 I2 I2 0.5 2 I CC ν=7 0.4 0.4 0.3 BSM, Q=4,5,6, Eb/N0=0.0 dB 0.3 0.2 0.2 CC ν=410/14 0.1 0.1 0 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −6 −5 −4 −3 −2 −1 0 I1 10 10 10 10 10 10 10 I1 BER BER
  • 14. 5. Análisis Ejemplos de convergencia en decodificación: 1 1 bit error rate I2 I2 0 0 0 1 signal to noise ratio 0 I1 1 I1 1 1 BSM, Q=4,5,6, Eb/N0=2.0 dB 0.9 0.9 0.8 BSM, Q=4,5,6, Eb/N0=1.0 dB 0.8 0.7 0.7 BSM, Q=5, Eb/N0=8.0 dB no feedback 0.6 0.6 I2 0.5 I2 I2 0.5 2 I CC ν=7 0.4 0.4 0.3 BSM, Q=4,5,6, Eb/N0=0.0 dB 0.3 0.2 0.2 CC ν=410/14 0.1 0.1 0 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −6 −5 −4 −3 −2 −1 0 I1 10 10 10 10 10 10 10 I1 BER BER
  • 15. 5. Análisis Ejemplos de convergencia en decodificación: 1 1 bit error rate I2 I2 0 0 0 1 signal to noise ratio 0 I1 1 I1 1 1 BSM, Q=4,5,6, Eb/N0=2.0 dB 0.9 0.9 0.8 BSM, Q=4,5,6, Eb/N0=1.0 dB 0.8 0.7 0.7 BSM, Q=5, Eb/N0=8.0 dB no feedback 0.6 0.6 I2 0.5 I2 I2 0.5 2 I CC ν=7 0.4 0.4 0.3 BSM, Q=4,5,6, Eb/N0=0.0 dB 0.3 0.2 0.2 CC ν=410/14 0.1 0.1 0 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −6 −5 −4 −3 −2 −1 0 I1 10 10 10 10 10 10 10 I1 BER BER
  • 16. 5. Análisis Ejemplos de convergencia en decodificación: 1 1 bit error rate I2 I2 0 0 0 1 signal to noise ratio 0 I1 1 I1 1 1 BSM, Q=4,5,6, Eb/N0=2.0 dB 0.9 0.9 0.8 BSM, Q=4,5,6, Eb/N0=1.0 dB 0.8 0.7 0.7 BSM, Q=5, Eb/N0=8.0 dB no feedback 0.6 0.6 I2 0.5 I2 I2 0.5 2 I CC ν=7 0.4 0.4 0.3 BSM, Q=4,5,6, Eb/N0=0.0 dB 0.3 0.2 0.2 CC ν=410/14 0.1 0.1 0 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −6 −5 −4 −3 −2 −1 0 I1 10 10 10 10 10 10 10 I1 BER BER
  • 17. 5. Análisis Ejemplos de convergencia en decodificación: 1 1 bit error rate I2 I2 0 0 0 1 signal to noise ratio 0 I1 1 I1 1 1 BSM, Q=4,5,6, Eb/N0=2.0 dB 0.9 0.9 0.8 BSM, Q=4,5,6, Eb/N0=1.0 dB 0.8 0.7 0.7 BSM, Q=5, Eb/N0=8.0 dB no feedback 0.6 0.6 I2 0.5 I2 I2 0.5 2 I CC ν=7 0.4 0.4 0.3 BSM, Q=4,5,6, Eb/N0=0.0 dB 0.3 0.2 0.2 CC ν=410/14 0.1 0.1 0 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −6 −5 −4 −3 −2 −1 0 I1 10 10 10 10 10 10 10 I1 BER BER
  • 18. 5. Análisis Se puede establecer una cota sobre el canal binario simétrico equivalente (canal BIOS – Binary Input-Output Symmetric): entrada cn, salida Λ(cn,I). Se calcula numéricamente (a través del histograma) la distribución de las salidas probabilísticas Λ. Técnicas conocidas en codificación de canal: cómputo a través de la función enumeradora de pesos binarios del CC, B(X). 1 1 Pb ≤ B ( X ) s = ˆ 2 X = eκ ( s ) ˆ 2  ∞ sΛ 11/14 κ (s ) = log E [e sΛ ] = log  ∫ e f Λ (Λ )dΛ  −∞ 
  • 19. 6. Simulaciones Simulaciones: N=10000 (400), Q=5, S=23 (11), CC con ν=4 (7) y R=1/2, 1 ó 20 iteraciones. Canal AWGN y canales dispersivos. AWGN Rician/Rayleigh 0 0 10 10 N=10000, 1 it BSM K=0, no CSI −1 10 −1 10 bound −2 10 −2 bound 10 BER BER −3 BER 10 BER K=5, no CSI bound −3 10 CC −4 10 K=5, CSI −4 10 K=0, CSI −5 10 N=10000, 20 it bound AWGN channel N=400, 20 it12/14 −6 10 −5 10 1 2 3 4 5 6 7 2 3 4 5 6 7 8 Eb/N0 (dB) Eb/N0 (dB) Eb/N0 Eb/N0
  • 20. 6. Simulaciones Simulaciones: N=10000 (400), Q=5, S=23 (11), CC con ν=4 (7) y R=1/2, 1 ó 20 iteraciones. Canal AWGN y canales dispersivos. AWGN Rician/Rayleigh 0 0 10 10 N=10000, 1 it BSM K=0, no CSI −1 10 −1 10 bound −2 10 −2 bound 10 BER BER −3 BER 10 BER K=5, no CSI bound −3 10 CC −4 10 K=5, CSI −4 10 K=0, CSI −5 10 N=10000, 20 it bound AWGN channel N=400, 20 it12/14 −6 10 −5 10 1 2 3 4 5 6 7 2 3 4 5 6 7 8 Eb/N0 (dB) Eb/N0 (dB) Eb/N0 Eb/N0
  • 21. 6. Simulaciones Simulaciones: N=10000 (400), Q=5, S=23 (11), CC con ν=4 (7) y R=1/2, 1 ó 20 iteraciones. Canal AWGN y canales dispersivos. AWGN Rician/Rayleigh 0 0 10 10 N=10000, 1 it BSM K=0, no CSI −1 10 −1 10 bound −2 10 −2 bound 10 BER BER −3 BER 10 BER K=5, no CSI bound −3 10 CC −4 10 K=5, CSI −4 10 K=0, CSI −5 10 N=10000, 20 it bound AWGN channel N=400, 20 it12/14 −6 10 −5 10 1 2 3 4 5 6 7 2 3 4 5 6 7 8 Eb/N0 (dB) Eb/N0 (dB) Eb/N0 Eb/N0
  • 22. 6. Simulaciones Simulaciones: N=10000 (400), Q=5, S=23 (11), CC con ν=4 (7) y R=1/2, 1 ó 20 iteraciones. Canal AWGN y canales dispersivos. AWGN Rician/Rayleigh 0 0 10 10 N=10000, 1 it BSM K=0, no CSI −1 10 −1 10 bound −2 10 −2 bound 10 BER BER −3 BER 10 BER K=5, no CSI bound −3 10 CC −4 10 K=5, CSI −4 10 K=0, CSI −5 10 N=10000, 20 it bound AWGN channel N=400, 20 it12/14 −6 10 −5 10 1 2 3 4 5 6 7 2 3 4 5 6 7 8 Eb/N0 (dB) Eb/N0 (dB) Eb/N0 Eb/N0
  • 23. 6. Simulaciones Simulaciones: N=10000 (400), Q=5, S=23 (11), CC con ν=4 (7) y R=1/2, 1 ó 20 iteraciones. Canal AWGN y canales dispersivos. AWGN Rician/Rayleigh 0 0 10 10 N=10000, 1 it BSM K=0, no CSI −1 10 −1 10 bound −2 10 −2 bound 10 BER BER −3 BER 10 BER K=5, no CSI bound −3 10 CC −4 10 K=5, CSI −4 10 K=0, CSI −5 10 N=10000, 20 it bound AWGN channel N=400, 20 it12/14 −6 10 −5 10 1 2 3 4 5 6 7 2 3 4 5 6 7 8 Eb/N0 (dB) Eb/N0 (dB) Eb/N0 Eb/N0
  • 24. 6. Simulaciones Simulaciones: N=10000 (400), Q=5, S=23 (11), CC con ν=4 (7) y R=1/2, 1 ó 20 iteraciones. Canal AWGN y canales dispersivos. AWGN Rician/Rayleigh 0 0 10 10 N=10000, 1 it BSM K=0, no CSI −1 10 −1 10 bound −2 10 −2 bound 10 BER BER −3 BER 10 BER K=5, no CSI bound −3 10 CC −4 10 K=5, CSI −4 10 K=0, CSI −5 10 N=10000, 20 it bound AWGN channel N=400, 20 it12/14 −6 10 −5 10 1 2 3 4 5 6 7 2 3 4 5 6 7 8 Eb/N0 (dB) Eb/N0 (dB) Eb/N0 Eb/N0
  • 25. 6. Simulaciones Cotas y diagramas EXIT siempre muestran holgura en sus predicciones, pero dan cuenta del comportamiento general. Canal ISI Trayectoria promediada de información mutua 0 10 1 BSM coded modulation, Q=5, Eb/N0=2.0 dB 0.9 BSM coded modulation, Q=5, Eb/N0=2.5 dB −1 0.8 10 high ISI 0.7 0.6 −2 10 BER AWGN channel BER 0.5 I2 Average trajectory for Q=5, Eb/N0=2.5 dB bound moderate ISI 0.4 −3 10 0.3 Average trajectory for Q=5, Eb/N0=2.0 dB 0.2 bound −4 10 low ISI CC ν=4 0.1 0 1 1.5 2 2.5 3 3.5 4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Eb/N0 (dB) I113/14 Eb/N0
  • 26. 6. Simulaciones Cotas y diagramas EXIT siempre muestran holgura en sus predicciones, pero dan cuenta del comportamiento general. Canal ISI Trayectoria promediada de información mutua 0 10 1 BSM coded modulation, Q=5, Eb/N0=2.0 dB 0.9 BSM coded modulation, Q=5, Eb/N0=2.5 dB −1 0.8 10 high ISI 0.7 0.6 −2 10 BER AWGN channel BER 0.5 I2 Average trajectory for Q=5, Eb/N0=2.5 dB bound moderate ISI 0.4 −3 10 0.3 Average trajectory for Q=5, Eb/N0=2.0 dB 0.2 bound −4 10 low ISI CC ν=4 0.1 0 1 1.5 2 2.5 3 3.5 4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Eb/N0 (dB) I113/14 Eb/N0
  • 27. 6. Simulaciones Cotas y diagramas EXIT siempre muestran holgura en sus predicciones, pero dan cuenta del comportamiento general. Canal ISI Trayectoria promediada de información mutua 0 10 1 BSM coded modulation, Q=5, Eb/N0=2.0 dB 0.9 BSM coded modulation, Q=5, Eb/N0=2.5 dB −1 0.8 10 high ISI 0.7 0.6 −2 10 BER AWGN channel BER 0.5 I2 Average trajectory for Q=5, Eb/N0=2.5 dB bound moderate ISI 0.4 −3 10 0.3 Average trajectory for Q=5, Eb/N0=2.0 dB 0.2 bound −4 10 low ISI CC ν=4 0.1 0 1 1.5 2 2.5 3 3.5 4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Eb/N0 (dB) I113/14 Eb/N0
  • 28. 6. Simulaciones Cotas y diagramas EXIT siempre muestran holgura en sus predicciones, pero dan cuenta del comportamiento general. Canal ISI Trayectoria promediada de información mutua 0 10 1 BSM coded modulation, Q=5, Eb/N0=2.0 dB 0.9 BSM coded modulation, Q=5, Eb/N0=2.5 dB −1 0.8 10 high ISI 0.7 0.6 −2 10 BER AWGN channel BER 0.5 I2 Average trajectory for Q=5, Eb/N0=2.5 dB bound moderate ISI 0.4 −3 10 0.3 Average trajectory for Q=5, Eb/N0=2.0 dB 0.2 bound −4 10 low ISI CC ν=4 0.1 0 1 1.5 2 2.5 3 3.5 4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Eb/N0 (dB) I113/14 Eb/N0
  • 29. 6. Simulaciones Cotas y diagramas EXIT siempre muestran holgura en sus predicciones, pero dan cuenta del comportamiento general. Canal ISI Trayectoria promediada de información mutua 0 10 1 BSM coded modulation, Q=5, Eb/N0=2.0 dB 0.9 BSM coded modulation, Q=5, Eb/N0=2.5 dB −1 0.8 10 high ISI 0.7 0.6 −2 10 BER AWGN channel BER 0.5 I2 Average trajectory for Q=5, Eb/N0=2.5 dB bound moderate ISI 0.4 −3 10 0.3 Average trajectory for Q=5, Eb/N0=2.0 dB 0.2 bound −4 10 low ISI CC ν=4 0.1 0 1 1.5 2 2.5 3 3.5 4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Eb/N0 (dB) I113/14 Eb/N0
  • 30. 7. Conclusiones Comentarios finales y resultados: ► El establecimiento de un puente entre las modulaciones con codificación caótica y desarrollos bien establecidos en comunicaciones digitales permite mejorar espectacularmente los resultados de forma sencilla. ► Ganancias de codificación comparables con los de otros sistemas concatenados en serie no caóticos. ► Se cumplen propiedades análogas y conocidas: ▼ necesidad de recursividad en el codificador interior, ▼ mejor convergencia con codificadores exteriores más sencillos, ▼ pedestal de error debajo de los límites alcanzables por simulación. ► Buen comportamiento en canales dispersivos. ► Los diagramas EXIT y las cotas dan razón del comportamiento del sistema con pequeños desajustes: pueden ser herramientas válidas para diseño y evaluación.14/14
  • 31. 8. Algunas publicaciones1. Francisco J. Escribano, L. López and M. A. F. Sanjuán, ‘Iteratively Decoding Chaos Encoded Binary Signals’, Proceedings of the 8th IEEE Int. Symposium on Signal Processing and its Applications (2005).2. , ‘Evaluation of Channel Coding and Decoding Algorithms Using Discrete Chaotic Maps’, CHAOS 16, 013103 (2006).3. , ‘Exploiting Symbolic Dynamics in Chaos Coded Communications with Maximum a Posteriori Algorithm’, Electron. Lett. 42, 984 (2006).4. , ‘Serial Concatenation of Channel and Chaotic Encoders’, Proceedings of the 14th Int. Workshop on Nonlinear Dynamics of Electronic Systems (2006).5. Francisco J. Escribano, S. Kozic, L. López, M. A. F. Sanjuán and M. Hassler, ‘Turbo-Like Structures for Chaos Coding and Decoding’, IEEE Trans. Commun., 2008 (Aceptado).6. Francisco J. Escribano, L. López and M. A. F. Sanjuán, ‘Chaos Coded Modulations over Rician and Rayleigh Flat Fading Channels’, IEEE TCAS-II, 2008 (Aceptado).7. , ‘Enhancing Chaos Coded Modulations through Concatenation’, IEEE TCAS-I, 2008 (Enviado). Gracias por su atención

×