Loading…

Flash Player 9 (or above) is needed to view presentations.
We have detected that you do not have it on your computer. To install it, go here.

Like this document? Why not share!

Tema 4

on

  • 1,347 views

Modulación codificada digital

Modulación codificada digital

Statistics

Views

Total Views
1,347
Views on SlideShare
1,346
Embed Views
1

Actions

Likes
0
Downloads
21
Comments
0

1 Embed 1

http://www.slideshare.net 1

Accessibility

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Tema 4 Tema 4 Document Transcript

    • Comunicaciones Digitales Avanzadas - Tema 4 MODULACIÓN CODIFICADA I Comunicaciones Digitales Avanzadas - Tema 4 Índice 1. Idea básica de la modulación codificada 2. Fundamentos de codificación convolucional 3. Decodificación de códigos convolucionales en canales sin memoria – Detección de secuencias de máxima verosimilitud – Algoritmo de Viterbi – Probabilidad de Error. Ganancia de codificación • TCM Modulación codificada por rejilla – Teoría de la partición de conjuntos – Ejemplos de códigos TCM: 8-PSK y 16-QAM – Cálculo de la ganancia de codificación Comunicaciones Digitales Avanzadas - Tema 4 -2-
    • Comunicaciones Digitales Avanzadas - Tema 4 Idea básica modulación codificada • Tradicionalmente la codificación y la modulación se realizan de forma independiente (lo mismo demodulación y decodificación) Mensajes Códigos Señales/símbolos Fuente codificador Modulador • IDEA: utilizar de forma coordinada la codificación y la modulación para aprovechar más eficientemente (=mejorar la Pe) los recursos de ancho de banda y potencia transmitida. Comunicaciones Digitales Avanzadas - Tema 4 -3- Idea básica Codificación de canal Protección frente a errores pero también Mayor número de bits transmitidos por cada bit de información • Si hay ancho de banda de sobra no hay problema • Si el ancho de banda es limitado hay que aumentar el número de niveles de la constelación para mantener el mismo flujo de información ¿Y si también está limitada la potencia transmitida? Comunicaciones Digitales Avanzadas - Tema 4 -4-
    • Comunicaciones Digitales Avanzadas - Tema 4 Idea básica • Si la potencia transmitida y el ancho de banda son limitados hay que “proteger mucho” los bits para conseguir alguna ganancia en Pe. • No obstante, si se trata la modulación y la codificación (FEC) de forma combinada se pueden obtener ganancias en Pe incluso con técnicas de codificación sencillas. TCM (Trellis Coded Modulation) • TCM desarrollado por Ungerboek años 80. • Se incorporó a los modems del CCITT V.* (canales telefónicos gaussianos) Comunicaciones Digitales Avanzadas - Tema 4 -5- Índice 1. Idea básica de la modulación codificada 2. Fundamentos de codificación convolucional 3. Decodificación de códigos convolucionales en canales sin memoria – Detección de secuencias de máxima verosimilitud – Algoritmo de Viterbi – Probabilidad de Error. Ganancia de codificación 4. TCM Modulación codificada por rejilla – Teoría de la partición de conjuntos – Ejemplos de códigos TCM: 8-PSK y 16-QAM – Cálculo de la ganancia de codificación Comunicaciones Digitales Avanzadas - Tema 4 -6-
    • Comunicaciones Digitales Avanzadas - Tema 4 Codificador convolucional kK etapas k bits de 1 2 k 1 2 k 1 2 k información 1 2 3 n secuencia codificada Rc=k/n (ratio de codificación) K=longitud de influencia Comunicaciones Digitales Avanzadas - Tema 4 -7- Ejemplos de codificadores convolucionales 1 2 a) K=3, k=1, n=3 entrada salida 3 1 entrada b) K=2, k=2, n=3 salida 2 3 Comunicaciones Digitales Avanzadas - Tema 4 -8-
    • Comunicaciones Digitales Avanzadas - Tema 4 Descripción de códigos convolucionales • Tres conceptos básicos: – Memoria del codificador=Nº de bits pasados que influyen en cada bit de salida =M=k(K-1) – Estados del codificador=son los distintos contenidos posibles de la memoria del codificador que condicionan la salida. Nº de estados =S=2M – Transiciones entre estados. El codificador evoluciona de un estado a otro dependiendo de los bits de entrada y emite bits. • Tres diagramas (equivalentes) para describir el codificador (estados y transiciones): – De árbol (tree) – De rejilla (trellis) – De estados (state) Comunicaciones Digitales Avanzadas - Tema 4 -9- Diagrama de árbol 000 000 a) K=3, k=1, n=3 000 a 111 a 111 000 c 001 111 b 0 110 c d entradas estados 011 1 001 a 100 2M=4 b 111 c 010 110 b salidas 101 d d Se repiten Comunicaciones Digitales Avanzadas - Tema 4 - 10 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Diagrama de estados a) K=3, k=1, n=3 Estados Transiciones Estado b 0 | 011 01 1 | 100 * bit entrada *** bits salida 0 | 001 1 | 111 Estado a Estado c 00 10 0 | 000 0 | 010 1 | 101 Estado d 1 | 110 11 Comunicaciones Digitales Avanzadas - Tema 4 - 11 - Diagrama de rejilla a) K=3, k=1, n=3 Transiciones Estados Bit entrada 0 Estado a 000 000 000 000 000 00 111 111 111 111 111 011 011 011 Estado b 01 100 100 100 001 001 001 001 Estado c 10 110 110 110 110 010 010 010 Estado d 11 101 101 101 Régimen permanente =steady state Comunicaciones Digitales Avanzadas - Tema 4 - 12 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Índice 1. Idea básica de la modulación codificada 2. Fundamentos de codificación convolucional 3. Decodificación de códigos convolucionales en canales sin memoria – Detección de secuencias de máxima verosimilitud – Algoritmo de Viterbi – Probabilidad de Error. Ganancia de codificación 4. TCM Modulación codificada por rejilla – Teoría de la partición de conjuntos – Ejemplos de códigos TCM: 8-PSK y 16-QAM – Cálculo de la ganancia de codificación Comunicaciones Digitales Avanzadas - Tema 4 - 13 - Detección de máxima verosimilitud • Ya se ha visto que la detección de máxima verosimilitud de los símbolos minimiza la probabilidad de error de símbolo. • Cuando la secuencia de símbolos (o bits) recibida tiene memoria (por que ha pasado por un canal con memoria o por que procede de un codificador convolucional) el detector de máxima verosimilitud sigue siendo óptimo (en el sentido en que minimiza la probabilidad de detectar una secuencia errónea) si se utiliza para detectar la secuencia entera a partir de los datos recibidos correspondientes a la transmisión de la secuencia entera. Comunicaciones Digitales Avanzadas - Tema 4 - 14 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Marco de referencia transmisor/canal • La fuente emite un mensaje m de un número de bits. • El codificador “protege” (codifica) los bits y genera la palabra código binaria (vector binario) c entre un número de posibles códigos. • El modulador (mapeador) mapea la palabra código en el espacio de la señal (constelación) generando un vector de símbolos transmitidos s que dependerá de la modulación escogida. • El canal no tiene memoria (no filtra) sólo introduce ruido gaussiano blanco que se suma (vectorialmente) a cada símbolo tx dando lugar al vector recibido y (secuencia de puntos en el espacio de la señal). Comunicaciones Digitales Avanzadas - Tema 4 - 15 - Marco de referencia receptor detección firme • El circuito de decisión selecciona a partir de cada elemento del vector recibido y uno de los símbolos posibles, generando sr. Utiliza reglas (regiones) de decisión preestablecidas. Lo normal es que haga detección de símbolo de máxima verosimilitud y seleccione los símbolos más cercanos en el espacio de la señal (distancia euclídea) a las señales recibidas. • El demodulador asigna un vector binario cr a la secuencia de símbolos recibida. • El decodificador selecciona el mensaje recibido mr a partir del vector binario cr. Comunicaciones Digitales Avanzadas - Tema 4 - 16 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Marco de referencia detección firme Vector Vector Mensaje codificado símbolos tx Fuente m codificador c modulador s canal gaussiano sin memoria Vector Vector símbolos rx recibido Vector sr y Mensaje binario decodificado recibido mr decodificador cr demodulador Comunicaciones Digitales Avanzadas - Tema 4 - 17 - Marco de referencia rx detección indecisa • No hay circuito de decisión. • El decodificador selecciona el mensaje recibido mr a partir directamente del vector recibido y, realiza todas las tareas conjuntamente. Si está bien diseñado debe funcionar mejor que la detección firme (hard) ya que utiliza toda la información disponible en el receptor. • En modulación codificada se utiliza normalmente la decodificación indecisa (soft) ya que así se consiguen ganancias mayores. • En ambos casos el decodificador utiliza la detección de máxima verosimilitud del mensaje de salida a partir del vector de entrada. Comunicaciones Digitales Avanzadas - Tema 4 - 18 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Marco de referencia detección indecisa Vector Vector Mensaje código símbolos tx Fuente m codificador c modulador s canal Menor Pe = El decodificador funciona gaussiano mayor ganancia directamente sobre los puntos de codificación sin memoria en el espacio de la señal Vector recibido y Mensaje decodificado mr decodificador Comunicaciones Digitales Avanzadas - Tema 4 - 19 - Decodificación de máxima verosimilitud detec. firme • En este caso podemos modelar el conjunto modulador- canal-demodulador-circuito de decisión como un canal binario simétrico equivalente sin memoria que opera sobre cada uno de los bits del vector codificado c de forma independiente para dar el vector recibido cr, que contendrá una serie de errores. p=prob. de que se 1 1-p 1 produzca error en un bit p ⎧ p, cri ≠ c i p ( ) ⎪ f c i cri | c i = ⎨ ⎪1 − p cri = c i r 0 0 ⎩ 1-p Comunicaciones Digitales Avanzadas - Tema 4 - 20 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Decodificación de máxima verosimilitud detec. firme •Se pretende seleccionar la palabra código de manera que se minimice la probabilidad detectar el mensaje erróneo. –Existe una correspondencia uno a uno entre mensajes y códigos. –Es óptimo porque se utiliza toda la información disponible, el vector cr. Probabilidad de error Pe (m r , cr ) = P(m r ≠ m | cr ) = 1 − P(m r = m | cr ) en la decodificación Regla de decisión Sea mr = m i si óptima ( ) ( P m i = m | cr ≥ P m k = m | cr ) para k ≠ i Regla de decisión Sea m r = m i si ( ) ( óptima aplicando P m = m f c r cr | m = m i i ≥ ) P m k = m f c r cr | m k = m ( ) ( ) para k ≠ i f c r (cr ) f c r (cr ) Bayes Comunicaciones Digitales Avanzadas - Tema 4 - 21 - Decodificación de máxima verosimilitud detec. firme •Considerando que todos los mensajes son equiprobables (P(mi=m)=P(mk=m)) y que el mensaje mi se corresponde uno a uno con el vector codificado ci, obtenemos el criterio de máxima verosimilitud como: Sea mr = mi si k =i maximiza ( f c r cr | ck = c ) •Como el canal afecta de forma independiente a los bits que componen el vector codificado para dar lugar a cada uno de los bits del vector binario recibido, luego la función de verosimilitud del vector recibido es el producto de las funciones de verosimilitud de cada uno de los bits recibidos. Likelihood Log-Likelihood ( ) f c r cr | c = ∏ f c j c | c k r ( r j k j ) { ( )} { ( ln f c r cr | ck = ∑ ln f c j crj | ckj r )} j j Comunicaciones Digitales Avanzadas - Tema 4 - 22 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Decodificación de máxima verosimilitud detec. firme •Maximizar la función de verosimilitud o la función de verosimilitud logarítmica es equivalente. •Llamemos d al número de bits en los que difiere el vector binario recibido cr de una cierta palabra código ck (supongamos que cada código tiene N bits). La función de verosimilitud logarítmica será: ⎛ p ⎞ { ( )} ln f c r cr | ck = d ln p + ( N − d )ln (1 − p ) = d ln⎜ ⎜ 1 − p ⎟ + N ln(1 − p ) ⎟ ⎝ ⎠ ⎛ p ⎞ p<1/2 ln⎜ ⎜1− p ⎟ < 0 ⎟ además es común a todos ⎝ ⎠ los vectores código Criterio El decodificador escoge la palabra código (entre las posibles) ML que presenta el menor número de bits diferentes con el vector binario recibido (mínima d = distancia de Hamming). Comunicaciones Digitales Avanzadas - Tema 4 - 23 - Decodificación de máxima verosimilitud detec. indecisa • En este caso tenemos un canal gaussiano sin memoria que opera sobre cada uno de los símbolos del vector de símbolos s de forma independiente, para dar el vector recibido y, de puntos en el espacio de la señal. • Cada elemento de s y cada uno de y se relaciona mediante un ruido gaussiano ni de media nula y varianza N0/2: ( 2 yi −si ) 2 y =s +n i i i f yi ( ) yi | si = 2 − e 2 N0 πN 02 Comunicaciones Digitales Avanzadas - Tema 4 - 24 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Decodificación de máxima verosimilitud detec. indecisa •El desarrollo es igual al caso anterior, lo que varían son las funciones de prob. •Considerando que todos los mensajes son equiprobables (P(mi=m)=P(mk=m)) y que el mensaje mi se corresponde uno a uno con el vector codificado ci, y en consecuencia con el vector de símbolos si, obtenemos el criterio de máxima verosimilitud como: Sea m = mi si k =i r maximiza ( f y y | sk = s ) •Como el canal afecta de forma independiente a los símbolos del vector tx para dar lugar a cada uno de los símbolos del vector rx, la función de verosimilitud del vector recibido es el producto de las funciones de verosimilitud de cada uno de los símbolos recibidos. Likelihood Log-Likelihood ( k ) fy y | s = ∏ f y j y | s( j k j ) { ( ln f y y | s k )} = ∑ ln{f (y yj j | skj )} j j Comunicaciones Digitales Avanzadas - Tema 4 - 25 - Decodificación de máxima verosimilitud detec. indecisa •Como antes, maximizar la función de verosimilitud o la función de verosimilitud logarítmica es equivalente. •Supongamos que cada vector de símbolos tiene M elementos. La función de verosimilitud logarítmica será en este caso: M ⎛ 2 ⎞ { ( )} ln f y y | sk = − 2 2 ∑ ( ) yi − skj + ln⎜ 2 ⎟ 2 2 ⎜ πN 0 ⎟ N0 j ⎝ ⎠ es común a todos distancia en el espacio de la señal los vectores código al cuadrado entre y y sk (d2e) Criterio El decodificador escoge la palabra código (entre las posibles) ML cuya representación en el espacio de la señal (“modulación”) presenta la menor distancia euclídea en el espacio de la señal con el vector de símbolos recibido (mínima de). Comunicaciones Digitales Avanzadas - Tema 4 - 26 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Algoritmo de Viterbi • En cuanto las secuencias son un poco largas, buscar la más probable entre todas las posibles resulta inviable. • El algoritmo de Viterbi permite encontrar entre todos los caminos posibles en un diagrama de enrejado, aquel que posee la mínima (máxima) distancia (métrica) a un camino dado de forma más eficiente que la búsqueda exhaustiva. • Ideas fundamentales del algoritmo de Viterbi: – A cada rama del enrejado (transición entre dos estados) se le puede asociar (como una etiqueta) una distancia (métrica) entre los bits (símbolos) de salida del codificador correspondientes a esa rama y los recibidos del canal (siempre positiva). – La métrica de un camino es aditiva rama a rama. Comunicaciones Digitales Avanzadas - Tema 4 - 27 - Algoritmo de Viterbi • Funcionamiento del algoritmo de Viterbi: – El algoritmo es secuencial, recorre el diagrama de izquierda a derecha. – Para cada celda del enrejado se calcula la distancia acumulada. – En cada estado se selecciona la rama correspondiente al camino de mínima distancia (se “poda“ el diagrama). Si dos ramas entrantes al estado poseen la misma distancia acumulada se elige uno de los caminos al azar. – El algoritmo almacena el camino de mínima (máxima) distancia (métrica) que llega a cada estado y sus distancias acumuladas correspondientes. – El funcionamiento óptimo del algoritmo toma la decisión al final de la secuencia. Comunicaciones Digitales Avanzadas - Tema 4 - 28 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Algoritmo de Viterbi • Ejemplo de funcionamiento, detección firme, codificador ejemplo: 000 000 000 000 000 111 111 111 011 011 011 llevan al estado cero al codif 100 001 001 001 Mensaje: 10100 110 110 Código transmitido 010 010 111 001 100 001 011 101 Comunicaciones Digitales Avanzadas - Tema 4 - 29 - Algoritmo de Viterbi • Ejemplo de funcionamiento, detección firme, codificador ejemplo: 2 2 2 4 1 5 2 7 2 3 1 1 2 2 0 3 2 5 3 0 Código recibido 3 errores 1 1 1 2 110 101 100 101 011 3 2 1 3 2 2 Métricas de rama Métricas acumuladas * 3 1 4 Podas x camino de mínima distancia Comunicaciones Digitales Avanzadas - Tema 4 - 30 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Algoritmo de Viterbi • Ejemplo de funcionamiento, detección firme, codificador ejemplo: 2 2 2 4 2 4 2 6 2 4 1 1 1 2 0 2 2 4 4 1 Código recibido 4 errores 1 1 1 3 110 101 110 101 011 3 3 0 3 2 1 Métricas de rama Métricas acumuladas * 3 2 3 Podas x camino de mínima distancia Comunicaciones Digitales Avanzadas - Tema 4 - 31 - Algoritmo de Viterbi • Detección indecisa: – con detección indecisa el algoritmo se realiza igual sólo hay que calcular distancias euclídeas en lugar de distancias de Hamming. – las distancias euclídeas para cada rama se calculan entre el/los símbolo/s recibidos y el/los símbolo/s generados por el codificador para esa rama. – Ejemplo QPSK: símbolo 2 Eb recibido distancias en la práctica se calculan − 2 Eb 0 2 Eb como el módulo de la diferencia dos complejos − 2 Eb Comunicaciones Digitales Avanzadas - Tema 4 - 32 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Algoritmo de Viterbi • Detección indecisa: – se puede implementar el algoritmo utilizando en el receptor un banco de correladores. El algoritmo maximizará la correlación existente entre la secuencia recibida y todas las posibles secuencias transmitidas (que se representan como todos los posibles caminos del enrejado). – recuérdese que: 2 2 2 y − xi = y − 2 y ,x i + x i distancia producto escalar euclidea = correlación minimizar distancia ≡ maximizar correlación Comunicaciones Digitales Avanzadas - Tema 4 - 33 - Algoritmo de Viterbi • Aspectos prácticos del algoritmo de Viterbi: – la demodulación indecisa puede realizarse con un cierto grado de exactitud (= no es necesario calcular la distancia con absoluta precisión puede cuantificarse la salida del detector), el aumento de la Pe dependerá del grado de aproximación y de la SNR. Para SNR altas se puede cuantificar la salida del detector sin pérdidas apreciables en Pe. – si durante el funcionamiento del algoritmo de Viterbi se produce una fusión en algún punto (=a una profundidad dada) de los caminos de mínima distacia almacenados, puede tomarse la decisión sobre la parte fusionada sin pérdida de optimalidad. Comunicaciones Digitales Avanzadas - Tema 4 - 34 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Algoritmo de Viterbi • Aspectos prácticos del algoritmo de Viterbi: – las métricas acumuladas pueden desbordar el computador para evitarlo se trabaja con las diferencias de métricas respecto a la mínima (máxima). – el almacenamiento de caminos largos produce dos problemas: • desbordamiento de la capacidad de memoria del sistema • excesivo retardo de la decisión que puede ser intolerable en algunos sistemas prácticos – para evitarlo se toman decisiones anticipadas, en la práctica si se realiza una decisión con 6K (K=longitud de influencia) bits de retraso no se producen efectos apreciables en Pe. Comunicaciones Digitales Avanzadas - Tema 4 - 35 - Función de transferencia • La función de transferencia (o función generadora de caminos) de un código convolucional describe todos los caminos posibles del enrejado que empiezan y acaban en la secuencia todo ceros. – como el código es lineal, esto significa que se describen TODOS los caminos del enrejado. – esta función se utiliza, entre otras cosas, para calcular las propiedades de distancia del código y las prestaciones en términos de Pe. – para describirla utilizaremos el codificador ejemplo con: k=1, n=3 y K=3. Comunicaciones Digitales Avanzadas - Tema 4 - 36 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Diagrama de estados modificado • El diagrama de estados se puede representar de forma alternativa para generar la función de transferencia: – el estado “cero” se parte en dos: entrada y salida – cada rama se etiqueta como Dd, d= distancia Hamming a la secuencia todo ceros D2 Estado d 11 D2 D D Estado a D3 Estado c D Estado b D2 Estado e 00 10 01 00 entrada salida Comunicaciones Digitales Avanzadas - Tema 4 - 37 - Función de transferencia X c = D 3 X a + DX b • El diagrama anterior está descrito por las siguientes expresiones, X b = DX c + DX d que relacionan la entrada-salida X d = D2 X c + D2 X d entre un estado y otro: X e = D2 X b • La función de transferencia se calcula como T(D)=Xe/Xa: ∞ D6 T (D ) = ∑ Xe = = D 6 + 2 D 8 + 4 D10 + K = ad Dd X a 1 − 2D 2 d =6 ⎧2 (d − 6 )/ 2 (d = par ) ⎪ Número de Distancia a ad = ⎨ ⎪ 0 (d = impar ) caminos ⎩ “todo ceros” Comunicaciones Digitales Avanzadas - Tema 4 - 38 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Distancia libre • La función de transferencia nos proporciona las propiedades de distancia del código. En particular, la mínima distancia del código que se denomina distancia libre, dfree (para abreviar usaremos df). • La distancia libre del ejemplo es dfree=6. a 000 000 000 000 000 111 111 111 011 011 011 b 100 001 001 001 c 110 110 010 010 d 101 Comunicaciones Digitales Avanzadas - Tema 4 - 39 - Distancia libre • Distancias libres máximas que pueden obtenerse con códigos sistemáticos y no sistemáticos no catastróficos con memoria M y Rc=1/2 y 1/3. d f Rc=1/2 d f Rc=1/3 M Sistemático No Sistemático No Sistemático Sistemático 1 3 3 5 5 2 4 5 6 8 3 4 6 8 10 4 5 7 9 12 5 6 8 10 13 6 6 10 12 15 7 7 10 12 16 Comunicaciones Digitales Avanzadas - Tema 4 - 40 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Función de transferencia • Para tener más información de los caminos se puede recalcular la función de transferencia a partir del diagrama de estados, etiquetando las ramas con: N cuando el bit de entrada al codificador fue 1 y J (para contar el número de ramas de un camino). JND2 Estado d 11 JD JND2 JND Estado a JND3 Estado c JD Estado b JD2 Estado e 00 10 01 00 entrada salida Comunicaciones Digitales Avanzadas - Tema 4 - 41 - Función de transferencia • El diagrama anterior está descrito X c = JND 3 X a + JNDX b por las siguientes expresiones, X b = JDX c + JDX d que relacionan la entrada-salida entre un estado y otro: X d = JND 2 X c + JND 2 X d X e = JD 2 X b • La función de transferencia se calcula como T(D,N,J)=Xe/Xa: J 3 ND 6 T ( D, N , J ) = Xe = = X a 1 − JND 2 (1 + J ) J 3 ND 6 + J 4 N 2 D 8 + J 5 N 2 D 8 + J 5 N 3 D10 + 2 J 6 N 3 D10 + J 7 N 3 D10 + K Número de ramas=longitud del camino Número de 1s en la entrada = mensaje Comunicaciones Digitales Avanzadas - Tema 4 - 42 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Probabilidad de error de secuencia • Se supone que se transmite la secuencia 0...0 y calcularemos la probabilidad de que se produzca un camino erróneo a una cierta profundidad de entrelazado que empieza y acabe en el 0...0 – Calculamos la probabilidad de error entre la secuencia todo ceros y una secuencia con d bits codificados (1s) diferentes (d>df), P2(d), que empieza y acaba en ella. Como si estuvieran solas, como si no hubiera ninguna otra (el error se produce a una cierta profundidad de entrelazado) – La probabilidad del evento erróneo vendrá dada (utilizando la cota de la unión) por: ∞ Pe ≤ ∑a d = d free d P2 (d ) – Donde ad se puede calcular utilizando la función de transferencia. Comunicaciones Digitales Avanzadas - Tema 4 - 43 - Probabilidad de error de secuencia • Para decodificación firme se puede demostrar que P2(d) valdrá: P2 (d ) ≤ [4 p(1 − p )]2 d • Y para decodificación indecisa suponiendo modulación PSK binaria: ⎛ 2 Eb ⎞ P2 (d ) ≤ Q⎜ ⎜ N Rc d ⎟ ⎟ ⎝ 0 ⎠ Comunicaciones Digitales Avanzadas - Tema 4 - 44 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Probabilidad de error de bit • Procedimiento SOFT decoding (supongamos modulación binaria): – El número medio de bits entregados error por el decodificador para cada celda decodificada se calculará sumando para todas las distancias d, el producto entre P2(d) y el número medio de bits decodificados por error para los caminos a distancia d. Esto será: ∞ ⎛ ⎞ ∞ Ne ≤ ∑ ∑ ⎜ ⎜ d = d free ⎝ h hN dh ⎟ P2 (d ) = ⎟ ⎠ d = d free ∑ β d P2 (d ) – Donde βd nos proporciona el número medio de bits por celda decodificados con error (de unos) para los caminos a distancia d del todo ceros. – Utilizando la función generadora de caminos sabemos que el exponente de N nos da el número de bits de información erróneos (nº de 1s decodificados) que posee un cierto camino que diverge del 0...0. Luego con la función generadora puede calcular βd. Comunicaciones Digitales Avanzadas - Tema 4 - 45 - Probabilidad de error de bit • Procedimiento SOFT decoding (supongamos modulación binaria): – En los exponentes de N se buscaría el número de bits de información decodificados erróneamente para cada camino. ∞ T (D, N ) = T (D, N ,1) = ∑ ∑N d = d free h dh D d Nh – Se puede calcular βd como: ∂T (D, N ) ⎛ ⎞ ∞ ∞ ∂N = ∑ ∑ ⎜ ⎜ hN dh ⎟ D d = ⎟ ∑ βd Dd free ⎝ ⎠ N =1 d =d h d = d free – Finalmente: ∞ ∑ β d P2 (d ) Ne 1 Pb ≤ = k k d =d free Comunicaciones Digitales Avanzadas - Tema 4 - 46 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Ganancia de codificación • De las expresiones anteriores se deduce que la ganancia de codificación (en SNR) obtenida con un código convolucional sobre una modulación BPSK o QPSK viene dada por: Gc ≤ 10 log (Rc d f ) • La distancia libre puede aumentarse (aumentando la memoria, M=k(K-1)): – disminuyendo Rc (aumentar n, Rc=k/n) – aumentando la longitud de influencia K (=>la memoria) • Los resultados de las ganancias de codificación son unos 2 dB más bajos cuando se utiliza decodificación firme en lugar de indecisa. Comunicaciones Digitales Avanzadas - Tema 4 - 47 - Ganancia de codificación Comunicaciones Digitales Avanzadas - Tema 4 - 48 -
    • Comunicaciones Digitales Avanzadas - Tema 4 Ganancia de codificación Comunicaciones Digitales Avanzadas - Tema 4 - 49 -