Sistemas de Telecomunicaciones cap 2

3,401 views

Published on

Esta cap 2 está dedicado a los procesos de codificación de: fuente, canal y línea.
La cod de fuente que optimiza la asignación binaria a los símbolos de la fuente; mientras la cod de canal, introduce una redundancia estructurada para detectar y/o corregir errores. La cod de línea adapta la señal de tatos al medio de transmisión de banda base.

Published in: Education
  • Be the first to comment

Sistemas de Telecomunicaciones cap 2

  1. 1. Plan Complementario SISTEMAS DE TELECOMUNICACIONES EIE 846 Francisco Apablaza M. 2013 famapablaza@hotmail.com
  2. 2. Programa Objetivos: Conocer, Comprender y Aplicar los principales componentes y fundamentos conceptuales de los sistemas de Telecomunicaciones. Contenidos: Clasificación de los sistemas de telecomunicaciones Información, Señales y Ruido Proceso de codificación de: fuente, canal y línea Procesos de Modulación: lineal, angular y digital Multiplexión: FDM-TDM-WDM Sistemas radioeléctricos Sistemas ópticos 2
  3. 3. Introducción 3
  4. 4. Introducción
  5. 5. 5 Codificación de fuente, de canal y de línea  de fuente: Redundancia v/s Información: MP3, G.729, PCM, MPEG, JPEG >>> SACAR REDUNDANCIA  de canal: mediante redundancia controlada se detecta y/o corrige errores.  ARQ (Automatic Repeat Request), FEC, CRC, BIP (Bit Interleaved Parity) : Hamming, Trellis code, Haufmann, Viterbi, Reed Salomon, ...)  de línea: Adaptación al MEDIO Banda Base de pulsos (HDB3, AMI) ó Modulación (AM, FM, PSK, QAM)
  6. 6. Códigos de fuente 6 QR BaudotMorse ASCCI
  7. 7. 7 Códigos de fuente PCM, G.711, G.729, 7MPEG, JPEG
  8. 8. Contenido de información Una fuente de información genera una cantidad q de posibles símbolos: S1, S2, S3, …… Sq. Cada símbolo tiene una cierta probabilidad de ocurrencia o incertidumbre: p1, p2, ……pq . De modo que: p1 + p2 + p2 … pq =1 Un mensaje es un conjunto de símbolos en que cada uno tiene un contenido de información I(SK). 8
  9. 9. I (SK) depende de pK y debe obedecer las siguientes condiciones: 9 la relación que cumple: Según la elección de b: Nat si b = e Decit si b = 10 Binit si b =2 Contenido de información
  10. 10. En el caso b = 2 y para un símbolo (dígito) binario (bit) , existen dos símbolos: S1 "0" y S2 "1" . Si ambos son equiprobables, entonces: p1 = p2 = 0.5 Entonces: I (S1) = I (S2) = log2 ( 1 /0.5 ) = log2( 2) =1 binit 10 Contenido de información
  11. 11. Para un mensaje de una secuencia de N símbolos, c/u de los q posibles símbolos con probabilidad pk ocurrirá Npk veces. Así, la información del símbolo K : [binit] Y la información total: La entropía o información promedio: 11 Contenido de información [binit/simb]
  12. 12. Eficiencia de codificación Un buen código fuente reduce la cantidad de bits que se requiere para enviar la información. La codificación de fuente consigue que el canal reciba la información con la menor redundancia binaria posible, obteniéndose así mayor eficiencia en términos de ancho de banda v/s velocidad de transmisión. 12
  13. 13. 13 “código adaptado a la fuente”. Eficiencia= Eficiencia de codificación Sea una fuente con: [binit/simb] [bit/simb] [bit/simb]
  14. 14. Tipos de codificación Código bloque: todas los símbolos tienen la misma longitud. Código singular: a cada símbolo del alfabeto fuente le corresponde una única palabra de código. Código no singular: a cada símbolo del alfabeto fuente le corresponde dos o más palabras de código. 14 Código compacto o de longitud variable: se busca que a cada símbolo del alfabeto fuente le corresponda una palabra de código de longitud mínima según algún criterio de minimización dado.
  15. 15. Propiedades del código Longitud media: cada símbolo del alfabeto fuente tiene una longitud lk. entonces: representa el número medio de bits por símbolo del alfabeto. Eficiencia: se define como: Siendo: Primer teorema de Shannon o teorema de la codificación de la fuente: “Dada una fuente discreta de entropía H, la longitud media de la palabra de código está acotada inferiormente por H”. Teniendo esto en cuenta Lmin se fija como el valor de la entropía. 15
  16. 16. Propiedades del código Entonces la eficiencia puede escribirse como: Redundancia: Se denomina redundancia de un código a la información superflua o innecesaria para interpretar el significado de los datos originales. Se define como: 16
  17. 17. Códigos eficientes=Compresión Hay dos tipos de compresión:  Lógica: se trata de reducir los datos desde el momento del diseño.  Física: proceso de reducción de la cantidad de datos antes de poner los datos en el medio de transmisión y deshacer el proceso en el receptor. Tiene en cuenta la frecuencia de ocurrencia de los caracteres. 17
  18. 18. Códigos eficientes=Compresión 18 Las técnicas más utilizadas para la compresión son:  orientadas al caracter  estadísticas  basadas en diccionario
  19. 19. Técnicas de compresión orientadas al caracter 19 Se basa en el uso de un carácter especial que indica que se ha realizado la compresión. Estas técnicas pueden utilizarse de forma aislada o combinadas entre sí. Por ejm. los siguientes métodos: Eliminación de blanco Bit Mapping Run length Half byte Packing Codificación dicotómica
  20. 20. 20 Ej. eliminación de blancos. Si la cadena de entrada es: kmqØØØØØØ bgpØØswØØØØj {21} Una vez realizada la compresión, la cadena resultante será: kmqSc6bgpØØswSc4j {15} Técnicas de compresión orientadas al caracter Ej. Bit Mapping. Si la cadena de entrada es: kmqØØØØØØbgp ØØswØØØØj {21} mapping: kmqØØØØØ ØbgpØØsw ØØØØj {21} 11100000 kmq 01110011 bgpsw 00001000 j {12} Indica posición relativa c/r a blancos
  21. 21. Técnicas de compresión estadísticas Se usarán codificaciones más cortas para representar los caracteres con mayor frecuencia de aparición. Código de Huffman Código de Shannon-Fano Códigos Coma Codificación aritmética Compresión adaptativa 21
  22. 22. codificación de Shannon-Fano 1º Se ordenan los símbolos de la fuente en orden decreciente de probabilidad de ocurrencia " p" . 2º La lista ordenada se divide en tramos que, en lo posible, sean tramos equiprobables. 3º Se asigna un cero como 1er digito binario (más significativo) a los símbolos del tramo superior y se asigna un uno como 1er dígito de los símbolos del otro tramo. 4º Cada tramo es, a su vez, dividido en dos sub-tramos que, en lo posible, sean equiprobables. Se asigna un cero como 2° digito binario a los símbolos del sub-tramo superior y un uno como 2° dígito de los símbolos del tramo inferior. 5º Se continúa el proceso hasta que cada tramo se reduce a sólo dos símbolos. 22
  23. 23. 23Entropía de fuente y código iguales = 2,75 [binit/simb] codificación de Shannon-Fano
  24. 24. Códigos de canal Usualmente el objetivo es reducir Pe o el requerimiento en la relación Eb/No. 24
  25. 25. Teorema Nº 9 de Shannon “Dado un canal de capacidad C y una fuente de R[bit/seg] de razón de información promedio (o velocidad de entropía) entonces si R  C, existe algún modo de codificar, tal que la transmisión se puede efectuar, con una tasa de error arbitrariamente pequeño” 25 Para un canal sin ruido y BW=B, para M niveles de señal, entonces la máxima tasa de transmisión es: C=2B log2 M [bps]
  26. 26. Tipos de Codificación de Canal • CODIFICACIÓN DE LA FORMA DE ONDA: - Se transforman las formas de onda en mejores formas de onda para que el proceso de detección sea menos propenso a errores. • SECUENCIAS ESTRUCTURADAS - Se transforman las secuencias de datos en mejores secuencias de datos mediante el uso de redundancia estructurada (bits redundantes). • ¿Por qué usar codificación? • Desempeño de error vs. ancho de banda • Potencia vs. ancho de banda • Tasa de datos vs. ancho de banda • Capacidad vs. ancho de banda 26
  27. 27. Modelos de Canal •CANAL SIN MEMORIA DISCRETO (DMC) – Se caracteriza por un alfabeto de entrada discreto, un alfabeto de salida discreto y un conjunto de probabilidades condicionales P(j | i). •CANAL SIMÉTRICO BINARIO (BSC) – Los alfabetos de entrada y salida consisten de los elementos binarios y las probabilidades condicionales son simétricas.     1)0|0()1|1()0|1(1|0 PPPP •CANAL GAUSSIANO – Es un ejemplo de una generalización de los canales DMC para alfabetos no discretos. El canal adiciona ruido a los símbolos. Tiene como entrada un alfabeto discreto y como salida un alfabeto continuo sobre el rango de (-∞ a + ∞) 27
  28. 28. Canal con ruido Como ej. para un canal de 3,4 KHz C= 6.800 bps para 2 niveles C= 13.600 bps para 4 niveles 28 Si el canal tiene ruido, a mayor velocidad de transmisión, mayor es la tasa de errores. 0.5 seg A 1.000 bps se pierden 500 bits y a 30.000 bps son 15.000 bits perdidos
  29. 29. PT= S+N V2 T=Vs+VN VT 29 donde  es el factor de forma, razón Peak/RMS El máximo Nº de bits de información para identificar los niveles es: 2b = VT / VN , o sea: Nº niveles =2b V=2VT/2b T Canal con ruido
  30. 30. 30 Sean M el Nº total de muestras en un intervalo T, entonces: Canal con ruido La máxima tasa de información en T es: Por el teorema de muestreo: y la máxima tasa de inf a transmitir: [muestras] [bits] M/T = 2B
  31. 31. La capacidad de canal La ecuación de Shannon C = B log2 (1+S/N) Se puede demostrar que el límite superior de capacidad de canal para una d.e.p. de ruido blanco: 31 De acuerdo, entonces a lo postulado por Shannon, se puede transmitir información digital con una prob.de error arbitrariamente pequeña.
  32. 32. Modelo de Canal CANAL SIMÉTRICO BINARIO (BSC) 32
  33. 33. Codificación de canal un Ejm. Ej.: un modem PSK puede operar a: 1.200 [bps] con Pe=2x10-4; ó 2.400 [bps] con Pe=4x 10-4; y 3.600 [bps] con Pe=8 x10-4 33 si se utiliza un codificador que transmita 3[bits] por cada bit de entrada: Se agregó redundancia, se Tx a la max. Velocidad, y mayor Prob. de error, PERO, cada “tripleta” permite identificar y corregir errores: Mayor BW y N
  34. 34. mucho mejor que la Pe original Pe=2x10-4 ! 34 la Pe de salida en recepción: Probabilidad de que 2 o más bits en la tripleta sean erróneos. Codificación de canal ejm cont.
  35. 35. Código y procedimiento ARQ (Automatic Repeat Request), FEC, CRC, BIP (Bit Interleaved Parity) : Hamming, Trellis code, Haufmann, Viterbi, Reed Salomon, ...) 35 ARQ : no es un código, sino un procedimiento o protocolo de control de errores: al detectar error > NACK no hay error > ACK Sistema lento, requiere repetición y posiblemente ordenamiento de los paquetes. Variantes: Stop-and-wait ARQ; Go-Back-N ARQ Selective Repeat ARQ
  36. 36. Petición de Retransmisión Automática (ARQ) • PARE Y ESPERE – Requiere una conexión half-duplex. – El transmisor espera por un reconocimiento de cada transmisión antes de continuar con la siguiente. 36
  37. 37. Petición de Retransmisión Automática (ARQ) • ARQ CONTINUO CON RETROCESO (pullback) – Requiere una conexión full-duplex. – El transmisor envía el mensaje con un número de secuencia y, a medida que los mensajes llegan el destino, el receptor envía los datos de reconocimiento (ACK y NACK) que deben hacer una referencia al Número de secuencia. 37
  38. 38. Petición de Retransmisión Automática (ARQ) • ARQ CONTINUO CON REPETICIÓN SELECTIVA – Requiere una conexión full-duplex. 38
  39. 39. Código de paridad Se añade en origen un bit extra llamado bit de paridad a los n bits que forman el carácter original. Este bit de paridad se determina de forma que el número total de bits 1 a transmitir sea par (código de paridad par) o impar (código de paridad impar) 39 Combinación Bit Paridad 0101 0 1001 0 0111 1 1000 1 paridad PAR 39
  40. 40. Redundancia en la Codificación de Canal • TASA DE CÓDIGO Y REDUNDANCIA Redundancia del código Para implementar la codificación de canal, debe introducirse redundancia en los mensajes, lo cual implica tener un mayor ancho de banda de transmisión. El uso de códigos también aumenta la complejidad del sistema. k kn )(   Tasa de código n k  Tasa de datos del canal so R k n R  Tasa de bit de la fuentesR 40
  41. 41. Conceptos Distancia de Hamming entre dos palabras: Nº de bits que difieren dos palabras. Se necesitan 4 errores para transformar una palabra en la otra. 41 Distancia Hamming = 4 C1 C2 El peso Hamming de un vector de código C es definido como el número de componentes no- cero de C.
  42. 42. Distancia de Hamming de un código Dependiendo de la Dist.Hamming hay distintas propiedades del código 42 Distancia mínima entre las palabras que componen el código Ejm: {100, 111, 011} mín {d(100, 111), d(100, 011), d(111, 011)} = mín {2, 3, 1} = 1
  43. 43. Propiedades para la detección de errores Para detectar t errores de un bit entre dos palabras, es necesario un código con una distancia de Hamming de al menos d=t+1 De otra forma: Con una distancia de Hamming de d se pueden detectar d-1 errores Ejm: C = {001, 010, 100}, D. Hamming = 2 • Un error aislado siempre se detecta Un error en 001 ⇒ 101, 011, 000, {∉ C} • Dos errores aislados no se detectan Dos errores en 001 ⇒ 111, 010, 100, {2  C} 43 DH D C 1 x x 2 1 x 3 2 1 x 1 4 3 2 x 1
  44. 44. Propiedades para la corrección de errores  Para corregir t errores de un bit entre dos palabras es necesario un código con una Distancia de Hamming de al menos 2t+1 De otra forma: Con una distancia de Hamming de d se pueden corregir (d-1)/2 errores Ejm: C = {0000000000, 0000011111, 1111100000, 1111111111} d. Hamming = 5 Se pueden detectar d-1 = 5-1 = 4 errores Se pueden corregir (d-1)/2 = 4/2 = 2 errores 44 FEC : forward error correction
  45. 45. Redundancia y Probabilidad de Error Residual 45
  46. 46. Compara Control de Errores 46
  47. 47. Clasificación de Inclusión de la Redundancia • CÓDIGOS CONVOLUCIONALES – De forma continua a medida que llega la información al codificador. • CÓDIGOS DE BLOQUE – Asociada a bloques de información Códigos de canal Códigos bloque Códigos Trellis Códigos lineales Códigos no lineales Códigos convolucionales Codigos Coset Códigos cíclicos 47
  48. 48. Códigos Bloque Un bloque de “n” bits de salida está formado por el bloque de “k” bits de entrada más un grupo de “r” bits de chequeo. Éstos son derivados del bloque de bits de entrada (bits de información) mediante alguna operación matemática. En el decodificador los bits de chequeo son usados para verificar si los bits de información que llegan en el bloque, tienen o no errores. En el codificador (transmisor) cada nuevo bloque de entrada genera un nuevo bloque de salida, que sólo está relacionado con el bloque de entrada actual y con ninguno de los bloques de entrada precedentes. 48
  49. 49. Código bloque Lineal (n,k) El código es sistemático si, en las palabras codificadas, los k bits de mensaje aparecen primero, en el tiempo, y los “n-k” bits agregados, o redundantes, van después. 49 El código bloque es lineal si c/u de las 2k palabras codificadas puede expresarse como una combinación lineal de k vectores de código linealmente independientes.
  50. 50. Proceso de codificación  El codificador transforma cada bloque de k bits en un bloque más grande, de n bits, de acuerdo con alguna regla predeterminada. Los (n – k) bits adicionales se generan mediante combinaciones lineales de los bits de mensaje, pudiendo describirse la operación de codificación mediante matrices. 50  El mensaje a transmitir es segmentado en bloques de k bits.
  51. 51. razón de eficiencia del código= k/n Vector fila de dimensión K, 2k “bloques” 51 CODIFICADOR Proceso de codificación código de bloque (n, k) Los primeros k bits de C Ci =di i =1, 2,3,.........., k |G|
  52. 52. La matriz de codificación últimos (n – k) bits de C son generados desde los k bits de mensaje según alguna regla predeterminada 52 Los coeficientes pij pueden ser “0” o “1”, y las sumas son “en módulo 2”
  53. 53. Matriz generadora El vector datos genera el vector paridad 53 Donde: P es una matriz, de 1’s y 0’s, arbitraria k x(n – k ) Ver Anexo Mx
  54. 54. Matriz paridad y chequeo La matriz P puede buscar que G tenga ciertas propiedades de: facilidad de implementar, capacidad de corregir errores aleatorios o en ráfagas, etc. 54 Para decodificar, se opera con la matriz H, de chequeo de paridad: El vector del mensaje recibido es: donde E es el posible error
  55. 55. Matriz HT La elección de la matriz HT de dimensión (n)x(n-k) debe seguir las siguientes reglas: 55 Las n filas de HT deben ser distintas. No se debe usar una fila con todos ceros. Las últimas (n – k) filas deben ser la matriz identidad en H. Hay2n-k filas distintas de (n-k) componentes, de las cuales se puede escoger “2n-k-1” filas distintas para HT (se excluye la fila de todos cero).
  56. 56. Para determinar la dimensión de la matriz, se debe tener en cuenta la Dmin requerida, ya que HT tiene n filas distintas, entonces: 56 Entonces, dado un mensaje original con largo de bloques de entrada de k bits, podemos determinar el nuevo largo del bloque de salida de n bits, de modo que: Matriz HT
  57. 57. 57 DECODIFICADOR Proceso de decodificación y el vector Síndrome: |H| El proceso inverso: R= (d1,d2,………dk) S (n-k)= cero, si R no tiene error, o sea, si R es una de las palabras C “válidas”; sin embargo, R podría ser  del C original: Significa que hay error(es).
  58. 58. Ejm codif y decodif 58 Matriz generadora Sea un código bloque lineal sistemático (7, 4) con matriz de paridad Para la entrada di = [1 1 0 1] produce la salida ci = [1 1 0 1 0 0 1]
  59. 59. Sea un código bloque lineal sistemático (4, 2) con matriz generadora 59 Matriz generadora Ejm codif y decodif La distancia mínima es dmin = 2 < (n − k + 1 = 3). Si se transmite la palabra c = [0 0 1 1] y se recibe: r = [1 1 1 1] el sistema detecta el error ya que el síndrome s = [1 0] es distinto de cero. Sin embargo, no es capaz de corregirlo ya que hay varios patrones con peso 1.
  60. 60. Códigos de Hamming –Los códigos Hamming son una subclase de los códigos de bloque lineal y pertenecen a la categoría de los códigos perfectos. –Se expresan como una función de un entero m>=2 60 m m m
  61. 61. Código (7,4) de Hamming – Es común referirse al código de Hamming(7,4) que Hamming introdujo en 1950. – El código de Hamming agrega tres bits adicionales de comprobación por cada cuatro bits de datos del mensaje. – El algoritmo de Hamming (7,4) puede corregir cualquier error de un solo bit, pero más de un bit error NO, – Los tres bits de comprobación se ubican en las posiciones de la palabra a transmitir que correspondan a potencias de dos, es decir, las posiciones 1, 2, 4, 8,… – Los bits de información serán los restantes: 61
  62. 62. Códigos (7,4) de Hamming –Para el cálculo de cada uno de los bits de paridad, se verifican los bits ubicados en posiciones específicas. –El cálculo será así: –Para el bit de paridad 1: –Para el bit de paridad 1: 62
  63. 63. Códigos (7,4) de Hamming –Para el cálculo de cada uno de los bits de paridad, se verifican los bits ubicados en posiciones específicas. –El cálculo será así: –Para el bit de paridad 4: –Para el bit de paridad 8: 63
  64. 64. Códigos CRC CÓDIGOS CÍCLICOS, una subclase de los códigos bloques lineales. Es un código en que cada palabra válida es un corrimiento lateral de unas a otras. ventajas:  La codificación y la determinación del síndrome pueden implementarse usando registros de desplazamiento y realimentaciones.  Obedecen a una estructura matemática que permite diseñar códigos con propiedades detectoras y, también, correctoras de error.  Se describen con polinomios. 64
  65. 65. Un código bloque lineal (n, k) es un código cíclico si: 65 es un vector del código C, y también es vector del código C. Esta propiedad permite considerar los elementos de cada vector, como coeficientes de un polinomio de grado (n -1). Códigos CRC polinomio
  66. 66. O sea, 66 Si se divide xiV (x) por xn+1 V (i)(x) es el residuo Vi= representa a V desplazada en forma cíclica (i) lugares hacia la izquierda. Códigos CRC desplazamiento
  67. 67. Sea C(x)= d(x) g(x) un código CRC, para ello: d(x) es grado (k-1), y g(x) es grado (n-k) y factor de (xn+1) 67 Un vector de datos es: d(x)= d1x(k-1)+d2x(k-2)+……+dk C(x)= d1x(k-1)g(x)+d2x(k-2)+g(x)……+dk g(x) polinomio de grado (n-1) o menor Códigos CRC pol.generador
  68. 68. Existe un total de 2k polinomios, correspondientes a 2k vector de datos. Así un código lineal (n,k) generado por C(x)=d(x)g(x) 68 Por Ej. para un código (7,4) x7+1 = (x+1)(x3+x+1)(x3+x2+1) son factores de xn+1 Para g(x) válido debe ser de orden (n-k)=3 Sea entonces g(x)=(x3+x2+1) Y si los datos son: d= 1 0 1 0 x3 x2 x1x0 d(x)= x3+x Códigos CRC factores
  69. 69. C(x)=d(x)g(x) = (x3+x)(x3+x2+1) x6+x5+x4+x 69 o sea, C = 1 1 1 0 0 1 0 No sistemático Códigos CRC ejemplo Existe el método para que CRC sea sistemático: Investigue !
  70. 70. Decodificación CRC Como todo C(x) válido es un múltiplo de g(x), si hay un error en la palabra recibida r(x), ésta NO será múltiplo de g(x), así: 70 Siendo S(x) el Residuo de grado n-k-1 o menor, llamado el SINDROME de la decodificación. Indicando existencia o no de error.
  71. 71. Si e(x) es el polinomio error, entonces r(x) = C(x) + e(x) y como C(x) es múltiplo de g(x), S(x) = Res [C(x) + e(x)] / g(x) O sea, S(x) = Res e(x) / g(x)  0 71 Decodificación CRC Teniendo el patrón de errores se puede corregir
  72. 72. Ejm de polinomios generadores 72 Algunos estándares internacionales:
  73. 73. Gran variedad de códigos 73 Códigos Convolucionales; CRC; BIP (Bit Interleaved Parity); Hamming;Trellis code; Haufmann; Viterbi; Reed Salomon; BCH, y mas… Tema de lectura !
  74. 74. Probabilidad de error 74 La probabilidad de error está acotada por la probabilidad de que ocurran más de t errores. En canales AWGN: donde p es la probabilidad de que ocurra un error en un bit. Para una modulación BPSK:
  75. 75. Para SNR altas: 75 Puede demostrarse que cuando el ruido es blanco gaussiano y la modulación es BPSK: Probabilidad de error
  76. 76. Probabilidad de error ejm Calcular la probabilidad de error de un código bloque lineal (5, 2) con dmin = 3, considerando que se utiliza una modulación BPSK con Eb/No = 10dB. 76 En unidades naturales Eb/N0 = 10. Por tanto, Ec/N0 = 4. La probabilidad de error es p = Q(√8) = 2.34 × 10−3. Para este valor de p, dmin = 3, t = ⌊0.5(dmin − 1)⌋ = 1 y k = 2, se obtiene Pe(1) ≤ 4.92 × 10−5 y Por otro lado, Pe(2) = 2.7 × 10−3. La probabilidad de error sin codificar es: Pb = Q(√20) = 3.87 × 10−6.
  77. 77. Pb vs SNR para codificación 77
  78. 78. CODIFICACIÓN DE LÍNEA 78
  79. 79. Características  También una suerte de codificación de canal  Adapta señal al medio de tx.  Modo de modulación de banda base  Transmisión binaria y m-aria  Facilita recuperación de sincronismo  Reduce ancho espectral  Elimina componente DC 79
  80. 80. Ganancia de codificación 80 Ganancia = 6dB Comparando para 10-5
  81. 81. Cod lineal NRZ, NRZI, RZ Codigos binarios polar de minimo BW, pero carece de sincronismo Tiene contenido DC Cod RZ usa doble BW que NRZ y NRZI Son usados sólo para muy corta distancia, si hay acoplamiento DC y baja velocidad 81
  82. 82. Señales de cod de línea 82 Tck Tck/2 Reloj NRZ RZ AMI Tck/2 1 0 1 1 0 1 0 1 +V -V +V -V +V -V
  83. 83. DEP cod de línea 831/Tck En mayor detalle
  84. 84. Unipolar NRZ (Binary On-Off Keying) T =1/R es la duración del bit, y R es la tasa binaria de bits por segundo. V es el nivel de voltaje del bit 1 84 PSD de varios cod línea, con R =1/T (tasa binaria)
  85. 85. Probabilidad de error binaria para varios códigos de línea. 85 Eb/N0 es una medida de razón señal-ruido (SNR) de la señal recibida. Eb es la energía en un bit 1: V2T Unipolar NRZ (Binary On-Off Keying)
  86. 86. Observar que para señal NRZ si hay una larga secuencia de 1s o 0s puede resultar en pérdida de sincronismo, debido a que no hay transiciones de pulsos. 86
  87. 87. Espectro de potencia de códigos de duración T segundos: 87
  88. 88. Código Manchester 88 0 = transición de “+” a “-” en centro de intervalo 1 = transición de “-” a “+” en centro de intervalo Biphase-L or Manchester II 0 = transición de “-” a “+” en centro de intervalo 1 = transición de “+” to “-” en centro de intervalo Manchester Diferencial Transición siempre en centro de intervalo 0 = transición en inicio de intervalo 1 = no transición en inicio de intervalo
  89. 89. Pseudoternarios 89 0 = alterna “+” y “-” 1 = 0 V Bipolar-AMI 0 = 0 1 = alterna “+” y “-” Si se detecta un “1” cuando el último “1” no tiene polaridad opuesta: violación de bipolaridad. Por lo tanto puede detactar error. Twinned binary code 0 a 1 transmite “+” 1 a 0 transmite “-” 0 a 0 transmite “0” 1 a 1 transmite “0”
  90. 90. CMI (Coded Mark Inversion) bit “1” es representado como en AMI: um pulso de duración T segundos de polaridad alternada. bit “0” es representado por pulso: 90
  91. 91. Código de Línea Bloque 91 HDB3 V: violación de bipolaridad B: balance de bipolaridad AMI que no permite mas de tres ceros consecutivos
  92. 92. AMI que reemplaza 8 ceros consecutivos, reemplazando por dos violaciones de paridad. 92 Código de Línea Bloque B8ZS
  93. 93. Código Línea Bloque multinivel 93 En este caso, la tasa de símbolos es menor que la tasa de bits. Códigos kBnT k n codigo eficiencia 1 1 1B1T 63% 3 2 3B2T 95% 4 3 4B3T 84% 6 4 6B4T 95% 7 5 7B5T 89% Eficiencia para k y n valores con 3 niveles k es el Nº de bits de información en el block y n es el Nº de símbolos ternarios en el código.
  94. 94. Código 4B3T  Se convierte un bloque de 4 dígitos binarios em un bloque de 3 dígitos ternarios.  De los 33=27 bloques ternarios posibles, sólo se usan 16, correspondientes a los 24=16 bloques binarios.  Se define una “disparidad acumulada” en relación a una “historia” de niveles (“+”) y (“-“)  La regla de codificación es compleja y obedece a um diagrama de estados. 94
  95. 95. Diagrama de transición de estados 4B3T Asegura balance DC y una fuerte componente de reloj. 95
  96. 96. Asignación 4B3T La columna 1 tiene componente negativo DC, la 2ª nivel cero, y la 3ª nivel positivo. 96
  97. 97. Código 2B1Q 97 Cuaternario Nivel (volt) 1 0 3 2,5 1 1 1 0,833 0 1 -1 -0,833 0 0 -3 -2,5 Binario Regla:
  98. 98. Utilización 98 AMI Sistema T1 HDB3 ITU-T G.703, 2,8,34 Mbps CMI idem 140Mbps Manchester Ethernet 802.3: Grabación magnética; distribución de reloj 4B3T USA 34, 140 Mbps 2B1Q RDSI, modem BB
  99. 99. Conclusión: 99 Preguntas: ¿ ? En los sistemas de Telecomunicaciones se optimiza el BW con los códigos de fuente y de protege la información ante los efectos del ruido con los códigos de canal. La codificación de línea puede interpretarse como una codificación de canal y también como una modulación.
  100. 100. Refs. - B.P. Lathi; Sistemas de Comunicaciones - K.M. Shammugan; Digital and Analog Communication Systems - Principios de Tx de Información, Briceño - Teoría de Información; AF.Kuri - Comunicaciones Digitales; M.Mezoa - Apuntes prof R.Villarroel 100
  101. 101. 101 1.- Determine código (7,4) dada: Comprobar mensaje recibido: R= 1 0 0 1 0 0 1 2.- Considere la palabra de datos de 8 bits "01101011“ y codifique según procedimiento de Codificación Hamming. Luego considere que el bit de la derecha, por error, cambia de 1 a 0. 3.- Revise el paper de C.Shannon “The Mathematical Theory of Communication” e identifique cuantos teoremas enunció. 4.- Determine la Cantidad de Información que contiene una imagen de imagen de 16x16 pixeles. Considerando que se requiere identificar cada una de las posiciones de dichos pixeles y si además, se usa un código que identifica 256 combinaciones de colores primarios y 256 combinaciones de niveles de intensidad para cada pixel. 101 Investigar:
  102. 102. Concepto de matriz 102 Se denomina matriz a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas. El conjunto de matrices de m filas y n columnas se denota por Amxn o (aij), y un elemento cualquiera de la misma, que se encuentra en la fila i y en la columna j, por aij. Anexo recordando matrices
  103. 103. 103 Una matriz identidad es una matriz diagonal en la que los elementos de la diagonal principal son iguales a 1. Matriz identidad o unidad Matriz fila Matriz columna Anexo recordando matrices
  104. 104. 104 Anexo recordando matrices Dadas dos matrices de la misma dimensión, A=(aij) y B=(bij), se define la matriz suma como: A+B=(aij+bij). Es decir, aquella matriz cuyos elementos se obtienen: sumando los elementos de las dos matrices que ocupan la misma misma posición.
  105. 105. Anexo recordando matrices 105 Dos matrices A y B se dicen multiplicables si el número de columnas de A coincide con el número de filas de B. Mm x n x Mn x p = M m x p El elemento cij de la matriz producto se obtiene multiplicando cada elemento de la fila i de la matriz A por cada elemento de la columna j de la matriz B y sumándolos.
  106. 106. 106 Matriz traspuesta Dada una matriz A, se llama matriz traspuesta de A a la matriz que se obtiene cambiando ordenadamente las filas por las columnas (At)t = A (A + B)t = At + Bt (α ·A)t = α· At (A · B)t = Bt · At Anexo recordando matrices
  107. 107. Multiplicación de polinomios P(x) = 2x2 − 3 Q(x) = 2x3 − 3x2 + 4x Se multiplica cada monomio del primer polinomio por todos los elementos segundo polinomio. P(x) · Q(x) = (2x2 − 3) · (2x3 − 3x2 + 4x) = = 4x5 − 6x4 + 8x3 − 6x3 + 9x2 − 12x = Se suman los monomios del mismo grado. = 4x5 − 6x4 + 2x3 + 9x2 − 12x Se obtiene otro polinomio cuyo grado es la suma de los grados de los polinomios que se multiplican. 107 Anexo recordando polinomios
  108. 108. También podemos multiplicar polinomios de siguiente modo: 108 Anexo recordando polinomios
  109. 109. Suma de polinonomios. Ordenar escribiendo uno debajo del otro, de forma que los monomios semejantes queden en columnas y se puedan sumar: P(x) = 7x4 + 4x2 + 7x + 2 Q(x) = 6x3 + 8x +3 P(x) + Q(x) = 7x4 + 6x3 + 4x2 + 15x + 5 109 Anexo recordando polinomios
  110. 110. División de polinomios: P(x) = x5 + 2x3 − x − 8 Q(x) = x2 − 2x + 1 P(x) : Q(x) A la izquierda se anota el dividendo. Si el polinomio no es completo deja espacios en los lugares que correspondan. A la derecha situar el divisor dentro de una caja. Dividir el primer monomio del dividendo entre el primer monomio del divisor. 110 x5 : x2 = x3 Anexo recordando polinomios
  111. 111. Multiplicar cada término del polinomio divisor por el resultado anterior y restar del polinomio dividendo: 111 Volver a dividir el primer monomio del dividendo entre el primer monomio del divisor. Y el resultado se multiplica por el divisor y lo resta al dividendo. 2x4 : x2 = 2 x2 Anexo recordando polinomios
  112. 112. Procedemos igual que antes. 112 5x3 : x2 = 5 x Anexo recordando polinomios
  113. 113. Volvemos a hacer las mismas operaciones. 113 8x2 : x2 = 8 10x − 16 es el resto, porque su grado es menor que el del divisor y por tanto no se puede continuar dividiendo. x3 + 2x2 + 5x + 8 es el cociente. Anexo recordando polinomios
  114. 114. 114

×