AREA DE LA ENERGÍA, LAS INDUSTRIAS, Y LOS RECURSOSNATURALES NO RENOVABLESCARRERA DE INGENIERIA EN ELECTRÓNICA YTELECOMUNIC...
FUENTES DE INFORMACIÓN Y CODIFICACIÓN DE FUENTEUna fuente de información es un elemento que entrega información, como pued...
1 Hartley = 3,32 bits (2)1 nat = 1,44 bits (3)En la ecuación 4 notamos que si P (E) = 1/2, será I(E) = 1 bit. Es decir, un...
La probabilidad de un o es w y la de un 1 es 1 – w. En donde w’=1-w. La entropía se determinaa partir de la ecuación 4:H(S...
3. CÓDIGOS HUFFMANLa codificación Huffman usa un método específico para elegir la representación de cadasímbolo, que da lu...
Los resultados obtenidos tanto del código compacto como de su longitud y entropía semuestran en la Figura 3.Figura 3. Resu...
Del ejemplo 3 podemos concluir que conforme aumentan los símbolos de codificación, lalongitud media L disminuye.4. CUANTIZ...
Figura 5. Ejemplo de un esquema de cuantización de 8 niveles.Ejemplo 4. Considerando la señal:S(t)=4*cos(2*pi*t)Muestreada...
Tabla 1. Resultados obtenidos para el ejemplo 4.La representación gráfica del cuantificador o cuantizador se muestra en al...
Figura 9. Cuantizador uniforme de 7 niveles.4.1.2 cuantización no uniforme:Consideremos la función de densidad de la Figur...
4.2 CUANTIZACIÓN VECTORIAL: en la cuantización escalar cada salida de la fuentediscreta en tiempo (la cual es usualmente e...
bits/salida de la fuente obtenidos para el caso escalar. Si se relajan los requerimientos de tenerregiones rectangulares, ...
pueden utilizarse con una variedad de fuentes, siempre que las formas de onda producidas poresas fuentes tengan ciertas si...
5.1.2 MODULACIÓN POR CODIFICACIÓN DE IMPULSOS DIFERENCIAL(DPCM)Puesto que PCM no tiene en cuenta la forma de la onda de la...
La figura 17 muestra un codificador/decodificador ADPCM, Hay dos métodos para adaptar loscuantificadores y los predictores...
decimación, es decir, se quitan muestras. Las sub-bandas se codifican usando algún métodobasado en el dominio del tiempo. ...
Disponible en:http://electroacustica.artesmusicales.org/varios/material_didactico/Sampling/Digital%20Signals-Sampling%20an...
Upcoming SlideShare
Loading in...5
×

Entropia

1,147

Published on

entropa

Published in: Economy & Finance
0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total Views
1,147
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
33
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Entropia

  1. 1. AREA DE LA ENERGÍA, LAS INDUSTRIAS, Y LOS RECURSOSNATURALES NO RENOVABLESCARRERA DE INGENIERIA EN ELECTRÓNICA YTELECOMUNICACIONESMÓDULO VIIICOMUNICACIONES DIGITALESTEMA: Fuentes de Información y Codificación de Fuente.REALIZADO POR: Edgar Emanuel González Malla.PARALELO: “A”DOCENTE: Ing. Klever CarriónFECHA: 2012-03-19LOJA - ECUADOR
  2. 2. FUENTES DE INFORMACIÓN Y CODIFICACIÓN DE FUENTEUna fuente de información es un elemento que entrega información, como pueden ser unapersona hablando, un ordenador entregando datos. Es un elemento que entrega una señal, yuna señal es una función de una o más variables que contiene información acerca de lanaturaleza o comportamiento de algún fenómeno. Es decir, se considera señal tanto alfenómeno físico que transporta la información como a la función matemática que representa aese fenómeno.Las fuentes de información se clasifican basándose en el tipo de señal que entregan. Sepueden clasificar, según el tipo de variable independiente (tiempo) en: Fuentes de tiempo continuo: la función está definida para cualquier valor de lavariable independiente. Fuentes de tiempo discreto: la función sólo está definida para un conjunto contable deinstantes de tiempo. En la cuales el valor de la función sólo toma un conjunto finito devalores. A cada uno de estos valores se los denomina símbolos. El conjunto de todoslos símbolos se suele llamar alfabeto.1. ENTROPÍALa Entropía corresponde a la cantidad de información promedio que contienen los símbolosusados. Los símbolos con menor probabilidad son los que aportan mayor información; porejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabrasfrecuentes como "que", "el", "a" aportan poca información. Mientras que palabras menosfrecuentes como "corren", "niño", "perro" aportan más información. Si de un texto dadoborramos un "que", seguramente no afectará a la comprensión y se sobreentenderá, nosiendo así si borramos la palabra "niño" del mismo texto original. Cuando todos los símbolosson igualmente probables (distribución de probabilidad plana), todos aportan informaciónrelevante y la entropía es máxima.El concepto de entropía es usado en termodinámica, mecánica estadística y teoría de lainformación. En todos los casos la entropía se concibe como una "medida del desorden" o la"peculiaridad de ciertas combinaciones". La Entropía puede ser considerada como una medidade la incertidumbre y de la información necesaria para, en cualquier proceso, poder acotar,reducir o eliminar la incertidumbre.Sea E un suceso que puede presentarse con probabilidad P(E). Cuando E tiene lugar, hemosrecibido:I(E) = (1)unidades de información.Si introducimos el logaritmo de base r=2, la unidad correspondiente se denomina bit,empleando logaritmos naturales, la unidad de información recibe el nombre de nat, en el casode logaritmos de base 10, la unidad de información es el Harley. La relación entre estasunidades es la siguiente:
  3. 3. 1 Hartley = 3,32 bits (2)1 nat = 1,44 bits (3)En la ecuación 4 notamos que si P (E) = 1/2, será I(E) = 1 bit. Es decir, un bit es la cantidad deinformación obtenida al especificar una de dos posibles alternativas igualmente probables.Esta situación se presenta al lanzar una moneda al aire o al examinar la salida de un sistema decomunicación binario.Definición de Entropía: Al contenido de información de la fuente se denomina Entropía, H(S),que corresponde a la magnitud de la cantidad media por símbolo de la fuente. La entropía deuna variable aleatoria S es una función de las probabilidades de ocurrencia de las muestras,definida como:H(S)= ∑ bits (4)En el transcurso de este informe se mantendrá la notación = log(m), por lo que lasunidades manejadas serán bits.Ejemplo 1. Consideremos la fuente S = {s1, s2, s3,) con P(s1) = 1/2 y P(s2) = P(s3) = 1/4.Entonces:H(S) = 1/2 log 2 + 1/4log 4 + 1/4 los 4 = 3/2 bits2. PROPIEDADES DE LA ENTROPÍALa entropía tiene las siguientes propiedades: La entropía es no negativa. Esto es evidente ya que al ser Pi una probabilidad entonces 0<Pi ≤ 1.Por tanto podemos decir que < 0 y por tanto > 0. Dado un proceso con posibles resultados {S1,..,Sn} con probabilidades relativas P1, P2..,Pn,la función H(P1,P2,….., Pn), es máxima en el caso de que P1 = P2 = Pn = 1/n. El resultado esintuitivo ya que tenemos la mayor incertidumbre del mensaje, cuando los valores posiblesde la variable son equiprobables. Dado un proceso con posibles resultados {S1,..,Sn} con probabilidades relativas P1, ...,Pn,la función H(P1, P2,…Pn), es nula en el caso de que Pi = 0 para todo i, excepto para unaclase, tal que: pj = 1. De forma intuitiva podemos pensar que cuando uno o más estadostienen una probabilidad alta, disminuye significativamente la entropía porque, como eslógico, existe una menor incertidumbre respecto al mensaje que se recibirá. La cantidad máxima de información dada por una fuente de memoria nula de q símbolos,crece lentamente al aumentar q. De hecho, la cantidad máxima de información crece conel logaritmo del número de símbolos de la fuente, de modo que para duplicar la cantidadmáxima de información por símbolo en una fuente de q símbolos, sería necesaria unafuente de q2símbolos. Ya que H(S2)=2H(s).Un ejemplo particularmente importante de fuente de información de memoria nulacorresponde a una fuente binaria de memoria nula. En tal fuente, el alfabeto se reduce a (0, 1).
  4. 4. La probabilidad de un o es w y la de un 1 es 1 – w. En donde w’=1-w. La entropía se determinaa partir de la ecuación 4:H(S) = 1/w*log + 1/w’*log bitsOtro punto importante es que:Por lo tanto por definición:0*log0=0En la Figura 1 se representado la curva de variación H(w) en función de w, denotada en elintervalo (0, 1 )de la variable. Como se aprecia en dicha figura si la salida de la fuente binaria escierta (w=0 u w’=1) la fuente no suministra ninguna información. El valor medio de lainformación aportada por un símbolo de la fuente binaria alcanza su máximo en el caso en queambos, 0 y 1, sean igualmente probables, siendo este valor máximo igual a log 2, es decir, 1bit. La salida de una fuente binaria está constituida por dígitos binarios o binits. Así unasecuencia de binits producida por una fuente de información binaria de memoria nula, de 0s y1s equiprobables, suministra un bit de información por binit. Si 0s y 1s no son igualmenteprobables, la cantidad de información dada por un binit será menor o mayor de 1 bitdependiendo de los valores de las probabilidades. La cantidad media de informaciónsuministrada por un binit de tal fuente, sin embargo, será siempre menor o igual a 1 bit.Figura 1. Representación de H(w).
  5. 5. 3. CÓDIGOS HUFFMANLa codificación Huffman usa un método específico para elegir la representación de cadasímbolo, que da lugar a un código prefijo (es decir, la cadena de bits que representa a unsímbolo en particular y nunca es prefijo de la cadena de bits de un símbolo distinto) querepresenta los caracteres más comunes usando las cadenas de bits más cortas, y viceversa.Huffman fue capaz de diseñar el método de compresión más eficiente de este tipo: ningunarepresentación alternativa de un conjunto de símbolos de entrada produce una salida mediamás pequeña cuando las frecuencias de los símbolos coinciden con las usadas para crear elcódigo.La idea en la codificación de Huffman es elegir una longitud de palabra que las secuencias masprobables tengan longitudes cortas. Los códigos Huffman son unívocamente decodificables einstantáneos con longitud de código mínima. En ese sentido son óptimos. La optimalidad seentiende sobre todos los códigos que satisfacen la condición de prefijo (y en consecuencia sonunívocamente decodificables e instantáneos).Técnica básica: La técnica utilizada es el propio algoritmo de Huffman. Consiste en lacreación de un árbol binario (o de alfabeto n-ario) en el que se etiquetan los nodos hoja conlos caracteres, junto a sus frecuencias, y de forma consecutiva se van uniendo cada pareja denodos que menos frecuencia sumen, pasando a crear un nuevo nodo intermedio etiquetadocon dicha suma. Se procede a realizar esta acción hasta que no quedan nodos hoja por unir aningún nodo superior, y se ha formado el árbol binario.Posteriormente se etiquetan las aristas que unen cada uno de los nodos con ceros y unos (hijoderecho e izquierdo, respectivamente, por ejemplo. El código resultante para cada carácter esla lectura, siguiendo la rama, desde la raíz hacia cada carácter (o viceversa) de cada una de lasetiquetas de las aristas.Ejemplo 2:Codificar la fuente S={a1, a2,..., a6} con una distribución de probabilidades,:p1=0.3; p2=0.25; p3=0.2; p4=p5=0.1; p6=0.05Utilizando un alfabeto de 2 simbolos; el árbol binario seria como el de la Figura 2:Figura 2. Árbol binario para el ejemplo 2.
  6. 6. Los resultados obtenidos tanto del código compacto como de su longitud y entropía semuestran en la Figura 3.Figura 3. Resultados del ejemplo 2.Este resultado expresa el código compacto obtenido utilizando el método de codificación deHuffman , el cual como se menciono anteriormente corresponde al código con la menorlongitud media, además de acuerdo a los resultados de la figura 3 se concluye que los códigosde huffman asignan mayor cantidad de bits a los símbolos de la fuente que poseen menorprobabilidad, es decir, a los que poseen mayor información.Ejemplo 3:Se dispone de una fuente S de memoria nula, de 13 símbolos, cuyas probabilidades serepresentan en la Figura 4. En ella se enumeran los correspondientes alfabetos de 2 a 13símbolos.Figura 4. Resultados del ejemplo 3.
  7. 7. Del ejemplo 3 podemos concluir que conforme aumentan los símbolos de codificación, lalongitud media L disminuye.4. CUANTIZACIÓN.Después del muestreo de una señal tenemos una secuencia de números que, teóricamente,pueden representar cualquier valor de un rango continuo. Hay infinitos valores posibles, dehecho, esos valores forman un conjunto infinito no numerable [lo que significa que loselementos de ese conjunto no se pueden poner en correspondencia biunívoca con losnúmeros naturales]. Para poder representar cada número de ese rango continuo, seríanecesario tener una cantidad infinita de dígitos, algo que no tenemos. En lugar de eso,debemos representar nuestros números con una cantidad finita de dígitos, es decir: despuésde discretizar la variable del tiempo, tenemos ahora que discretizar también la variable usadapara la amplitud. Esta discretización de valores de amplitud recibe el nombre de cuantización.El adjetivo escalar hacer referencia a las salidas y entradas del cuantificador:Cuantización escalar si las E/S son escalares.Cuantización vectorial si las E/S son vectoriales.4.1 CUANTIZACIÓN ESCALAR:En la cuantización escalar cada salida individual de la fuente se cuantiza en cierto número deniveles que después son codificados a una secuencia binaria. Cada salida de la fuente es unnúmero real en general, pero aun así la transmisión de números reales requiere un númeroinfinito de bits. En consecuencia, es necesario mapear el conjunto de los números reales en unconjunto finito y al mismo tiempo minimizar la distorsión introducida. En la cuantizaciónescalar el conjunto de los números reales R se particiona en N subconjuntos disjuntos Rk,1≤K≤N. A cada subconjunto Rk corresponde un punto de referencia x’K. Si al salida de la fuenteen el instante i, xi pertenece a Rk, entonces se representa por x’k, que es la versión cuantizadade xi, x’i luego se representa mediante una secuencia binaria y se transmite. Dado que existenN posibilidades para los niveles cuantizados, logN bits son suficientes para codificar esosniveles en secuencias binarias (N se elije generalmente como potencia de 2). En consecuencia,el numero de bits requeridos para transmitir cada salida de la fuente es R=logN bits. Ladesventaja de disminuir de infinitos niveles a logN es la distorsión introducida.La figura 5 muestra un ejemplo de un esquema de cuantización de 8 niveles. En este esquemalas 8 regiones están definidas como R1= (-inf,a1), R2=(-a1,a2),…, R8=(-a7,+inf). El punto derepresentación (o valor cuantizado) en cada región es x’i, como se muestra en la figura 5. Lafunción de cuantización Q esta definida por:Q(x)= x’i (Par todo x que pertenece a Ri). (5)Esta función también se muestra en la figura 5. De donde puede concluirse que la funcióncuantización es no lineal y no invertible. Esto se debe a que todos los puntos en Ri se mapeanen un solo punto x’i, dado que la función cuantización no es invertible, se pierde algunainformación en el proceso de cuantización y esta perdida de información no es recuperable.
  8. 8. Figura 5. Ejemplo de un esquema de cuantización de 8 niveles.Ejemplo 4. Considerando la señal:S(t)=4*cos(2*pi*t)Muestreada cada 0.05 s. La muestra fue codificada usando el conversor A/D cuyofuncionamiento se muestra en la figura 6, y decodificada con el D/A cuyo funcionamiento semuestra en la figura 7.Figura 6. Funcionamiento del codificador de 8 niveles para el ejemplo 4.Figura 7. Funcionamiento del decodificador de 8 niveles para el ejemplo 4.Algunos ejemplos de entradas, conversores A/D y D/A y los errores en la cuantificación semuestran en la tabla siguiente:
  9. 9. Tabla 1. Resultados obtenidos para el ejemplo 4.La representación gráfica del cuantificador o cuantizador se muestra en al Figura 8. Podríadecirse que la división de la entrada es un problema del codificador y la asignación de salidas alas palabras del código es un problema del decodificador. Obviamente ambos problemas estánmuy relacionados y los dos forman parte del diseño del cuantificador. Observa que unproblema importante de diseño es asignar códigos binarios a los intervalos.Figura 8. Representación del cuantificador para el ejemplo 4.4.1.1 cuantización uniforme: Es el cuantificador más simple, todos sus intervalos decuantificación tienen el mismo tamaño (se suele notar como Δ); con la salvedad del primer yúltimo intervalo si la señal de entrada no está acotada. Los valores de reconstrucción estánigualmente espaciados con el mismo espacio que las fronteras de decisión Δ. Figura 9Los cuantizadores escalares uniformes pueden ser Midrise (Cuantificadoruniforme simétrico):el 0 no está en el conjunto de salidas. O Cuantificador Midtread (Cuantificador uniformeasimétrico): el 0 pertenece al conjunto de salidas. Normalmente se usan los cuantificadoresmidtread si el número de intervalos es impares o si necesitamos representar al 0 en los valoresde salida.
  10. 10. Figura 9. Cuantizador uniforme de 7 niveles.4.1.2 cuantización no uniforme:Consideremos la función de densidad de la Figura 10:Figura 10. Función de densidad.Es obvio que sería bueno que los intervalos de cuantificación fuesen muy pequeños cerca delcero y luego fuesen creciendo (esto no lo podemos hacer con un cuantificador uniforme). Uncuantificador que tiene intervalos no uniformes recibe el nombre de cuantificador no-uniforme. Figura 11Figura 11. Cuantizador no uniforme.
  11. 11. 4.2 CUANTIZACIÓN VECTORIAL: en la cuantización escalar cada salida de la fuentediscreta en tiempo (la cual es usualmente el resultado del muestreo de una fuente en tiempo)se cuantiza separadamente y luego se codifica. Por ejemplo se utiliza un cuantizador escalar de4 niveles y se codifica cada nivel en 2 bits se estará utilizando 2 bits por cada salida de lafuente. Este esquema de cuantización se muestra en la figura 12.Figura 12. Cuantizador escalar de 4 niveles.Si se considera ahora dos muestras de salida de la fuente a la vez, y se interpreta esas 2muestras como un punto en el plano, el cuantizador escalar particiona el plano en 16 regionesde cuantización como el mostrado en la figura 13.Figura 13. Cuantizador escalar de 4 niveles aplicado a 2 muestras.Puede observarse que las regiones en el espacio bidimensional tienen toda forma rectangular.Si se permiten regiones de una forma arbitraria es posible obtener mejores resultados. Estosignifica que esta cuantizado 2 salidas de la fuente a la vez utilizando 16 regiones, lo cual esequivalente a 4 bits/ 2salidas de la fuente o 2 bits/cada salida de la fuente. En consecuencia elnúmero de bits/salida de la fuente para cuantizar dos muestras a la vez es igual al número de
  12. 12. bits/salida de la fuente obtenidos para el caso escalar. Si se relajan los requerimientos de tenerregiones rectangulares, el desempeño mejorará.Si se toman ahora 3 muestras a la vez y se cuantiza el espacio tridimensional en 64 regiones, setendrá aun menor distorsión con el mismo numero de bits/salida de la fuente. La idea de lacuantización vectorial es tomar bloques de salidas de longitud n y diseñar el cuantizador en elespacio n-dimensional antes que realizar la cuantización en muestras individuales en el espaciounidimensional.Suponiendo que las regiones de cuantización en el espacio n-dimensional se notan por Ri,1≤i≤K. Esas regiones particionan el espacio n-dimensional. Cada bloque de salidas de la fuentede longitud n se nota por x E R y si x E Ri entonces está cuantizado a Q(x)=x’i. La Figura 14muestra este esquema de cuantización para n=2 y K=37.Figura 14. Cuantizador vectorial en 2 dimensiones.Dado que existe un total de K valores cuantizados, logK bits serán suficientes pararepresentarlos. Esto significa que serán necesarias logK bits/n salidas de la fuente o, que lavelocidad de codificación de la fuente será:R = bits/salida de la fuente (6)El cuantizador vectorial óptimo de dimensión n y el numero de niveles K son aquellos queresultan de elegir la región Ri y los valores de cuantización x’i de forma que la distorsión seamínima.5. CODIFICACIÓN DE FORMA DE ONDA.Los esquemas de codificación de forma de onda se diseñan paran reproducir la señal de salidade la fuente en el destino con la menor distorsión posible. En estas técnicas no se prestaatención al mecanismo que produce la forma de onda y toda la atención se dirije a lareproducción de la salida de la fuente en el destino de alta fidelidad. Dado que la estructura dela fuente no juega ningún rol en el diseño de los codificadores de forma de onda y solo laspropiedades de la señal afectan el diseño, los codificadores de forma de onda son robustos y
  13. 13. pueden utilizarse con una variedad de fuentes, siempre que las formas de onda producidas poresas fuentes tengan ciertas similaridades. Los codificadores de la forma de onda intentanreproducir la forma de la onda de la señal de entrada. Generalmente se diseñan para serindependientes a la señal, de tal forma que pueden ser usados para codificar una granvariedad de señales. Presentan una degradación aceptable en presencia de ruido y errores detransmisión. Sin embargo, para que sean efectivos, sólo se deben usar a bit-rates medios. Lacodificación se puede llevar a cabo tanto en el dominio del tiempo como de la frecuencia. Loscodificadores de forma de onda dividen en dos grupos: en el dominio del tiempo y en eldominio de la frecuencia.5.1 CODIFICADORES EN EL DOMINIO DEL TIEMPODentro de este grupo tenemos los siguientes codificadores: PCM DPCM ADPCM5.1.1 MODULACIÓN DE PULSOS CODIFICADOS (PCM).La modulación de pulsos codificados PCM es la forma más simple y antigua de codificación deforma de onda. Cada muestra que entra al codificador se cuantifica en un determinado nivelde entre un conjunto finito de niveles de reconstrucción. Cada uno de estos niveles se hacecorresponder con una secuencia de dígitos binarios, y esto es lo que se envía al receptor. Sepueden usar distintos criterios para llevar a cabo la cuantificación, siendo el más usado el de lacuantificación logarítmica. Un codificador PCM esta formado por tres partes básicas: unmuestreador, un cuantizador y un codificador. Un bloque funcional de un sistema PCM semuestra en al figura 15.Figura 15. Diagrama de bloques de un sistema PCM.La señal que entra al muestreador es de ancho de banda limitado, W. Usualmente existe unfiltro con ancho de banda W previo al muestreador para evitar que frecuencias superiores a Wentren al muestreador. Este filtro se denomina filtro de premuestreo. El muestreo se realiza auna velocidad superior a la de Nyquist para permitir una banda de salvaguarda. Los valoresmuestreados entran luego a un cuantizador escalar. El cuantizador escalar es un cuantizadoruniforme, que resulta en un sistema PCM uniforme, o un cuantizador no uniforme. La eleccióndel cuantizador se basa en las características de la salida de la fuente. La salida del cuantizadorse codifica a una secuencia binaria de longitud v, donde N=2ves el número de niveles decuantización.
  14. 14. 5.1.2 MODULACIÓN POR CODIFICACIÓN DE IMPULSOS DIFERENCIAL(DPCM)Puesto que PCM no tiene en cuenta la forma de la onda de la señal a codificar, funciona muybien con señales que no sean las de la voz, sin embargo, cuando se codifica voz hay una grancorrelación entre las muestras adyacentes. Esta correlación puede aprovecharse para reducirel bit-rate. Una forma sencilla de hacerlo sería transmitir solamente las diferencias entre lasmuestras. Esta señal de diferencia tiene un rango dinámico mucho menor que el de la vozoriginal, por lo que podrá ser cuantificada con un número menor de niveles de reconstrucción.En la figura siguiente 16 se muestra el funcionamiento de un sistema DPCM, donde la muestraanterior se usa para predecir el valor de la muestra actual:Figura 16. Sistema DPCM: codificador/decodificadorNormalmente, el valor predicho Sn, es una combinación lineal de un número finito demuestras anteriores, Sn:S’n=∑ (7)dn= sn-s’n (8)La señal de diferencia, dn, se denomina residuo y es el residuo lo que se cuantifica y se envía alreceptor. Los coeficientes de predicción, {ak}, se eligen para minimizar el error cuadráticomedio, E:E=∑ (9)5.1.3 MODULACIÓN POR CODIFICACIÓN DE IMPULSOS DIFERENCIALADAPTATIVA (ADPCM).En DPCM tanto el predictor como el cuantificador permanecen fijos en el tiempo. Se podríaconseguir una mayor eficiencia si el cuantificador se adaptase a los cambios del residuo depredicción. Además, también se podría hacer que la predicción se adaptase a la señal de la voz.Esto aseguraría que la raíz cuadrada del error de predicción se minimice continuamente, conindependencia de la señal de voz y de quién la emita.
  15. 15. La figura 17 muestra un codificador/decodificador ADPCM, Hay dos métodos para adaptar loscuantificadores y los predictores, llamados adaptación en feedforward y adaptación enfeedbackward. En la adaptación feedforward los niveles de reconstrucción y los coeficientes depredicción se calculan en el emisor, usando un bloque de voz. Después son cuantificados ytransmitidos al receptor como información lateral. Tanto el emisor como el receptor usanestos valores cuantificados para hacer las predicciones y cuantificar el residuo. En laadaptación feedbackward los niveles de reconstrucción y los coeficientes de predicción secalculan a partir de la señal codificada. Puesto que la señal es conocida tanto por el emisorcomo por el receptor, no hay necesidad de transmitir información lateral, así el predictor y elcuantificador pueden actualizarse para cada muestra. La adaptación feedbackward puede darmenores bir rates, pero es más sensible a los errores de transmisión que la adaptaciónfeedforward.Figura 17. Codificador/decodificador ADPCM, estándar G.721. ADPCM de 32 KbpsADPCM es muy útil para codificar voz a bit rates medios. La CCITT propone un estándar decodificación de voz telefónica a una velocidad de 32 kb/s. Es el estandar G.721 (ver Figura 17).Usa un esquema de adaptación feedbackward tanto para el cuantificador como para elpredictor. El predictor tiene dos polos y seis ceros, por lo que produce una calidad de salidaaceptable para señales que no son de voz.5.2 CODIFICACIÓN EN EL DOMINIO DE LA FRECUENCIAEste tipo de codificadores dividen la señal en distintas componentes en frecuencia y codificancada una de éstas de forma independiente. El número de bits usados para codificar cadacomponente en frecuencia puede variar dinámicamente. Algunos codificadores son: Codificación en sub-bandas. Codificación por transformada.5.2.1 CODIFICACIÓN EN SUB-BANDASEs el más sencillo de los métodos en el dominio de la frecuencia. Sea el siguiente codificadoren sub-bandas el que se muestra en la figura 18, la señal atraviesa un conjunto de filtros paso-banda (BPF). Después, cada sub-banda se pasa a banda baja y se realiza un proceso de
  16. 16. decimación, es decir, se quitan muestras. Las sub-bandas se codifican usando algún métodobasado en el dominio del tiempo. El número de bits asignados a cada banda pueden variar enfunción de la importancia de dicha banda. En el receptor, se añaden muestras y se vuelven amodular las bandas a sus posiciones originales. Al final, se suman para obtener la señal de vozde salida. La principal ventaja de la codificación en sub-bandas es que el ruido decuantificación que se produce en cada banda queda confinado a la misma.Figura 18. Codificador en sub-bandas.La codificación en sub-bandas se usa mucho en señales de un gran ancho de banda, comopuede ser en teleconferencia. Se rige de acuerdo al estándar G.722 de la CCITT.5.2.2 CODIFICACIÓN POR TRANSFORMADAConsiste en una codificación por bloques. La señal de entrada se transforma en un dominiodiferente y se codifican los coeficientes de la transformación. En el receptor, el decodificadorcalcula la transformada inversa para obtener la señal original reconstruida. La transformaciónmás usada es la Transformada Discreta del Coseno, DCT, cuya representación es la siguiente:Xc (K) = ∑ K= 0,1,…,N-1 (10)X (n) = ∑ n= 0,1,…,N-1 (11)La codificación por transformada se utiliza en la codificación de señales de banda ancha deimagen y sonido. Sin embargo, no se usa mucho en codificación de voz debido a sucomplejidad.BIBLIOGRAFÍA:Disponible en: http://es.wikipedia.org/wiki/Entrop%C3%ADa_%28informaci%C3%B3n%29Disponible en: http://ceres.ugr.es/~alumnos/luis/f_onda_t.htm#pcm
  17. 17. Disponible en:http://electroacustica.artesmusicales.org/varios/material_didactico/Sampling/Digital%20Signals-Sampling%20and%20Quantization.pdfDisponible en: http://ceres.ugr.es/~alumnos/luis/f_onda_f.htmAbramson Norman, Teoría de la información y codificación. Quinta Edición.

×