SlideShare a Scribd company logo
1 of 17
Download to read offline
AREA DE LA ENERGÍA, LAS INDUSTRIAS, Y LOS RECURSOS
NATURALES NO RENOVABLES
CARRERA DE INGENIERIA EN ELECTRÓNICA Y
TELECOMUNICACIONES
MÓDULO VIII
COMUNICACIONES DIGITALES
TEMA: Fuentes de Información y Codificación de Fuente.
REALIZADO POR: Edgar Emanuel González Malla.
PARALELO: “A”
DOCENTE: Ing. Klever Carrión
FECHA: 2012-03-19
LOJA - ECUADOR
FUENTES DE INFORMACIÓN Y CODIFICACIÓN DE FUENTE
Una fuente de información es un elemento que entrega información, como pueden ser una
persona hablando, un ordenador entregando datos. Es un elemento que entrega una señal, y
una señal es una función de una o más variables que contiene información acerca de la
naturaleza o comportamiento de algún fenómeno. Es decir, se considera señal tanto al
fenómeno físico que transporta la información como a la función matemática que representa a
ese fenómeno.
Las fuentes de información se clasifican basándose en el tipo de señal que entregan. Se
pueden clasificar, según el tipo de variable independiente (tiempo) en:
 Fuentes de tiempo continuo: la función está definida para cualquier valor de la
variable independiente.
 Fuentes de tiempo discreto: la función sólo está definida para un conjunto contable de
instantes de tiempo. En la cuales el valor de la función sólo toma un conjunto finito de
valores. A cada uno de estos valores se los denomina símbolos. El conjunto de todos
los símbolos se suele llamar alfabeto.
1. ENTROPÍA
La Entropía corresponde a la cantidad de información promedio que contienen los símbolos
usados. Los símbolos con menor probabilidad son los que aportan mayor información; por
ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras
frecuentes como "que", "el", "a" aportan poca información. Mientras que palabras menos
frecuentes como "corren", "niño", "perro" aportan más información. Si de un texto dado
borramos un "que", seguramente no afectará a la comprensión y se sobreentenderá, no
siendo así si borramos la palabra "niño" del mismo texto original. Cuando todos los símbolos
son igualmente probables (distribución de probabilidad plana), todos aportan información
relevante y la entropía es máxima.
El concepto de entropía es usado en termodinámica, mecánica estadística y teoría de la
información. En todos los casos la entropía se concibe como una "medida del desorden" o la
"peculiaridad de ciertas combinaciones". La Entropía puede ser considerada como una medida
de la incertidumbre y de la información necesaria para, en cualquier proceso, poder acotar,
reducir o eliminar la incertidumbre.
Sea E un suceso que puede presentarse con probabilidad P(E). Cuando E tiene lugar, hemos
recibido:
I(E) = (1)
unidades de información.
Si introducimos el logaritmo de base r=2, la unidad correspondiente se denomina bit,
empleando logaritmos naturales, la unidad de información recibe el nombre de nat, en el caso
de logaritmos de base 10, la unidad de información es el Harley. La relación entre estas
unidades es la siguiente:
1 Hartley = 3,32 bits (2)
1 nat = 1,44 bits (3)
En la ecuación 4 notamos que si P (E) = 1/2, será I(E) = 1 bit. Es decir, un bit es la cantidad de
información obtenida al especificar una de dos posibles alternativas igualmente probables.
Esta situación se presenta al lanzar una moneda al aire o al examinar la salida de un sistema de
comunicación binario.
Definición de Entropía: Al contenido de información de la fuente se denomina Entropía, H(S),
que corresponde a la magnitud de la cantidad media por símbolo de la fuente. La entropía de
una variable aleatoria S es una función de las probabilidades de ocurrencia de las muestras,
definida como:
H(S)= ∑ bits (4)
En el transcurso de este informe se mantendrá la notación = log(m), por lo que las
unidades manejadas serán bits.
Ejemplo 1. Consideremos la fuente S = {s1, s2, s3,) con P(s1) = 1/2 y P(s2) = P(s3) = 1/4.
Entonces:
H(S) = 1/2 log 2 + 1/4log 4 + 1/4 los 4 = 3/2 bits
2. PROPIEDADES DE LA ENTROPÍA
La entropía tiene las siguientes propiedades:
 La entropía es no negativa. Esto es evidente ya que al ser Pi una probabilidad entonces 0
<Pi ≤ 1.Por tanto podemos decir que < 0 y por tanto > 0.
 Dado un proceso con posibles resultados {S1,..,Sn} con probabilidades relativas P1, P2..,Pn,
la función H(P1,P2,….., Pn), es máxima en el caso de que P1 = P2 = Pn = 1/n. El resultado es
intuitivo ya que tenemos la mayor incertidumbre del mensaje, cuando los valores posibles
de la variable son equiprobables.
 Dado un proceso con posibles resultados {S1,..,Sn} con probabilidades relativas P1, ...,Pn,
la función H(P1, P2,…Pn), es nula en el caso de que Pi = 0 para todo i, excepto para una
clase, tal que: pj = 1. De forma intuitiva podemos pensar que cuando uno o más estados
tienen una probabilidad alta, disminuye significativamente la entropía porque, como es
lógico, existe una menor incertidumbre respecto al mensaje que se recibirá.
 La cantidad máxima de información dada por una fuente de memoria nula de q símbolos,
crece lentamente al aumentar q. De hecho, la cantidad máxima de información crece con
el logaritmo del número de símbolos de la fuente, de modo que para duplicar la cantidad
máxima de información por símbolo en una fuente de q símbolos, sería necesaria una
fuente de q2
símbolos. Ya que H(S2
)=2H(s).
Un ejemplo particularmente importante de fuente de información de memoria nula
corresponde a una fuente binaria de memoria nula. En tal fuente, el alfabeto se reduce a (0, 1).
La probabilidad de un o es w y la de un 1 es 1 – w. En donde w’=1-w. La entropía se determina
a partir de la ecuación 4:
H(S) = 1/w*log + 1/w’*log bits
Otro punto importante es que:
Por lo tanto por definición:
0*log0=0
En la Figura 1 se representado la curva de variación H(w) en función de w, denotada en el
intervalo (0, 1 )de la variable. Como se aprecia en dicha figura si la salida de la fuente binaria es
cierta (w=0 u w’=1) la fuente no suministra ninguna información. El valor medio de la
información aportada por un símbolo de la fuente binaria alcanza su máximo en el caso en que
ambos, 0 y 1, sean igualmente probables, siendo este valor máximo igual a log 2, es decir, 1
bit. La salida de una fuente binaria está constituida por dígitos binarios o binits. Así una
secuencia de binits producida por una fuente de información binaria de memoria nula, de 0s y
1s equiprobables, suministra un bit de información por binit. Si 0s y 1s no son igualmente
probables, la cantidad de información dada por un binit será menor o mayor de 1 bit
dependiendo de los valores de las probabilidades. La cantidad media de información
suministrada por un binit de tal fuente, sin embargo, será siempre menor o igual a 1 bit.
Figura 1. Representación de H(w).
3. CÓDIGOS HUFFMAN
La codificación Huffman usa un método específico para elegir la representación de cada
símbolo, que da lugar a un código prefijo (es decir, la cadena de bits que representa a un
símbolo en particular y nunca es prefijo de la cadena de bits de un símbolo distinto) que
representa los caracteres más comunes usando las cadenas de bits más cortas, y viceversa.
Huffman fue capaz de diseñar el método de compresión más eficiente de este tipo: ninguna
representación alternativa de un conjunto de símbolos de entrada produce una salida media
más pequeña cuando las frecuencias de los símbolos coinciden con las usadas para crear el
código.
La idea en la codificación de Huffman es elegir una longitud de palabra que las secuencias mas
probables tengan longitudes cortas. Los códigos Huffman son unívocamente decodificables e
instantáneos con longitud de código mínima. En ese sentido son óptimos. La optimalidad se
entiende sobre todos los códigos que satisfacen la condición de prefijo (y en consecuencia son
unívocamente decodificables e instantáneos).
Técnica básica: La técnica utilizada es el propio algoritmo de Huffman. Consiste en la
creación de un árbol binario (o de alfabeto n-ario) en el que se etiquetan los nodos hoja con
los caracteres, junto a sus frecuencias, y de forma consecutiva se van uniendo cada pareja de
nodos que menos frecuencia sumen, pasando a crear un nuevo nodo intermedio etiquetado
con dicha suma. Se procede a realizar esta acción hasta que no quedan nodos hoja por unir a
ningún nodo superior, y se ha formado el árbol binario.
Posteriormente se etiquetan las aristas que unen cada uno de los nodos con ceros y unos (hijo
derecho e izquierdo, respectivamente, por ejemplo. El código resultante para cada carácter es
la lectura, siguiendo la rama, desde la raíz hacia cada carácter (o viceversa) de cada una de las
etiquetas de las aristas.
Ejemplo 2:
Codificar la fuente S={a1, a2,..., a6} con una distribución de probabilidades,:
p1=0.3; p2=0.25; p3=0.2; p4=p5=0.1; p6=0.05
Utilizando un alfabeto de 2 simbolos; el árbol binario seria como el de la Figura 2:
Figura 2. Árbol binario para el ejemplo 2.
Los resultados obtenidos tanto del código compacto como de su longitud y entropía se
muestran en la Figura 3.
Figura 3. Resultados del ejemplo 2.
Este resultado expresa el código compacto obtenido utilizando el método de codificación de
Huffman , el cual como se menciono anteriormente corresponde al código con la menor
longitud media, además de acuerdo a los resultados de la figura 3 se concluye que los códigos
de huffman asignan mayor cantidad de bits a los símbolos de la fuente que poseen menor
probabilidad, es decir, a los que poseen mayor información.
Ejemplo 3:
Se dispone de una fuente S de memoria nula, de 13 símbolos, cuyas probabilidades se
representan en la Figura 4. En ella se enumeran los correspondientes alfabetos de 2 a 13
símbolos.
Figura 4. Resultados del ejemplo 3.
Del ejemplo 3 podemos concluir que conforme aumentan los símbolos de codificación, la
longitud media L disminuye.
4. CUANTIZACIÓN.
Después del muestreo de una señal tenemos una secuencia de números que, teóricamente,
pueden representar cualquier valor de un rango continuo. Hay infinitos valores posibles, de
hecho, esos valores forman un conjunto infinito no numerable [lo que significa que los
elementos de ese conjunto no se pueden poner en correspondencia biunívoca con los
números naturales]. Para poder representar cada número de ese rango continuo, sería
necesario tener una cantidad infinita de dígitos, algo que no tenemos. En lugar de eso,
debemos representar nuestros números con una cantidad finita de dígitos, es decir: después
de discretizar la variable del tiempo, tenemos ahora que discretizar también la variable usada
para la amplitud. Esta discretización de valores de amplitud recibe el nombre de cuantización.
El adjetivo escalar hacer referencia a las salidas y entradas del cuantificador:
Cuantización escalar si las E/S son escalares.
Cuantización vectorial si las E/S son vectoriales.
4.1 CUANTIZACIÓN ESCALAR:
En la cuantización escalar cada salida individual de la fuente se cuantiza en cierto número de
niveles que después son codificados a una secuencia binaria. Cada salida de la fuente es un
número real en general, pero aun así la transmisión de números reales requiere un número
infinito de bits. En consecuencia, es necesario mapear el conjunto de los números reales en un
conjunto finito y al mismo tiempo minimizar la distorsión introducida. En la cuantización
escalar el conjunto de los números reales R se particiona en N subconjuntos disjuntos Rk,
1≤K≤N. A cada subconjunto Rk corresponde un punto de referencia x’K. Si al salida de la fuente
en el instante i, xi pertenece a Rk, entonces se representa por x’k, que es la versión cuantizada
de xi, x’i luego se representa mediante una secuencia binaria y se transmite. Dado que existen
N posibilidades para los niveles cuantizados, logN bits son suficientes para codificar esos
niveles en secuencias binarias (N se elije generalmente como potencia de 2). En consecuencia,
el numero de bits requeridos para transmitir cada salida de la fuente es R=logN bits. La
desventaja de disminuir de infinitos niveles a logN es la distorsión introducida.
La figura 5 muestra un ejemplo de un esquema de cuantización de 8 niveles. En este esquema
las 8 regiones están definidas como R1= (-inf,a1), R2=(-a1,a2),…, R8=(-a7,+inf). El punto de
representación (o valor cuantizado) en cada región es x’i, como se muestra en la figura 5. La
función de cuantización Q esta definida por:
Q(x)= x’i (Par todo x que pertenece a Ri). (5)
Esta función también se muestra en la figura 5. De donde puede concluirse que la función
cuantización es no lineal y no invertible. Esto se debe a que todos los puntos en Ri se mapean
en un solo punto x’i, dado que la función cuantización no es invertible, se pierde alguna
información en el proceso de cuantización y esta perdida de información no es recuperable.
Figura 5. Ejemplo de un esquema de cuantización de 8 niveles.
Ejemplo 4. Considerando la señal:
S(t)=4*cos(2*pi*t)
Muestreada cada 0.05 s. La muestra fue codificada usando el conversor A/D cuyo
funcionamiento se muestra en la figura 6, y decodificada con el D/A cuyo funcionamiento se
muestra en la figura 7.
Figura 6. Funcionamiento del codificador de 8 niveles para el ejemplo 4.
Figura 7. Funcionamiento del decodificador de 8 niveles para el ejemplo 4.
Algunos ejemplos de entradas, conversores A/D y D/A y los errores en la cuantificación se
muestran en la tabla siguiente:
Tabla 1. Resultados obtenidos para el ejemplo 4.
La representación gráfica del cuantificador o cuantizador se muestra en al Figura 8. Podría
decirse que la división de la entrada es un problema del codificador y la asignación de salidas a
las palabras del código es un problema del decodificador. Obviamente ambos problemas están
muy relacionados y los dos forman parte del diseño del cuantificador. Observa que un
problema importante de diseño es asignar códigos binarios a los intervalos.
Figura 8. Representación del cuantificador para el ejemplo 4.
4.1.1 cuantización uniforme: Es el cuantificador más simple, todos sus intervalos de
cuantificación tienen el mismo tamaño (se suele notar como Δ); con la salvedad del primer y
último intervalo si la señal de entrada no está acotada. Los valores de reconstrucción están
igualmente espaciados con el mismo espacio que las fronteras de decisión Δ. Figura 9
Los cuantizadores escalares uniformes pueden ser Midrise (Cuantificadoruniforme simétrico):
el 0 no está en el conjunto de salidas. O Cuantificador Midtread (Cuantificador uniforme
asimétrico): el 0 pertenece al conjunto de salidas. Normalmente se usan los cuantificadores
midtread si el número de intervalos es impares o si necesitamos representar al 0 en los valores
de salida.
Figura 9. Cuantizador uniforme de 7 niveles.
4.1.2 cuantización no uniforme:
Consideremos la función de densidad de la Figura 10:
Figura 10. Función de densidad.
Es obvio que sería bueno que los intervalos de cuantificación fuesen muy pequeños cerca del
cero y luego fuesen creciendo (esto no lo podemos hacer con un cuantificador uniforme). Un
cuantificador que tiene intervalos no uniformes recibe el nombre de cuantificador no-
uniforme. Figura 11
Figura 11. Cuantizador no uniforme.
4.2 CUANTIZACIÓN VECTORIAL: en la cuantización escalar cada salida de la fuente
discreta en tiempo (la cual es usualmente el resultado del muestreo de una fuente en tiempo)
se cuantiza separadamente y luego se codifica. Por ejemplo se utiliza un cuantizador escalar de
4 niveles y se codifica cada nivel en 2 bits se estará utilizando 2 bits por cada salida de la
fuente. Este esquema de cuantización se muestra en la figura 12.
Figura 12. Cuantizador escalar de 4 niveles.
Si se considera ahora dos muestras de salida de la fuente a la vez, y se interpreta esas 2
muestras como un punto en el plano, el cuantizador escalar particiona el plano en 16 regiones
de cuantización como el mostrado en la figura 13.
Figura 13. Cuantizador escalar de 4 niveles aplicado a 2 muestras.
Puede observarse que las regiones en el espacio bidimensional tienen toda forma rectangular.
Si se permiten regiones de una forma arbitraria es posible obtener mejores resultados. Esto
significa que esta cuantizado 2 salidas de la fuente a la vez utilizando 16 regiones, lo cual es
equivalente a 4 bits/ 2salidas de la fuente o 2 bits/cada salida de la fuente. En consecuencia el
número de bits/salida de la fuente para cuantizar dos muestras a la vez es igual al número de
bits/salida de la fuente obtenidos para el caso escalar. Si se relajan los requerimientos de tener
regiones rectangulares, el desempeño mejorará.
Si se toman ahora 3 muestras a la vez y se cuantiza el espacio tridimensional en 64 regiones, se
tendrá aun menor distorsión con el mismo numero de bits/salida de la fuente. La idea de la
cuantización vectorial es tomar bloques de salidas de longitud n y diseñar el cuantizador en el
espacio n-dimensional antes que realizar la cuantización en muestras individuales en el espacio
unidimensional.
Suponiendo que las regiones de cuantización en el espacio n-dimensional se notan por Ri,
1≤i≤K. Esas regiones particionan el espacio n-dimensional. Cada bloque de salidas de la fuente
de longitud n se nota por x E R y si x E Ri entonces está cuantizado a Q(x)=x’i. La Figura 14
muestra este esquema de cuantización para n=2 y K=37.
Figura 14. Cuantizador vectorial en 2 dimensiones.
Dado que existe un total de K valores cuantizados, logK bits serán suficientes para
representarlos. Esto significa que serán necesarias logK bits/n salidas de la fuente o, que la
velocidad de codificación de la fuente será:
R = bits/salida de la fuente (6)
El cuantizador vectorial óptimo de dimensión n y el numero de niveles K son aquellos que
resultan de elegir la región Ri y los valores de cuantización x’i de forma que la distorsión sea
mínima.
5. CODIFICACIÓN DE FORMA DE ONDA.
Los esquemas de codificación de forma de onda se diseñan paran reproducir la señal de salida
de la fuente en el destino con la menor distorsión posible. En estas técnicas no se presta
atención al mecanismo que produce la forma de onda y toda la atención se dirije a la
reproducción de la salida de la fuente en el destino de alta fidelidad. Dado que la estructura de
la fuente no juega ningún rol en el diseño de los codificadores de forma de onda y solo las
propiedades de la señal afectan el diseño, los codificadores de forma de onda son robustos y
pueden utilizarse con una variedad de fuentes, siempre que las formas de onda producidas por
esas fuentes tengan ciertas similaridades. Los codificadores de la forma de onda intentan
reproducir la forma de la onda de la señal de entrada. Generalmente se diseñan para ser
independientes a la señal, de tal forma que pueden ser usados para codificar una gran
variedad de señales. Presentan una degradación aceptable en presencia de ruido y errores de
transmisión. Sin embargo, para que sean efectivos, sólo se deben usar a bit-rates medios. La
codificación se puede llevar a cabo tanto en el dominio del tiempo como de la frecuencia. Los
codificadores de forma de onda dividen en dos grupos: en el dominio del tiempo y en el
dominio de la frecuencia.
5.1 CODIFICADORES EN EL DOMINIO DEL TIEMPO
Dentro de este grupo tenemos los siguientes codificadores:
 PCM
 DPCM
 ADPCM
5.1.1 MODULACIÓN DE PULSOS CODIFICADOS (PCM).
La modulación de pulsos codificados PCM es la forma más simple y antigua de codificación de
forma de onda. Cada muestra que entra al codificador se cuantifica en un determinado nivel
de entre un conjunto finito de niveles de reconstrucción. Cada uno de estos niveles se hace
corresponder con una secuencia de dígitos binarios, y esto es lo que se envía al receptor. Se
pueden usar distintos criterios para llevar a cabo la cuantificación, siendo el más usado el de la
cuantificación logarítmica. Un codificador PCM esta formado por tres partes básicas: un
muestreador, un cuantizador y un codificador. Un bloque funcional de un sistema PCM se
muestra en al figura 15.
Figura 15. Diagrama de bloques de un sistema PCM.
La señal que entra al muestreador es de ancho de banda limitado, W. Usualmente existe un
filtro con ancho de banda W previo al muestreador para evitar que frecuencias superiores a W
entren al muestreador. Este filtro se denomina filtro de premuestreo. El muestreo se realiza a
una velocidad superior a la de Nyquist para permitir una banda de salvaguarda. Los valores
muestreados entran luego a un cuantizador escalar. El cuantizador escalar es un cuantizador
uniforme, que resulta en un sistema PCM uniforme, o un cuantizador no uniforme. La elección
del cuantizador se basa en las características de la salida de la fuente. La salida del cuantizador
se codifica a una secuencia binaria de longitud v, donde N=2
v
es el número de niveles de
cuantización.
5.1.2 MODULACIÓN POR CODIFICACIÓN DE IMPULSOS DIFERENCIAL
(DPCM)
Puesto que PCM no tiene en cuenta la forma de la onda de la señal a codificar, funciona muy
bien con señales que no sean las de la voz, sin embargo, cuando se codifica voz hay una gran
correlación entre las muestras adyacentes. Esta correlación puede aprovecharse para reducir
el bit-rate. Una forma sencilla de hacerlo sería transmitir solamente las diferencias entre las
muestras. Esta señal de diferencia tiene un rango dinámico mucho menor que el de la voz
original, por lo que podrá ser cuantificada con un número menor de niveles de reconstrucción.
En la figura siguiente 16 se muestra el funcionamiento de un sistema DPCM, donde la muestra
anterior se usa para predecir el valor de la muestra actual:
Figura 16. Sistema DPCM: codificador/decodificador
Normalmente, el valor predicho S'n, es una combinación lineal de un número finito de
muestras anteriores, Sn:
S’n=∑ (7)
dn= sn-s’n (8)
La señal de diferencia, dn, se denomina residuo y es el residuo lo que se cuantifica y se envía al
receptor. Los coeficientes de predicción, {ak}, se eligen para minimizar el error cuadrático
medio, E:
E=∑ (9)
5.1.3 MODULACIÓN POR CODIFICACIÓN DE IMPULSOS DIFERENCIAL
ADAPTATIVA (ADPCM).
En DPCM tanto el predictor como el cuantificador permanecen fijos en el tiempo. Se podría
conseguir una mayor eficiencia si el cuantificador se adaptase a los cambios del residuo de
predicción. Además, también se podría hacer que la predicción se adaptase a la señal de la voz.
Esto aseguraría que la raíz cuadrada del error de predicción se minimice continuamente, con
independencia de la señal de voz y de quién la emita.
La figura 17 muestra un codificador/decodificador ADPCM, Hay dos métodos para adaptar los
cuantificadores y los predictores, llamados adaptación en feedforward y adaptación en
feedbackward. En la adaptación feedforward los niveles de reconstrucción y los coeficientes de
predicción se calculan en el emisor, usando un bloque de voz. Después son cuantificados y
transmitidos al receptor como información lateral. Tanto el emisor como el receptor usan
estos valores cuantificados para hacer las predicciones y cuantificar el residuo. En la
adaptación feedbackward los niveles de reconstrucción y los coeficientes de predicción se
calculan a partir de la señal codificada. Puesto que la señal es conocida tanto por el emisor
como por el receptor, no hay necesidad de transmitir información lateral, así el predictor y el
cuantificador pueden actualizarse para cada muestra. La adaptación feedbackward puede dar
menores bir rates, pero es más sensible a los errores de transmisión que la adaptación
feedforward.
Figura 17. Codificador/decodificador ADPCM, estándar G.721. ADPCM de 32 Kbps
ADPCM es muy útil para codificar voz a bit rates medios. La CCITT propone un estándar de
codificación de voz telefónica a una velocidad de 32 kb/s. Es el estandar G.721 (ver Figura 17).
Usa un esquema de adaptación feedbackward tanto para el cuantificador como para el
predictor. El predictor tiene dos polos y seis ceros, por lo que produce una calidad de salida
aceptable para señales que no son de voz.
5.2 CODIFICACIÓN EN EL DOMINIO DE LA FRECUENCIA
Este tipo de codificadores dividen la señal en distintas componentes en frecuencia y codifican
cada una de éstas de forma independiente. El número de bits usados para codificar cada
componente en frecuencia puede variar dinámicamente. Algunos codificadores son:
 Codificación en sub-bandas.
 Codificación por transformada.
5.2.1 CODIFICACIÓN EN SUB-BANDAS
Es el más sencillo de los métodos en el dominio de la frecuencia. Sea el siguiente codificador
en sub-bandas el que se muestra en la figura 18, la señal atraviesa un conjunto de filtros paso-
banda (BPF). Después, cada sub-banda se pasa a banda baja y se realiza un proceso de
decimación, es decir, se quitan muestras. Las sub-bandas se codifican usando algún método
basado en el dominio del tiempo. El número de bits asignados a cada banda pueden variar en
función de la importancia de dicha banda. En el receptor, se añaden muestras y se vuelven a
modular las bandas a sus posiciones originales. Al final, se suman para obtener la señal de voz
de salida. La principal ventaja de la codificación en sub-bandas es que el ruido de
cuantificación que se produce en cada banda queda confinado a la misma.
Figura 18. Codificador en sub-bandas.
La codificación en sub-bandas se usa mucho en señales de un gran ancho de banda, como
puede ser en teleconferencia. Se rige de acuerdo al estándar G.722 de la CCITT.
5.2.2 CODIFICACIÓN POR TRANSFORMADA
Consiste en una codificación por bloques. La señal de entrada se transforma en un dominio
diferente y se codifican los coeficientes de la transformación. En el receptor, el decodificador
calcula la transformada inversa para obtener la señal original reconstruida. La transformación
más usada es la Transformada Discreta del Coseno, DCT, cuya representación es la siguiente:
Xc (K) = ∑ K= 0,1,…,N-1 (10)
X (n) = ∑ n= 0,1,…,N-1 (11)
La codificación por transformada se utiliza en la codificación de señales de banda ancha de
imagen y sonido. Sin embargo, no se usa mucho en codificación de voz debido a su
complejidad.
BIBLIOGRAFÍA:
Disponible en: http://es.wikipedia.org/wiki/Entrop%C3%ADa_%28informaci%C3%B3n%29
Disponible en: http://ceres.ugr.es/~alumnos/luis/f_onda_t.htm#pcm
Disponible en:
http://electroacustica.artesmusicales.org/varios/material_didactico/Sampling/Digital%20Signa
ls-Sampling%20and%20Quantization.pdf
Disponible en: http://ceres.ugr.es/~alumnos/luis/f_onda_f.htm
Abramson Norman, Teoría de la información y codificación. Quinta Edición.

More Related Content

What's hot

Modulación de pulsos
Modulación de pulsosModulación de pulsos
Modulación de pulsosJack Napier
 
Tráfico telefónico
Tráfico telefónicoTráfico telefónico
Tráfico telefónicorenatopuente
 
Cuadro comparativo de modulaciones
Cuadro comparativo de modulacionesCuadro comparativo de modulaciones
Cuadro comparativo de modulacionesFernando Luz
 
Sistemas de comunicaciones opticos
Sistemas de comunicaciones opticosSistemas de comunicaciones opticos
Sistemas de comunicaciones opticosJose Bello
 
Lecture 4 teoría de la información
Lecture 4 teoría de la informaciónLecture 4 teoría de la información
Lecture 4 teoría de la informaciónnica2009
 
Trabajo especial modulacion angular
Trabajo especial modulacion angularTrabajo especial modulacion angular
Trabajo especial modulacion angularVictor Diaz
 
Probabilidad de error en modulación digital
Probabilidad de error en modulación digitalProbabilidad de error en modulación digital
Probabilidad de error en modulación digitalFrancisco Apablaza
 
Trasmisión por modulación angular2
Trasmisión por modulación angular2Trasmisión por modulación angular2
Trasmisión por modulación angular2Marco Mendoza López
 
2.Datos y señales en comunicaciones electrónicas
2.Datos y señales en comunicaciones electrónicas2.Datos y señales en comunicaciones electrónicas
2.Datos y señales en comunicaciones electrónicasEdison Coimbra G.
 
Fsk modulation and demodulation
Fsk modulation and demodulationFsk modulation and demodulation
Fsk modulation and demodulationMafaz Ahmed
 
CI19. Presentación 4. Large scale path loss (completa)
CI19. Presentación 4. Large scale path loss (completa)CI19. Presentación 4. Large scale path loss (completa)
CI19. Presentación 4. Large scale path loss (completa)Francisco Sandoval
 
Tratamiento de Señales en Tiempo Discreto Alan Oppenheim 3 edicion.pdf
Tratamiento de Señales en Tiempo Discreto Alan Oppenheim 3 edicion.pdfTratamiento de Señales en Tiempo Discreto Alan Oppenheim 3 edicion.pdf
Tratamiento de Señales en Tiempo Discreto Alan Oppenheim 3 edicion.pdfSANTIAGO PABLO ALBERTO
 
Comandos Básicos HUAWEI
Comandos Básicos HUAWEIComandos Básicos HUAWEI
Comandos Básicos HUAWEIBootcamp SCL
 
Mikrotik - Tesis
Mikrotik - TesisMikrotik - Tesis
Mikrotik - Tesisbvar
 
Acceso a la WAN: 2. Protocolo PPP
Acceso a la WAN: 2. Protocolo PPPAcceso a la WAN: 2. Protocolo PPP
Acceso a la WAN: 2. Protocolo PPPFrancesc Perez
 
Introducción a la programacion Pic16F84
Introducción a la programacion Pic16F84Introducción a la programacion Pic16F84
Introducción a la programacion Pic16F84Daniel Remondegui
 

What's hot (20)

Modulación de pulsos
Modulación de pulsosModulación de pulsos
Modulación de pulsos
 
Tráfico telefónico
Tráfico telefónicoTráfico telefónico
Tráfico telefónico
 
Cuadro comparativo de modulaciones
Cuadro comparativo de modulacionesCuadro comparativo de modulaciones
Cuadro comparativo de modulaciones
 
Sistemas de comunicaciones opticos
Sistemas de comunicaciones opticosSistemas de comunicaciones opticos
Sistemas de comunicaciones opticos
 
Lecture 4 teoría de la información
Lecture 4 teoría de la informaciónLecture 4 teoría de la información
Lecture 4 teoría de la información
 
Trabajo especial modulacion angular
Trabajo especial modulacion angularTrabajo especial modulacion angular
Trabajo especial modulacion angular
 
Probabilidad de error en modulación digital
Probabilidad de error en modulación digitalProbabilidad de error en modulación digital
Probabilidad de error en modulación digital
 
Trasmisión por modulación angular2
Trasmisión por modulación angular2Trasmisión por modulación angular2
Trasmisión por modulación angular2
 
Códigos
Códigos Códigos
Códigos
 
Sa fourier con matlab
Sa fourier con matlabSa fourier con matlab
Sa fourier con matlab
 
2.Datos y señales en comunicaciones electrónicas
2.Datos y señales en comunicaciones electrónicas2.Datos y señales en comunicaciones electrónicas
2.Datos y señales en comunicaciones electrónicas
 
Fsk modulation and demodulation
Fsk modulation and demodulationFsk modulation and demodulation
Fsk modulation and demodulation
 
CI19. Presentación 4. Large scale path loss (completa)
CI19. Presentación 4. Large scale path loss (completa)CI19. Presentación 4. Large scale path loss (completa)
CI19. Presentación 4. Large scale path loss (completa)
 
Tratamiento de Señales en Tiempo Discreto Alan Oppenheim 3 edicion.pdf
Tratamiento de Señales en Tiempo Discreto Alan Oppenheim 3 edicion.pdfTratamiento de Señales en Tiempo Discreto Alan Oppenheim 3 edicion.pdf
Tratamiento de Señales en Tiempo Discreto Alan Oppenheim 3 edicion.pdf
 
Comandos Básicos HUAWEI
Comandos Básicos HUAWEIComandos Básicos HUAWEI
Comandos Básicos HUAWEI
 
Modulacion AM
Modulacion AMModulacion AM
Modulacion AM
 
Mikrotik - Tesis
Mikrotik - TesisMikrotik - Tesis
Mikrotik - Tesis
 
trafico
traficotrafico
trafico
 
Acceso a la WAN: 2. Protocolo PPP
Acceso a la WAN: 2. Protocolo PPPAcceso a la WAN: 2. Protocolo PPP
Acceso a la WAN: 2. Protocolo PPP
 
Introducción a la programacion Pic16F84
Introducción a la programacion Pic16F84Introducción a la programacion Pic16F84
Introducción a la programacion Pic16F84
 

Viewers also liked

07 cuantificacion escalar (1)
07 cuantificacion escalar (1)07 cuantificacion escalar (1)
07 cuantificacion escalar (1)Rose56
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacionGalafardo Gala
 
Conversor analogico digital
Conversor analogico digitalConversor analogico digital
Conversor analogico digitalmaurb
 
Lecture 5 formateo de señales analógicas
Lecture 5 formateo de señales analógicasLecture 5 formateo de señales analógicas
Lecture 5 formateo de señales analógicasnica2009
 
Sesion 03 - Digitalizacion de señales
Sesion 03 - Digitalizacion de señalesSesion 03 - Digitalizacion de señales
Sesion 03 - Digitalizacion de señalesgluzardo
 
6.3 Propagacion de onda en el espacio libre
6.3 Propagacion de onda en el espacio libre6.3 Propagacion de onda en el espacio libre
6.3 Propagacion de onda en el espacio libreEdison Coimbra G.
 
Conversion señal Analógica a Digital Y viceversa
Conversion señal Analógica a Digital Y viceversaConversion señal Analógica a Digital Y viceversa
Conversion señal Analógica a Digital Y viceversaDiego Seminario
 

Viewers also liked (13)

07 cuantificacion escalar (1)
07 cuantificacion escalar (1)07 cuantificacion escalar (1)
07 cuantificacion escalar (1)
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacion
 
Conversor analogico digital
Conversor analogico digitalConversor analogico digital
Conversor analogico digital
 
Lecture 5 formateo de señales analógicas
Lecture 5 formateo de señales analógicasLecture 5 formateo de señales analógicas
Lecture 5 formateo de señales analógicas
 
Sesion 03 - Digitalizacion de señales
Sesion 03 - Digitalizacion de señalesSesion 03 - Digitalizacion de señales
Sesion 03 - Digitalizacion de señales
 
Fuentes de informacion y entropia
Fuentes de informacion y entropiaFuentes de informacion y entropia
Fuentes de informacion y entropia
 
MUESTREO
MUESTREOMUESTREO
MUESTREO
 
Muestreo
MuestreoMuestreo
Muestreo
 
Entropia
EntropiaEntropia
Entropia
 
6.3 Propagacion de onda en el espacio libre
6.3 Propagacion de onda en el espacio libre6.3 Propagacion de onda en el espacio libre
6.3 Propagacion de onda en el espacio libre
 
Campo eléctrico
Campo eléctricoCampo eléctrico
Campo eléctrico
 
Magnitudes Vectoriales
Magnitudes VectorialesMagnitudes Vectoriales
Magnitudes Vectoriales
 
Conversion señal Analógica a Digital Y viceversa
Conversion señal Analógica a Digital Y viceversaConversion señal Analógica a Digital Y viceversa
Conversion señal Analógica a Digital Y viceversa
 

Similar to Entropia

Teoría de la información
Teoría de la informaciónTeoría de la información
Teoría de la informaciónEdwin Ortega
 
6 Codificación de fuente.ppsx
6 Codificación de fuente.ppsx6 Codificación de fuente.ppsx
6 Codificación de fuente.ppsxJoseBiafore1
 
Sistemas de comunicacion electronica
Sistemas de comunicacion electronicaSistemas de comunicacion electronica
Sistemas de comunicacion electronicabadcut95
 
Presentacion Foro eulises brazon Josue Baez
Presentacion Foro eulises brazon  Josue Baez Presentacion Foro eulises brazon  Josue Baez
Presentacion Foro eulises brazon Josue Baez luis752116
 
Teoría de la Información Electrónica-Lic. Prof. Edgardo Faletti- 2001
Teoría de la Información Electrónica-Lic. Prof. Edgardo Faletti- 2001Teoría de la Información Electrónica-Lic. Prof. Edgardo Faletti- 2001
Teoría de la Información Electrónica-Lic. Prof. Edgardo Faletti- 2001INSPT-UTN
 
CODIGO HUFFMAN-1.pptx
CODIGO HUFFMAN-1.pptxCODIGO HUFFMAN-1.pptx
CODIGO HUFFMAN-1.pptxJosGmez15617
 
lecture4teoradelainformacin-120221112111-phpapp02.pptx
lecture4teoradelainformacin-120221112111-phpapp02.pptxlecture4teoradelainformacin-120221112111-phpapp02.pptx
lecture4teoradelainformacin-120221112111-phpapp02.pptxssuser8106a7
 
Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información Marco Muñoz
 
Archivo 2 introduccion_a_las_telecomunicaciones_1
Archivo 2 introduccion_a_las_telecomunicaciones_1Archivo 2 introduccion_a_las_telecomunicaciones_1
Archivo 2 introduccion_a_las_telecomunicaciones_1Enrique Zrt
 
ACTIVIDADES ENTROPÍA DE LA INFORMACIÓN
ACTIVIDADES ENTROPÍA DE LA INFORMACIÓNACTIVIDADES ENTROPÍA DE LA INFORMACIÓN
ACTIVIDADES ENTROPÍA DE LA INFORMACIÓNAnthony Benalcazar
 

Similar to Entropia (20)

Teoría de la información
Teoría de la informaciónTeoría de la información
Teoría de la información
 
Expo 1
Expo 1Expo 1
Expo 1
 
6 Codificación de fuente.ppsx
6 Codificación de fuente.ppsx6 Codificación de fuente.ppsx
6 Codificación de fuente.ppsx
 
Entropia
EntropiaEntropia
Entropia
 
Entropia
EntropiaEntropia
Entropia
 
Semana 9
Semana 9Semana 9
Semana 9
 
Conferencia n° 5
Conferencia n° 5Conferencia n° 5
Conferencia n° 5
 
Entropia
EntropiaEntropia
Entropia
 
Sistemas de comunicacion electronica
Sistemas de comunicacion electronicaSistemas de comunicacion electronica
Sistemas de comunicacion electronica
 
Tema4
Tema4Tema4
Tema4
 
Presentacion Foro eulises brazon Josue Baez
Presentacion Foro eulises brazon  Josue Baez Presentacion Foro eulises brazon  Josue Baez
Presentacion Foro eulises brazon Josue Baez
 
Teoría de la Información Electrónica-Lic. Prof. Edgardo Faletti- 2001
Teoría de la Información Electrónica-Lic. Prof. Edgardo Faletti- 2001Teoría de la Información Electrónica-Lic. Prof. Edgardo Faletti- 2001
Teoría de la Información Electrónica-Lic. Prof. Edgardo Faletti- 2001
 
CODIGO HUFFMAN-1.pptx
CODIGO HUFFMAN-1.pptxCODIGO HUFFMAN-1.pptx
CODIGO HUFFMAN-1.pptx
 
Unidad i
Unidad iUnidad i
Unidad i
 
lecture4teoradelainformacin-120221112111-phpapp02.pptx
lecture4teoradelainformacin-120221112111-phpapp02.pptxlecture4teoradelainformacin-120221112111-phpapp02.pptx
lecture4teoradelainformacin-120221112111-phpapp02.pptx
 
Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información
 
Archivo 2 introduccion_a_las_telecomunicaciones_1
Archivo 2 introduccion_a_las_telecomunicaciones_1Archivo 2 introduccion_a_las_telecomunicaciones_1
Archivo 2 introduccion_a_las_telecomunicaciones_1
 
Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
Entropía de la información
Entropía de la informaciónEntropía de la información
Entropía de la información
 
ACTIVIDADES ENTROPÍA DE LA INFORMACIÓN
ACTIVIDADES ENTROPÍA DE LA INFORMACIÓNACTIVIDADES ENTROPÍA DE LA INFORMACIÓN
ACTIVIDADES ENTROPÍA DE LA INFORMACIÓN
 

Recently uploaded

44 RAZONES DE PORQUE SI ESTAMOS MAL (1).pdf
44 RAZONES DE PORQUE SI ESTAMOS MAL (1).pdf44 RAZONES DE PORQUE SI ESTAMOS MAL (1).pdf
44 RAZONES DE PORQUE SI ESTAMOS MAL (1).pdflupismdo
 
METODOS ESCALA SALARIAL EN ESTRUCTURAS.PPT
METODOS ESCALA SALARIAL EN ESTRUCTURAS.PPTMETODOS ESCALA SALARIAL EN ESTRUCTURAS.PPT
METODOS ESCALA SALARIAL EN ESTRUCTURAS.PPTrodrigolozanoortiz
 
puntos-clave-de-la-reforma-pensional-2023.pdf
puntos-clave-de-la-reforma-pensional-2023.pdfpuntos-clave-de-la-reforma-pensional-2023.pdf
puntos-clave-de-la-reforma-pensional-2023.pdfosoriojuanpablo114
 
Venezuela Entorno Social y Económico.pptx
Venezuela Entorno Social y Económico.pptxVenezuela Entorno Social y Económico.pptx
Venezuela Entorno Social y Económico.pptxJulioFernandez261824
 
Sistema de Control Interno aplicaciones en nuestra legislacion
Sistema de Control Interno aplicaciones en nuestra legislacionSistema de Control Interno aplicaciones en nuestra legislacion
Sistema de Control Interno aplicaciones en nuestra legislacionPedroSalasSantiago
 
ejemplo de tesis para contabilidad- capitulos
ejemplo de tesis para contabilidad- capitulosejemplo de tesis para contabilidad- capitulos
ejemplo de tesis para contabilidad- capitulosguillencuevaadrianal
 
Principios de economia Mankiw 6 edicion.pdf
Principios de economia Mankiw 6 edicion.pdfPrincipios de economia Mankiw 6 edicion.pdf
Principios de economia Mankiw 6 edicion.pdfauxcompras5
 
mercado de capitales universidad simon rodriguez - guanare (unidad I).pdf
mercado de capitales universidad simon rodriguez - guanare (unidad I).pdfmercado de capitales universidad simon rodriguez - guanare (unidad I).pdf
mercado de capitales universidad simon rodriguez - guanare (unidad I).pdfGegdielJose1
 
Politicas publicas para el sector agropecuario en México.pptx
Politicas publicas para el sector agropecuario en México.pptxPoliticas publicas para el sector agropecuario en México.pptx
Politicas publicas para el sector agropecuario en México.pptxvladisse
 
Análisis de la Temporada Turística 2024 en Uruguay
Análisis de la Temporada Turística 2024 en UruguayAnálisis de la Temporada Turística 2024 en Uruguay
Análisis de la Temporada Turística 2024 en UruguayEXANTE
 
41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO
41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO
41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICOlupismdo
 
El cheque 1 y sus tipos de cheque.pptx
El cheque  1 y sus tipos de  cheque.pptxEl cheque  1 y sus tipos de  cheque.pptx
El cheque 1 y sus tipos de cheque.pptxNathaliTAndradeS
 
Compañías aseguradoras presentacion power point
Compañías aseguradoras presentacion power pointCompañías aseguradoras presentacion power point
Compañías aseguradoras presentacion power pointAbiReyes18
 
PRUEBA PRE ICFES ECONOMIA. (4) - copia.doc
PRUEBA PRE ICFES ECONOMIA. (4) - copia.docPRUEBA PRE ICFES ECONOMIA. (4) - copia.doc
PRUEBA PRE ICFES ECONOMIA. (4) - copia.docmilumenko
 
LOS MIMBRES HACEN EL CESTO: AGEING REPORT.
LOS MIMBRES HACEN EL CESTO: AGEING  REPORT.LOS MIMBRES HACEN EL CESTO: AGEING  REPORT.
LOS MIMBRES HACEN EL CESTO: AGEING REPORT.ManfredNolte
 
TEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOS
TEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOSTEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOS
TEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOSreyjuancarlosjose
 

Recently uploaded (17)

44 RAZONES DE PORQUE SI ESTAMOS MAL (1).pdf
44 RAZONES DE PORQUE SI ESTAMOS MAL (1).pdf44 RAZONES DE PORQUE SI ESTAMOS MAL (1).pdf
44 RAZONES DE PORQUE SI ESTAMOS MAL (1).pdf
 
METODOS ESCALA SALARIAL EN ESTRUCTURAS.PPT
METODOS ESCALA SALARIAL EN ESTRUCTURAS.PPTMETODOS ESCALA SALARIAL EN ESTRUCTURAS.PPT
METODOS ESCALA SALARIAL EN ESTRUCTURAS.PPT
 
puntos-clave-de-la-reforma-pensional-2023.pdf
puntos-clave-de-la-reforma-pensional-2023.pdfpuntos-clave-de-la-reforma-pensional-2023.pdf
puntos-clave-de-la-reforma-pensional-2023.pdf
 
Venezuela Entorno Social y Económico.pptx
Venezuela Entorno Social y Económico.pptxVenezuela Entorno Social y Económico.pptx
Venezuela Entorno Social y Económico.pptx
 
Sistema de Control Interno aplicaciones en nuestra legislacion
Sistema de Control Interno aplicaciones en nuestra legislacionSistema de Control Interno aplicaciones en nuestra legislacion
Sistema de Control Interno aplicaciones en nuestra legislacion
 
ejemplo de tesis para contabilidad- capitulos
ejemplo de tesis para contabilidad- capitulosejemplo de tesis para contabilidad- capitulos
ejemplo de tesis para contabilidad- capitulos
 
Principios de economia Mankiw 6 edicion.pdf
Principios de economia Mankiw 6 edicion.pdfPrincipios de economia Mankiw 6 edicion.pdf
Principios de economia Mankiw 6 edicion.pdf
 
mercado de capitales universidad simon rodriguez - guanare (unidad I).pdf
mercado de capitales universidad simon rodriguez - guanare (unidad I).pdfmercado de capitales universidad simon rodriguez - guanare (unidad I).pdf
mercado de capitales universidad simon rodriguez - guanare (unidad I).pdf
 
Mercado Eléctrico de Ecuador y España.pdf
Mercado Eléctrico de Ecuador y España.pdfMercado Eléctrico de Ecuador y España.pdf
Mercado Eléctrico de Ecuador y España.pdf
 
Politicas publicas para el sector agropecuario en México.pptx
Politicas publicas para el sector agropecuario en México.pptxPoliticas publicas para el sector agropecuario en México.pptx
Politicas publicas para el sector agropecuario en México.pptx
 
Análisis de la Temporada Turística 2024 en Uruguay
Análisis de la Temporada Turística 2024 en UruguayAnálisis de la Temporada Turística 2024 en Uruguay
Análisis de la Temporada Turística 2024 en Uruguay
 
41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO
41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO
41 RAZONES DE PORQUE SI ESTAMOS MAL EN MÉXICO
 
El cheque 1 y sus tipos de cheque.pptx
El cheque  1 y sus tipos de  cheque.pptxEl cheque  1 y sus tipos de  cheque.pptx
El cheque 1 y sus tipos de cheque.pptx
 
Compañías aseguradoras presentacion power point
Compañías aseguradoras presentacion power pointCompañías aseguradoras presentacion power point
Compañías aseguradoras presentacion power point
 
PRUEBA PRE ICFES ECONOMIA. (4) - copia.doc
PRUEBA PRE ICFES ECONOMIA. (4) - copia.docPRUEBA PRE ICFES ECONOMIA. (4) - copia.doc
PRUEBA PRE ICFES ECONOMIA. (4) - copia.doc
 
LOS MIMBRES HACEN EL CESTO: AGEING REPORT.
LOS MIMBRES HACEN EL CESTO: AGEING  REPORT.LOS MIMBRES HACEN EL CESTO: AGEING  REPORT.
LOS MIMBRES HACEN EL CESTO: AGEING REPORT.
 
TEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOS
TEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOSTEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOS
TEMA 3 DECISIONES DE INVERSION Y FINANCIACION UNIVERISDAD REY JUAN CARLOS
 

Entropia

  • 1. AREA DE LA ENERGÍA, LAS INDUSTRIAS, Y LOS RECURSOS NATURALES NO RENOVABLES CARRERA DE INGENIERIA EN ELECTRÓNICA Y TELECOMUNICACIONES MÓDULO VIII COMUNICACIONES DIGITALES TEMA: Fuentes de Información y Codificación de Fuente. REALIZADO POR: Edgar Emanuel González Malla. PARALELO: “A” DOCENTE: Ing. Klever Carrión FECHA: 2012-03-19 LOJA - ECUADOR
  • 2. FUENTES DE INFORMACIÓN Y CODIFICACIÓN DE FUENTE Una fuente de información es un elemento que entrega información, como pueden ser una persona hablando, un ordenador entregando datos. Es un elemento que entrega una señal, y una señal es una función de una o más variables que contiene información acerca de la naturaleza o comportamiento de algún fenómeno. Es decir, se considera señal tanto al fenómeno físico que transporta la información como a la función matemática que representa a ese fenómeno. Las fuentes de información se clasifican basándose en el tipo de señal que entregan. Se pueden clasificar, según el tipo de variable independiente (tiempo) en:  Fuentes de tiempo continuo: la función está definida para cualquier valor de la variable independiente.  Fuentes de tiempo discreto: la función sólo está definida para un conjunto contable de instantes de tiempo. En la cuales el valor de la función sólo toma un conjunto finito de valores. A cada uno de estos valores se los denomina símbolos. El conjunto de todos los símbolos se suele llamar alfabeto. 1. ENTROPÍA La Entropía corresponde a la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras frecuentes como "que", "el", "a" aportan poca información. Mientras que palabras menos frecuentes como "corren", "niño", "perro" aportan más información. Si de un texto dado borramos un "que", seguramente no afectará a la comprensión y se sobreentenderá, no siendo así si borramos la palabra "niño" del mismo texto original. Cuando todos los símbolos son igualmente probables (distribución de probabilidad plana), todos aportan información relevante y la entropía es máxima. El concepto de entropía es usado en termodinámica, mecánica estadística y teoría de la información. En todos los casos la entropía se concibe como una "medida del desorden" o la "peculiaridad de ciertas combinaciones". La Entropía puede ser considerada como una medida de la incertidumbre y de la información necesaria para, en cualquier proceso, poder acotar, reducir o eliminar la incertidumbre. Sea E un suceso que puede presentarse con probabilidad P(E). Cuando E tiene lugar, hemos recibido: I(E) = (1) unidades de información. Si introducimos el logaritmo de base r=2, la unidad correspondiente se denomina bit, empleando logaritmos naturales, la unidad de información recibe el nombre de nat, en el caso de logaritmos de base 10, la unidad de información es el Harley. La relación entre estas unidades es la siguiente:
  • 3. 1 Hartley = 3,32 bits (2) 1 nat = 1,44 bits (3) En la ecuación 4 notamos que si P (E) = 1/2, será I(E) = 1 bit. Es decir, un bit es la cantidad de información obtenida al especificar una de dos posibles alternativas igualmente probables. Esta situación se presenta al lanzar una moneda al aire o al examinar la salida de un sistema de comunicación binario. Definición de Entropía: Al contenido de información de la fuente se denomina Entropía, H(S), que corresponde a la magnitud de la cantidad media por símbolo de la fuente. La entropía de una variable aleatoria S es una función de las probabilidades de ocurrencia de las muestras, definida como: H(S)= ∑ bits (4) En el transcurso de este informe se mantendrá la notación = log(m), por lo que las unidades manejadas serán bits. Ejemplo 1. Consideremos la fuente S = {s1, s2, s3,) con P(s1) = 1/2 y P(s2) = P(s3) = 1/4. Entonces: H(S) = 1/2 log 2 + 1/4log 4 + 1/4 los 4 = 3/2 bits 2. PROPIEDADES DE LA ENTROPÍA La entropía tiene las siguientes propiedades:  La entropía es no negativa. Esto es evidente ya que al ser Pi una probabilidad entonces 0 <Pi ≤ 1.Por tanto podemos decir que < 0 y por tanto > 0.  Dado un proceso con posibles resultados {S1,..,Sn} con probabilidades relativas P1, P2..,Pn, la función H(P1,P2,….., Pn), es máxima en el caso de que P1 = P2 = Pn = 1/n. El resultado es intuitivo ya que tenemos la mayor incertidumbre del mensaje, cuando los valores posibles de la variable son equiprobables.  Dado un proceso con posibles resultados {S1,..,Sn} con probabilidades relativas P1, ...,Pn, la función H(P1, P2,…Pn), es nula en el caso de que Pi = 0 para todo i, excepto para una clase, tal que: pj = 1. De forma intuitiva podemos pensar que cuando uno o más estados tienen una probabilidad alta, disminuye significativamente la entropía porque, como es lógico, existe una menor incertidumbre respecto al mensaje que se recibirá.  La cantidad máxima de información dada por una fuente de memoria nula de q símbolos, crece lentamente al aumentar q. De hecho, la cantidad máxima de información crece con el logaritmo del número de símbolos de la fuente, de modo que para duplicar la cantidad máxima de información por símbolo en una fuente de q símbolos, sería necesaria una fuente de q2 símbolos. Ya que H(S2 )=2H(s). Un ejemplo particularmente importante de fuente de información de memoria nula corresponde a una fuente binaria de memoria nula. En tal fuente, el alfabeto se reduce a (0, 1).
  • 4. La probabilidad de un o es w y la de un 1 es 1 – w. En donde w’=1-w. La entropía se determina a partir de la ecuación 4: H(S) = 1/w*log + 1/w’*log bits Otro punto importante es que: Por lo tanto por definición: 0*log0=0 En la Figura 1 se representado la curva de variación H(w) en función de w, denotada en el intervalo (0, 1 )de la variable. Como se aprecia en dicha figura si la salida de la fuente binaria es cierta (w=0 u w’=1) la fuente no suministra ninguna información. El valor medio de la información aportada por un símbolo de la fuente binaria alcanza su máximo en el caso en que ambos, 0 y 1, sean igualmente probables, siendo este valor máximo igual a log 2, es decir, 1 bit. La salida de una fuente binaria está constituida por dígitos binarios o binits. Así una secuencia de binits producida por una fuente de información binaria de memoria nula, de 0s y 1s equiprobables, suministra un bit de información por binit. Si 0s y 1s no son igualmente probables, la cantidad de información dada por un binit será menor o mayor de 1 bit dependiendo de los valores de las probabilidades. La cantidad media de información suministrada por un binit de tal fuente, sin embargo, será siempre menor o igual a 1 bit. Figura 1. Representación de H(w).
  • 5. 3. CÓDIGOS HUFFMAN La codificación Huffman usa un método específico para elegir la representación de cada símbolo, que da lugar a un código prefijo (es decir, la cadena de bits que representa a un símbolo en particular y nunca es prefijo de la cadena de bits de un símbolo distinto) que representa los caracteres más comunes usando las cadenas de bits más cortas, y viceversa. Huffman fue capaz de diseñar el método de compresión más eficiente de este tipo: ninguna representación alternativa de un conjunto de símbolos de entrada produce una salida media más pequeña cuando las frecuencias de los símbolos coinciden con las usadas para crear el código. La idea en la codificación de Huffman es elegir una longitud de palabra que las secuencias mas probables tengan longitudes cortas. Los códigos Huffman son unívocamente decodificables e instantáneos con longitud de código mínima. En ese sentido son óptimos. La optimalidad se entiende sobre todos los códigos que satisfacen la condición de prefijo (y en consecuencia son unívocamente decodificables e instantáneos). Técnica básica: La técnica utilizada es el propio algoritmo de Huffman. Consiste en la creación de un árbol binario (o de alfabeto n-ario) en el que se etiquetan los nodos hoja con los caracteres, junto a sus frecuencias, y de forma consecutiva se van uniendo cada pareja de nodos que menos frecuencia sumen, pasando a crear un nuevo nodo intermedio etiquetado con dicha suma. Se procede a realizar esta acción hasta que no quedan nodos hoja por unir a ningún nodo superior, y se ha formado el árbol binario. Posteriormente se etiquetan las aristas que unen cada uno de los nodos con ceros y unos (hijo derecho e izquierdo, respectivamente, por ejemplo. El código resultante para cada carácter es la lectura, siguiendo la rama, desde la raíz hacia cada carácter (o viceversa) de cada una de las etiquetas de las aristas. Ejemplo 2: Codificar la fuente S={a1, a2,..., a6} con una distribución de probabilidades,: p1=0.3; p2=0.25; p3=0.2; p4=p5=0.1; p6=0.05 Utilizando un alfabeto de 2 simbolos; el árbol binario seria como el de la Figura 2: Figura 2. Árbol binario para el ejemplo 2.
  • 6. Los resultados obtenidos tanto del código compacto como de su longitud y entropía se muestran en la Figura 3. Figura 3. Resultados del ejemplo 2. Este resultado expresa el código compacto obtenido utilizando el método de codificación de Huffman , el cual como se menciono anteriormente corresponde al código con la menor longitud media, además de acuerdo a los resultados de la figura 3 se concluye que los códigos de huffman asignan mayor cantidad de bits a los símbolos de la fuente que poseen menor probabilidad, es decir, a los que poseen mayor información. Ejemplo 3: Se dispone de una fuente S de memoria nula, de 13 símbolos, cuyas probabilidades se representan en la Figura 4. En ella se enumeran los correspondientes alfabetos de 2 a 13 símbolos. Figura 4. Resultados del ejemplo 3.
  • 7. Del ejemplo 3 podemos concluir que conforme aumentan los símbolos de codificación, la longitud media L disminuye. 4. CUANTIZACIÓN. Después del muestreo de una señal tenemos una secuencia de números que, teóricamente, pueden representar cualquier valor de un rango continuo. Hay infinitos valores posibles, de hecho, esos valores forman un conjunto infinito no numerable [lo que significa que los elementos de ese conjunto no se pueden poner en correspondencia biunívoca con los números naturales]. Para poder representar cada número de ese rango continuo, sería necesario tener una cantidad infinita de dígitos, algo que no tenemos. En lugar de eso, debemos representar nuestros números con una cantidad finita de dígitos, es decir: después de discretizar la variable del tiempo, tenemos ahora que discretizar también la variable usada para la amplitud. Esta discretización de valores de amplitud recibe el nombre de cuantización. El adjetivo escalar hacer referencia a las salidas y entradas del cuantificador: Cuantización escalar si las E/S son escalares. Cuantización vectorial si las E/S son vectoriales. 4.1 CUANTIZACIÓN ESCALAR: En la cuantización escalar cada salida individual de la fuente se cuantiza en cierto número de niveles que después son codificados a una secuencia binaria. Cada salida de la fuente es un número real en general, pero aun así la transmisión de números reales requiere un número infinito de bits. En consecuencia, es necesario mapear el conjunto de los números reales en un conjunto finito y al mismo tiempo minimizar la distorsión introducida. En la cuantización escalar el conjunto de los números reales R se particiona en N subconjuntos disjuntos Rk, 1≤K≤N. A cada subconjunto Rk corresponde un punto de referencia x’K. Si al salida de la fuente en el instante i, xi pertenece a Rk, entonces se representa por x’k, que es la versión cuantizada de xi, x’i luego se representa mediante una secuencia binaria y se transmite. Dado que existen N posibilidades para los niveles cuantizados, logN bits son suficientes para codificar esos niveles en secuencias binarias (N se elije generalmente como potencia de 2). En consecuencia, el numero de bits requeridos para transmitir cada salida de la fuente es R=logN bits. La desventaja de disminuir de infinitos niveles a logN es la distorsión introducida. La figura 5 muestra un ejemplo de un esquema de cuantización de 8 niveles. En este esquema las 8 regiones están definidas como R1= (-inf,a1), R2=(-a1,a2),…, R8=(-a7,+inf). El punto de representación (o valor cuantizado) en cada región es x’i, como se muestra en la figura 5. La función de cuantización Q esta definida por: Q(x)= x’i (Par todo x que pertenece a Ri). (5) Esta función también se muestra en la figura 5. De donde puede concluirse que la función cuantización es no lineal y no invertible. Esto se debe a que todos los puntos en Ri se mapean en un solo punto x’i, dado que la función cuantización no es invertible, se pierde alguna información en el proceso de cuantización y esta perdida de información no es recuperable.
  • 8. Figura 5. Ejemplo de un esquema de cuantización de 8 niveles. Ejemplo 4. Considerando la señal: S(t)=4*cos(2*pi*t) Muestreada cada 0.05 s. La muestra fue codificada usando el conversor A/D cuyo funcionamiento se muestra en la figura 6, y decodificada con el D/A cuyo funcionamiento se muestra en la figura 7. Figura 6. Funcionamiento del codificador de 8 niveles para el ejemplo 4. Figura 7. Funcionamiento del decodificador de 8 niveles para el ejemplo 4. Algunos ejemplos de entradas, conversores A/D y D/A y los errores en la cuantificación se muestran en la tabla siguiente:
  • 9. Tabla 1. Resultados obtenidos para el ejemplo 4. La representación gráfica del cuantificador o cuantizador se muestra en al Figura 8. Podría decirse que la división de la entrada es un problema del codificador y la asignación de salidas a las palabras del código es un problema del decodificador. Obviamente ambos problemas están muy relacionados y los dos forman parte del diseño del cuantificador. Observa que un problema importante de diseño es asignar códigos binarios a los intervalos. Figura 8. Representación del cuantificador para el ejemplo 4. 4.1.1 cuantización uniforme: Es el cuantificador más simple, todos sus intervalos de cuantificación tienen el mismo tamaño (se suele notar como Δ); con la salvedad del primer y último intervalo si la señal de entrada no está acotada. Los valores de reconstrucción están igualmente espaciados con el mismo espacio que las fronteras de decisión Δ. Figura 9 Los cuantizadores escalares uniformes pueden ser Midrise (Cuantificadoruniforme simétrico): el 0 no está en el conjunto de salidas. O Cuantificador Midtread (Cuantificador uniforme asimétrico): el 0 pertenece al conjunto de salidas. Normalmente se usan los cuantificadores midtread si el número de intervalos es impares o si necesitamos representar al 0 en los valores de salida.
  • 10. Figura 9. Cuantizador uniforme de 7 niveles. 4.1.2 cuantización no uniforme: Consideremos la función de densidad de la Figura 10: Figura 10. Función de densidad. Es obvio que sería bueno que los intervalos de cuantificación fuesen muy pequeños cerca del cero y luego fuesen creciendo (esto no lo podemos hacer con un cuantificador uniforme). Un cuantificador que tiene intervalos no uniformes recibe el nombre de cuantificador no- uniforme. Figura 11 Figura 11. Cuantizador no uniforme.
  • 11. 4.2 CUANTIZACIÓN VECTORIAL: en la cuantización escalar cada salida de la fuente discreta en tiempo (la cual es usualmente el resultado del muestreo de una fuente en tiempo) se cuantiza separadamente y luego se codifica. Por ejemplo se utiliza un cuantizador escalar de 4 niveles y se codifica cada nivel en 2 bits se estará utilizando 2 bits por cada salida de la fuente. Este esquema de cuantización se muestra en la figura 12. Figura 12. Cuantizador escalar de 4 niveles. Si se considera ahora dos muestras de salida de la fuente a la vez, y se interpreta esas 2 muestras como un punto en el plano, el cuantizador escalar particiona el plano en 16 regiones de cuantización como el mostrado en la figura 13. Figura 13. Cuantizador escalar de 4 niveles aplicado a 2 muestras. Puede observarse que las regiones en el espacio bidimensional tienen toda forma rectangular. Si se permiten regiones de una forma arbitraria es posible obtener mejores resultados. Esto significa que esta cuantizado 2 salidas de la fuente a la vez utilizando 16 regiones, lo cual es equivalente a 4 bits/ 2salidas de la fuente o 2 bits/cada salida de la fuente. En consecuencia el número de bits/salida de la fuente para cuantizar dos muestras a la vez es igual al número de
  • 12. bits/salida de la fuente obtenidos para el caso escalar. Si se relajan los requerimientos de tener regiones rectangulares, el desempeño mejorará. Si se toman ahora 3 muestras a la vez y se cuantiza el espacio tridimensional en 64 regiones, se tendrá aun menor distorsión con el mismo numero de bits/salida de la fuente. La idea de la cuantización vectorial es tomar bloques de salidas de longitud n y diseñar el cuantizador en el espacio n-dimensional antes que realizar la cuantización en muestras individuales en el espacio unidimensional. Suponiendo que las regiones de cuantización en el espacio n-dimensional se notan por Ri, 1≤i≤K. Esas regiones particionan el espacio n-dimensional. Cada bloque de salidas de la fuente de longitud n se nota por x E R y si x E Ri entonces está cuantizado a Q(x)=x’i. La Figura 14 muestra este esquema de cuantización para n=2 y K=37. Figura 14. Cuantizador vectorial en 2 dimensiones. Dado que existe un total de K valores cuantizados, logK bits serán suficientes para representarlos. Esto significa que serán necesarias logK bits/n salidas de la fuente o, que la velocidad de codificación de la fuente será: R = bits/salida de la fuente (6) El cuantizador vectorial óptimo de dimensión n y el numero de niveles K son aquellos que resultan de elegir la región Ri y los valores de cuantización x’i de forma que la distorsión sea mínima. 5. CODIFICACIÓN DE FORMA DE ONDA. Los esquemas de codificación de forma de onda se diseñan paran reproducir la señal de salida de la fuente en el destino con la menor distorsión posible. En estas técnicas no se presta atención al mecanismo que produce la forma de onda y toda la atención se dirije a la reproducción de la salida de la fuente en el destino de alta fidelidad. Dado que la estructura de la fuente no juega ningún rol en el diseño de los codificadores de forma de onda y solo las propiedades de la señal afectan el diseño, los codificadores de forma de onda son robustos y
  • 13. pueden utilizarse con una variedad de fuentes, siempre que las formas de onda producidas por esas fuentes tengan ciertas similaridades. Los codificadores de la forma de onda intentan reproducir la forma de la onda de la señal de entrada. Generalmente se diseñan para ser independientes a la señal, de tal forma que pueden ser usados para codificar una gran variedad de señales. Presentan una degradación aceptable en presencia de ruido y errores de transmisión. Sin embargo, para que sean efectivos, sólo se deben usar a bit-rates medios. La codificación se puede llevar a cabo tanto en el dominio del tiempo como de la frecuencia. Los codificadores de forma de onda dividen en dos grupos: en el dominio del tiempo y en el dominio de la frecuencia. 5.1 CODIFICADORES EN EL DOMINIO DEL TIEMPO Dentro de este grupo tenemos los siguientes codificadores:  PCM  DPCM  ADPCM 5.1.1 MODULACIÓN DE PULSOS CODIFICADOS (PCM). La modulación de pulsos codificados PCM es la forma más simple y antigua de codificación de forma de onda. Cada muestra que entra al codificador se cuantifica en un determinado nivel de entre un conjunto finito de niveles de reconstrucción. Cada uno de estos niveles se hace corresponder con una secuencia de dígitos binarios, y esto es lo que se envía al receptor. Se pueden usar distintos criterios para llevar a cabo la cuantificación, siendo el más usado el de la cuantificación logarítmica. Un codificador PCM esta formado por tres partes básicas: un muestreador, un cuantizador y un codificador. Un bloque funcional de un sistema PCM se muestra en al figura 15. Figura 15. Diagrama de bloques de un sistema PCM. La señal que entra al muestreador es de ancho de banda limitado, W. Usualmente existe un filtro con ancho de banda W previo al muestreador para evitar que frecuencias superiores a W entren al muestreador. Este filtro se denomina filtro de premuestreo. El muestreo se realiza a una velocidad superior a la de Nyquist para permitir una banda de salvaguarda. Los valores muestreados entran luego a un cuantizador escalar. El cuantizador escalar es un cuantizador uniforme, que resulta en un sistema PCM uniforme, o un cuantizador no uniforme. La elección del cuantizador se basa en las características de la salida de la fuente. La salida del cuantizador se codifica a una secuencia binaria de longitud v, donde N=2 v es el número de niveles de cuantización.
  • 14. 5.1.2 MODULACIÓN POR CODIFICACIÓN DE IMPULSOS DIFERENCIAL (DPCM) Puesto que PCM no tiene en cuenta la forma de la onda de la señal a codificar, funciona muy bien con señales que no sean las de la voz, sin embargo, cuando se codifica voz hay una gran correlación entre las muestras adyacentes. Esta correlación puede aprovecharse para reducir el bit-rate. Una forma sencilla de hacerlo sería transmitir solamente las diferencias entre las muestras. Esta señal de diferencia tiene un rango dinámico mucho menor que el de la voz original, por lo que podrá ser cuantificada con un número menor de niveles de reconstrucción. En la figura siguiente 16 se muestra el funcionamiento de un sistema DPCM, donde la muestra anterior se usa para predecir el valor de la muestra actual: Figura 16. Sistema DPCM: codificador/decodificador Normalmente, el valor predicho S'n, es una combinación lineal de un número finito de muestras anteriores, Sn: S’n=∑ (7) dn= sn-s’n (8) La señal de diferencia, dn, se denomina residuo y es el residuo lo que se cuantifica y se envía al receptor. Los coeficientes de predicción, {ak}, se eligen para minimizar el error cuadrático medio, E: E=∑ (9) 5.1.3 MODULACIÓN POR CODIFICACIÓN DE IMPULSOS DIFERENCIAL ADAPTATIVA (ADPCM). En DPCM tanto el predictor como el cuantificador permanecen fijos en el tiempo. Se podría conseguir una mayor eficiencia si el cuantificador se adaptase a los cambios del residuo de predicción. Además, también se podría hacer que la predicción se adaptase a la señal de la voz. Esto aseguraría que la raíz cuadrada del error de predicción se minimice continuamente, con independencia de la señal de voz y de quién la emita.
  • 15. La figura 17 muestra un codificador/decodificador ADPCM, Hay dos métodos para adaptar los cuantificadores y los predictores, llamados adaptación en feedforward y adaptación en feedbackward. En la adaptación feedforward los niveles de reconstrucción y los coeficientes de predicción se calculan en el emisor, usando un bloque de voz. Después son cuantificados y transmitidos al receptor como información lateral. Tanto el emisor como el receptor usan estos valores cuantificados para hacer las predicciones y cuantificar el residuo. En la adaptación feedbackward los niveles de reconstrucción y los coeficientes de predicción se calculan a partir de la señal codificada. Puesto que la señal es conocida tanto por el emisor como por el receptor, no hay necesidad de transmitir información lateral, así el predictor y el cuantificador pueden actualizarse para cada muestra. La adaptación feedbackward puede dar menores bir rates, pero es más sensible a los errores de transmisión que la adaptación feedforward. Figura 17. Codificador/decodificador ADPCM, estándar G.721. ADPCM de 32 Kbps ADPCM es muy útil para codificar voz a bit rates medios. La CCITT propone un estándar de codificación de voz telefónica a una velocidad de 32 kb/s. Es el estandar G.721 (ver Figura 17). Usa un esquema de adaptación feedbackward tanto para el cuantificador como para el predictor. El predictor tiene dos polos y seis ceros, por lo que produce una calidad de salida aceptable para señales que no son de voz. 5.2 CODIFICACIÓN EN EL DOMINIO DE LA FRECUENCIA Este tipo de codificadores dividen la señal en distintas componentes en frecuencia y codifican cada una de éstas de forma independiente. El número de bits usados para codificar cada componente en frecuencia puede variar dinámicamente. Algunos codificadores son:  Codificación en sub-bandas.  Codificación por transformada. 5.2.1 CODIFICACIÓN EN SUB-BANDAS Es el más sencillo de los métodos en el dominio de la frecuencia. Sea el siguiente codificador en sub-bandas el que se muestra en la figura 18, la señal atraviesa un conjunto de filtros paso- banda (BPF). Después, cada sub-banda se pasa a banda baja y se realiza un proceso de
  • 16. decimación, es decir, se quitan muestras. Las sub-bandas se codifican usando algún método basado en el dominio del tiempo. El número de bits asignados a cada banda pueden variar en función de la importancia de dicha banda. En el receptor, se añaden muestras y se vuelven a modular las bandas a sus posiciones originales. Al final, se suman para obtener la señal de voz de salida. La principal ventaja de la codificación en sub-bandas es que el ruido de cuantificación que se produce en cada banda queda confinado a la misma. Figura 18. Codificador en sub-bandas. La codificación en sub-bandas se usa mucho en señales de un gran ancho de banda, como puede ser en teleconferencia. Se rige de acuerdo al estándar G.722 de la CCITT. 5.2.2 CODIFICACIÓN POR TRANSFORMADA Consiste en una codificación por bloques. La señal de entrada se transforma en un dominio diferente y se codifican los coeficientes de la transformación. En el receptor, el decodificador calcula la transformada inversa para obtener la señal original reconstruida. La transformación más usada es la Transformada Discreta del Coseno, DCT, cuya representación es la siguiente: Xc (K) = ∑ K= 0,1,…,N-1 (10) X (n) = ∑ n= 0,1,…,N-1 (11) La codificación por transformada se utiliza en la codificación de señales de banda ancha de imagen y sonido. Sin embargo, no se usa mucho en codificación de voz debido a su complejidad. BIBLIOGRAFÍA: Disponible en: http://es.wikipedia.org/wiki/Entrop%C3%ADa_%28informaci%C3%B3n%29 Disponible en: http://ceres.ugr.es/~alumnos/luis/f_onda_t.htm#pcm
  • 17. Disponible en: http://electroacustica.artesmusicales.org/varios/material_didactico/Sampling/Digital%20Signa ls-Sampling%20and%20Quantization.pdf Disponible en: http://ceres.ugr.es/~alumnos/luis/f_onda_f.htm Abramson Norman, Teoría de la información y codificación. Quinta Edición.