Televisión digital fundamentos

  • 396 views
Uploaded on

 

More in: Technology
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
    Be the first to like this
No Downloads

Views

Total Views
396
On Slideshare
0
From Embeds
0
Number of Embeds
0

Actions

Shares
Downloads
14
Comments
0
Likes
0

Embeds 0

No embeds

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. Fundamentos de la Televisión DigitalEn el siguiente capítulo se pretende abordar los temas que llevan a la tecnología de la televisión digital, loscanales digitales ofrecen multitud de programas en un mismo paquete de televisión y se han introducido otrosconceptos como el pago por canal, pago por programa, la repetición de los programas en distintas partes delmundo, canales que ofrecen la programación entre otras ventajas, como que la codificación de audio y videopuede ser transmitida en un ancho de banda menor.En los países que han adoptado la norma digital, se está llevando a cabo un proceso de transición donde elobjetivo principal es que todos los televisores análogos sean remplazados por digitales o bien conectados a uncodificador de señal. Mientras tanto las estaciones televisoras transmiten 2 señales: una analógica por VHF yotra digital por UHF.La televisión digital tiene sus comienzos en el año 1982. En ese año se desarrolla el estándar CCIR-601. (UTI-601), el cual ha sido el primer estándar internacional de codificación de televisión digital, misma que prevé lacodificación de la señal análoga a digital por componentes a 8 bits de resolución de cuantificación. Con latelevisión digital se logra el desarrollo de efectos en 2D y 3D.Esta tecnología permite a los televidentes interactuar con datos multimedia, internet, audio, video, telefonía ymuchos otros más también es sin duda alguna la televisión digital ha representado un significativo avance en elárea de las telecomunicaciones de la nueva era. La televisión digital de la mano con la norma DVB contemplatener un sistema global, logrando así eliminar los problemas de compatibilidad con los anteriores estándaresNTSC, SECAM y PAL, aunque hay otro inconveniente ya que no se tenía contemplado el surgimiento dealternativas tecnológicas al DVB y el despertar del término HDTV fuera de las fronteras europeas.Estados unidos por una parte a desarrollado un sistema llamado ATSC al que califica como de alta definición, espor eso que el DVB inicia una fase de implantación en su terreno y de promoción en otros, lo cual estamosllegando a una situación muy similar a la que se produjo en la fase de expansión de los estándares analógicos ya esto le agregamos que Japón anuncia que está poniendo a punto otro sistema.HDTV High Definition Televisión, es uno de los formatos que se caracteriza por emitir señales televisivas en unacalidad digital superior a los sistemas tradicionales, este término se aplicaba a los modelos diseñados en losaños de 1930 y en Europa a los modelos D2 MAC y HD MACEs la transcripción de señales analógicas en señales digitales, con el propósito de facilitar su procesamiento(codificación, compresión, etc.) y hacer la señal resultante (digital) más inmune al ruido y otras interferencias alas que son más sensibles las señales analógicas.El año 1993 se formó el grupo de trabajo llamado “Digital Vídeo Broadcasting” (DVB), que tenía como objetivodefinir una serie de estándares para la implantación de un sistema de televisión digital para su transmisión víaterrestre, satélite y cable.Este grupo tomo como formato para comprimir la información digital el MPEG-2, que es el utilizado en losreproductores de DVD, y creo un conjunto de estándares denominados DVB que define como adaptar esta señalcomprimida para ser utilizada en los diferentes medios de transmisión.Los principales estándares son: DVB- Satélite (DVB-S) DVB-Terrestre (DVB-T) DVB-Cable (DVB-C)Mismos que serán explicados en uno de los siguientes capítulos.Proceso de transmisión y recepción de la televisión digital1.- Sistemas de digitalización de la señal de audio y video. Consiste en sistemas que digitalizan las señales deaudio y video a partir de señales analógicas y que obtienen un formato PCM convencional sin comprimir. En elcaso de la señal de audio, el formato PCM es parecido al sistema Compact Disc, con una frecuencia de muestreode 44.1 KHz por canal y 16 bits por muestra.2.-Sistemas de compresión / descompresión de la información. El formato ITU 601 contiene una gran cantidad dedatos que impiden su transmisión y es por eso que se opta por la utilización del formato de codificación MPEGmismo que puede permanecer por un periodo prolongado de tiempo en el mercado ya que combina distintasestrategias de codificación, utilizando tanto la información que más se repite en la imagen como la informaciónque es perceptible por el ojo humano, por tal motivo el sistema de compresión es complejo pero el dedescompresión es algo más sencillo ya que el receptor no debe tomar decisiones ya que la señal a recibir estaentre los 2 y los 9 Mbits/s.3.- Multiplexación / Demultiplexacion de señales de video y audio y varios programas. La trama de bits asociadaa un canal puede estar formado por varios programas, donde cada uno está constituido por una señal de audio yuna de video por lo cual es necesario que la señal de audio sea mezclada entre la información de video parapoder lograr una sincronía durante la reproducción, las normas de este proceso son mencionadas en el capituloen la sección que corresponde al estándar MPEG”.4.- Transmisión / Recepción de las señales. La transmisión de las señales de televisión digitales estánormalizada por la organización DVB, este estándar cubre toda la normativa de transmisión por satélite, cable y
  • 2. terrena y establece los procedimientos utilizados para el acceso a los programas, códigos de protección,sistemas de modulación, entre otras que se explicaran en el Capitulo 5 de estándares.Principios de DigitalizaciónDigitalización es el proceso de generalización del uso de la tecnología digital. En el mercado de la televisión sehabla de digitalización para hacer referencia a cómo las emisiones de televisión pasan de transmitirse en señalesanalógicas para hacerlo a través de señales digitales.El proceso de digitalizar, se refiere a la transición de la recepción analógica a la digital. Esto se aplica a todos lossistemas de transmisión de la señal de televisión existentes: terrestre, cable, satélite y DSL. Por tanto,digitalización es un término generalista que engloba a todo tipo de tecnologías de transmisión de señales. Elproceso de digitalización de una señal analógica lo realiza el conversor analógico/digital. Esta representación,numérica en bits, permite someter la señal de televisión mediante procesos complejos en imágenes sindegradación de calidad, que ofrecen múltiples ventajas y abren un abanico de posibilidades de nuevos serviciosen el hogar.La digitalización tiene consecuencias económicas y sociales importantes.Económicamente, la digitalización genera una de-fragmentación de los mercados.En efecto, si todos los agentes utilizan la misma tecnología se elimina la segmentación del mercado. Por otrolado, la digitalización reduce las barreras de entrada a la industria debido a la ampliación del número de canalesdisponibles.Finalmente, la digitalización facilita el desarrollo de los sectores implicados dado que se necesita mucha inversiónpara reformar a todos los agentes del mercado, así como para incorporar las nuevas tecnologías.Para la sociedad, la digitalización puede favorecer el desarrollo de la “sociedad de la información”, dado queamplía la información que puede llegar a los ciudadanos.En general, se puede afirmar que la tecnología digital ha modificado la estructura del mercado de la televisión.Para comprender las implicaciones de estos cambios resulta interesante comparar las características delmercado de la televisión analógica y del mercado de la televisión digital.Conversiones: analógico digitalComo antecedentes para entender el proceso de conversión es necesario conocer los conceptos análogo ydigital.El termino análogo hace referencia a las señales continuas en el tiempo lo cual significa que pueden adquirircualquier valor en un límite superior e inferior, mientras que una señal digital es aquella que presenta valoresdiscretos (0,1).Conversión analógica digitalEs el proceso de convertir una señal continua a un código digital, mediante sistemas que procesan, almacenan,interpretan, transportan y manipulan dichos valores analógicos, cabe mencionar que éste no es un procesoexacto, la conversión analógico-digital consta de varios procesos:MuestreoFigura 3.1 MuestreoConsiste en tomar muestras periódicas de la amplitud de onda. La velocidad con que se toma esta muestra, esdecir, el número de muestras por segundo, es lo que se conoce como frecuencia de muestreo.Toda la tecnología digital está basada en la técnica de muestreo (sampling), este proceso consiste en tomarmuestras de la señal análoga durante un tiempo determinado. Muestreo convierte el voltaje a 0`s y 1`s mismosque pueden ser fácilmente representados y vueltos nuevamente a su forma original.Razón de muestreo es la frecuencia de muestreo de una señal en un segundo medida en Hertz. Esta determinael rango de frecuencias en un sistema y cabe mencionar que a mayores frecuencias de muestreo hay mejorprecisión y calidad.El muestreo representa el tiempo de captura de la señal, mejor dicho, mide el tiempo, como se mencionoanteriormente el muestreo es el proceso de tomar muestras de tensiones en diferentes puntos de la ondasenoidal y la frecuencia a la que se realiza el muestreo de denomina razón o también frecuencia de muestreo yes medida en Hertz.
  • 3. Retención: las muestras tomadas han de ser retenidas (retención) por un circuito de retención (hold), el tiemposuficiente para permitir evaluar su nivel (cuantificación). Desde el punto de vista matemático este proceso no secontempla, ya que se trata de un recurso técnico debido a limitaciones prácticas, y carece, por tanto, de modelomatemático.El proceso de muestreo consigue el conjunto completo de parámetros necesario para representar una señaldigital de video, incluyendo pixeles por línea, número de líneas por cuadro, relación de aspecto, y la velocidad decuadros/campos. El muestreo en la dirección horizontal nos proporciona el parámetro de pixeles por línea, quedefine la resolución horizontal de una imagen. El muestreo vertical nos determina la resolución vertical, indicadapor el número total de líneas. El muestreo temporal determina la velocidad de cuadros o campos.CuantizaciónFigura 3.2 CuantizaciónEs el proceso de convertir una serie de valores continuos a serie de valores discretos, es decir, es la encargadade determinar cuál es el valor de las muestras.En este proceso se mide el nivel de voltaje de cada una de las muestras. Consiste en asignar un margen de valorde una señal analizada a un único nivel de salida.Incluso en su versión ideal, añade, como resultado, una señal indeseada a la señal de entrada: el ruido decuantificación.Cuantización es el componente de amplitud del muestreo, es la técnica donde un evento analógico es medidadado un valor numérico. En esta parte del proceso es donde los valores de la sinusoide se convierten en seriesde valores numéricos decimales discretos mismo que corresponden o los diferentes niveles de voltajes quecontiene la señal analógica original.Figura 3.3 Error de cuantizaciónPara reducir el error de cuantización es preciso muestrear a menores tiempos y cuantizar a mayor numero deniveles (bits).CodificaciónEs la representación numérica de la cuantización, y se utilizan códigos ya establecidos y estándares, el másconocido es el binario aunque existen otros entonces la codificación es el último paso el cual consiste en larepresentación numérica de la cuantización. Consiste en traducir los valores obtenidos durante la cuantificaciónal código binario. Hay que tener presente que el código binario es el más utilizado, pero también existen otrostipos de códigos que también son utilizados.Figura 3.4 Codificación
  • 4. Es donde las tomas de voltajes se representan numéricamente por medio de códigos y estándares previamenteestablecidos. La codificación permite asignar valores numéricos binarios equivalentes a los valores de tensioneso voltajes que conforman la señal eléctrica analógica original.Tipos de codificaciónEtapas de codificación y transmisión de una señal de video digitalCodificación fuente. Consiste en extraer toda la redundancia posible en la señal, es decir, reducir los bits de unamanera que no se represente una perdida en la calidad de la información, los métodos empleados para lacompresión son muy variados por lo que resulta difícil emplear un procedimiento de compresión ya que dependeen gran medida de las características de las señales.Multiplexación. Se encarga de formar una trama binaria que transporte la información y contenidos de distintasseñales por todo el canal definido por el estándar.Codificación de canal. Es utilizada para adecuar la forma de onda de las señales a las características del canal.Es donde se introducen los códigos de protección frente a errores, códigos de encriptación de la información y seadecua la forma de onda de la señal para que pueda ser usada en la etapa de modulación o transmisión.Transmisión. Esta etapa es la encargada de adaptar los datos a las características del medio de transmisión,para garantizar una correcta recepción de señales. El medio condiciona el tipo de modulación que se utiliza y lacodificación del canal.CompresiónLa técnica de compresión se puede aplicar a cualquier tipo de mensaje con el fin de reducir significativamente elespacio que ocupa en bits; así su almacenamiento y transmisión requerirán menos capacidad.Existen 2 tipos de compresión: con pérdida y sin pérdida. La mayor parte de los sistemas trabajan con pérdida yaque se menciona que no es necesario enviar toda la imagen sino elementos que componen la imagen antes decomprimirla,Compresión implica disminuir el número de parámetros requerido para representar la señal, manteniendo unabuena calidad perceptual. Estos parámetros son codificados para almacenarse o transmitirse. El resultado de lacompresión de video digital es que se convierte a un formato de datos que puede transmitirse a través de lasredes de comunicaciones actuales y ser procesadas por computadoras.Estándares de compresiónH.261El estándar H.261 fue desarrollado para satisfacer la compresión de video para transmisiones de bajo ancho debanda, conocido también como px64, es considerado como un compresor de tipo lossy (con pérdida) que soportavelocidades de transmisión con múltiplos de 64 Kbps y consta de 5 etapas:1.- Etapa de compensación de movimiento.2.- Etapa de transformación. (DCT).3.- Etapa de cuantificación “lossy” (con pérdida).4.- Etapa de codificación sin pérdidas (Run-Leght).5.- Etapa de codificación sin pérdidas (Huffman).Fue el primer estándar de codificación de video (1990), opera entre 40 kbit/s y 2 Mbit/s, remueve redundanciatemporal con vectores de movimiento y redundancia espacial con Transformada del Coseno discreta.El estándar H.261 fue desarrollado (antes que MPEG) para satisfacer la compresión de video para transmisionesde bajo ancho de banda y su aplicación más extendida es la de videoconferencia. Conocido también como px64,es considerado como un compresor del tipo lossy (con pérdida) que soporta velocidades de transmisión conmúltiplos de 64 Kbps, de ahí su gran difusión en videoconferencia sobre RDSI.Consta básicamente de cinco etapas:· Etapa de compensación del movimiento,
  • 5. · Etapa de transformación (DCT),· Etapa de cuantificación "lossy" (con pérdidas) y· Dos etapas de codificación del tipo sin pérdidas (codificación Run-length y codificación de Huffman).Se puede considerar como un subconjunto de la codificación MPEG, evidentemente, con una calidad bastanteinferior aunque útil para sus aplicaciones.H.262Este estándar no se mencionara mucho debido a que su funcionamiento es similar al estándar MPEG-2 mismoque será explicado en este mismo capítulo pero más adelante. (ISO/IEC 13818-2)H.263Este estándar es para bajas velocidades en videoconferencia y fue diseñado para sistemas basados en H.323(comunicación audiovisual en cualquier red de paquetes), ahora para streaming media y soluciones Internetconferencing. Basado en H.261, el estándar previo para compresión de video. Se sustituyó por el H262 v3.H.263MPEGMPEG es el más ampliamente utilizado y más conocido, una cadena MPEG se compone de tres capas: audio,video, y una capa a nivel de sistema, (esta última incluye información sobre sincronización, tiempo, calidad) seestablecieron cuatro tipos:MPEG 1.- Fue establecido en 1991, está orientado básicamente a la codificación de imágenes en movimiento yaudio asociado para medios de almacenamiento digital hasta 1.5 Mbit/sMPEG 2.- Establecido en 1994, está hecho para mayor calidad con mayor ancho de banda, proporcionaresoluciones de 720 x 576 pixeles, es decir calidad de TV. Este ofrece compatibilidad con MPEG-1. Es usado enlos DVD y en televisión digital.MPEG 3 “La planificación original contemplaba su aplicación a sistemas HDTV; finalmente fue incluido dentro deMPEG 2”.MPEG 4.- Este estándar aun se encuentra perfeccionándose, pero está más orientado a videoconferencias,proporciona codificación y composición de objetos audio tanto naturales como sintetizados.En la especificación MPEG-1 y MPEG-2 existen tres partes diferenciadas, llamadas, Sistema, Video y Audio. Laparte de video define la sintaxis y la semántica del flujo de bits de la señal de video comprimida. La parte deaudio opera igual, mientras que la parte Sistema se dirige al problema de la multiplexación de audio y video en unúnico flujo de datos con toda la información necesaria de sincronismo, sin desbordar los buffers del decodificador.Adicionalmente, MPEG-2 contiene una cuarta parte llamada DSMCC (Digital Storage Media Command Control,Medios Digitales de Almacenamiento de Mando y Control), que define un conjunto de protocolos para larecuperación y almacenamiento de los datos MPEG desde y hacia un medio de almacenamiento digital.Grupo de imágenes (GOP)Matemáticamente, cada imagen es realmente una unión de los valores que representan a un pixel: unacomponente de luminancia y dos de crominancia; es decir, tres matrices de pixeles. Ya que el ojo humano no esmuy sensible a los cambios de la región cromática comparada con la región de luminancia, las matrices de cromason decimadas o reducidas en tamaño por un factor de dos en ambas direcciones horizontal y vertical.Consecuentemente hay una cuarta parte de números de pixeles de crominancia para procesar con los pixeles deluminancia. Este formato, denominado formato (4:2:0), se emplea en MPEG-1.MPEG-2 adicionalmente permite la posibilidad de no decimar o sólo decimar horizontalmente la componentecroma, consiguiente formatos 4:4:4 y 4:2:2 respectivamente.Las imágenes pueden clasificarse principalmente en tres tipos basados en sus esquemas de compresión.· I (Intraframes) o intra cuadros.· P (Predictive) o cuadros predecidos.· B (Bi-directional) o cuadros bidireccionales.Las imágenes I son codificadas por ellas mismas, de ahí el nombre intra. Cada imagen se divide en bloques depixeles de 8x8 no solapados. Cuatro de estos bloques se organizan adicionalmente en un bloque mayor detamaño 16x16, llamado macro bloque.La transformada explota la correlación espacial de los pixeles convirtiéndolos en un conjunto de coeficientesindependientes. Los coeficientes de baja frecuencia contienen más energía que los de alta frecuencia. Estoscoeficientes son cuantificados utilizando una matriz de cuantificación, este proceso permite que los coeficientesde baja frecuencia (contienen gran energía) sean codificados con un número mayor de bits, mientras que paralos coeficientes de mayor frecuencia (menor energía) se usan menos bits o cero bits.Los coeficientes de alta energía pueden eliminarse ya que el ojo carece de la habilidad de detectar cambios dealta frecuencia. Reteniendo sólo un subconjunto de los coeficientes se reduce el número total de parámetrosnecesarios para la representación en una cantidad considerable. El proceso es idéntico para los bloques depixeles de luminancia y crominancia. Sin embargo, ya que la sensibilidad del ojo humano a la luminancia y a lacrominancia varía, las matrices de cuantificación para las dos varían.
  • 6. Figura 3.5 Codificación de ImágenesEl proceso de cuantificación también ayuda en el control de velocidad, por ej.Permitiendo al codificador producir un flujo de bits a una determinada velocidad. Los coeficientes DCT soncodificados empleando una combinación de dos esquemas de codificación especiales: Run length y Huffman.Los coeficientes son escaneados siguiendo un patrón en zig-zag para crear una secuencia de una dimensión.MPEG-2 proporciona un patrón alternativo. La secuencia resultante de 1-D usualmente contiene un gran númerode ceros debido a la naturaleza del espectro DCT y del proceso de cuantificación. Cada coeficiente diferente decero se asocia con un par de apuntadores. Primero, su posición en el bloque que se indica por el número deceros entre él y el coeficiente anterior diferente de cero (Run length). Segundo, su valor.Zig-ZagBasado en estos dos apuntadores, se le asigna un código de longitud variable (Huffman) en función de una tablapredeterminada. Este proceso se realiza de tal forma que las combinaciones con una alta probabilidad consiguenun código con pocos bits, mientras que los poco habituales obtienen un código mayor. Adoptando estacodificación sin pérdidas, el número total de bits disminuye. Sin embargo, ya que la redundancia espacial eslimitada, las imágenes I sólo proporcionan una compresión moderada. Estas imágenes son muy importantes paraacceso aleatorio utilizado para fines de edición. La frecuencia de imágenes I es normalmente una de cada 12 o15 cuadros. Un GOP está delimitado por dos cuadros I.En las imágenes P y B es donde MPEG proporciona su máxima eficiencia en compresión. Esto lo consiguemediante una técnica llamada predicción basada en la compensación de movimiento (MC: MotionCompensation), que explota la redundancia temporal. Ya que los cuadros están relacionados, podemos asumirque una imagen puede ser modelada como una translación de la imagen en el instante anterior. Entonces, esposible representar de manera precisa o predecir los valores de un cuadro basándonos en los valores del cuadroanterior, estimando el movimiento. Este proceso disminuye considerablemente la cantidad de información.En las imágenes P, cada macro bloque de tamaño 16x16 se predice a partir de un macrobloque de la anteriorimagen I. Ya que, los cuadros son instantáneos en el tiempo de un objeto en movimiento, los macrobloques enlos dos cuadros pueden no corresponder a la misma localización espacial, por lo tanto, se debe proceder abuscar en el cuadro I para encontrar un macrobloque que coincida lo máximo posible con el macrobloque que seestá considerando en el cuadro P.Figura 3.6 Coeficientes DCTLa diferencia entre los dos macrobloques es el error de predicción. Este error puede codificarse como tal o en eldominio DCT. La DCT del error consigue pocos coeficientes de alta frecuencia, que tras la cuantificaciónrequieren un número menor de bits para su representación. Las matrices de cuantificación para los bloques de
  • 7. error de predicción son diferentes de las utilizadas en los intra bloques, debido a la distinta naturaleza de susespectros. La distancia en las direcciones horizontal y vertical del macrobloque coincidente con el macrobloqueestimado se denomina vector de movimiento.Figura 3.7 Interpolación de la imagenImágenes I, B y PLa predicción no es casual, ya que se usan cuadros anteriores y posteriores. Comparados con los cuadros I y P,los B proporcionan la máxima compresión. Otras ventajas de los cuadros B son la reducción del ruido debido aun proceso de promedio y el uso de cuadros posteriores para la codificación. Esto es particularmente útil para lacodificación de "áreas descubiertas". Los cuadros B nunca se usan por sí solos para predicciones para nopropagar errores. MPEG-2 permite MC para cuadros y campos. Para una secuencia de imágenes de variaciónlenta es mejor codificar los cuadros (combinando los dos campos, si es necesario). MC basada en campos esespecialmente útil cuando la señal de video incluye movimientos rápidos.Figura 3.8 Imágenes I, B y P
  • 8. MPEG-2El estándar MPEG-2 es una evolución de MPEG-1, fue ideado para conseguir calidad no interior a NTSC/PAL ysuperior a la calidad CCIR 601. Es un conjunto de herramientas de compresión que configuran varios algoritmosde compresión de video, y por lo tanto de diferentes calidades, para integrarse en una única sintaxis capaz deaplicarse a los requerimientos de diferentes aplicaciones.Para definir subconjuntos de herramientas de compresión se añadieron los conceptos de nivel y perfil. Comoregla general, cada perfil define una nueva colección de algoritmos que se añaden a los del perfil inferior. Unnivel especifica el rango de parámetros que soporta la implementación, por ejemplo, tamaño de la imagen,velocidad de cuadros o de transmisión.En el perfil principal (MAIN Profile) define la compresión no escalable para fuentes de video progresivas yentrelazadas, como una extensión de MPEG-1. En el perfil SIMPLE no se permite la codificación de cuadros B.Soporta las siguientes relaciones de aspecto 4:3, 16:9 y 2.21:1 (cinemascope). Existen diferentes alternativaspara poder ver imágenes 16:9 o cinemascope en el formato estándar 4:3.El objetivo de los códigos escalables es proporcionar interoperatibilidad entre diferentes servicios y soportarflexibilidad en cuanto a receptores con capacidades diferentes de visualización. Por ejemplo, pueden existirreceptores que no sean capaces de reconstruir la señal de video con toda su resolución, y entonces decodificaun subconjunto de las capas en las que se codifica el flujo de bits, mostrando la señal de video con unaresolución espacial o temporal menor o con menor calidad.Tabla 3.1 Interoperatibilidad PARÁMETROSNIVEL Max. Vel. Muestras/línea Líneas/cuadro Cuadros/s (Mbps)HIGH 1920 1152 60 80HIGH 1440 1152 60 60MAIN 720 576 30 15LOW 352 288 30 4Tabla 3.3 Características de la interoperatibilidad PERFIL CARACTERÍSTICAS Soporta algoritmos de codificación no escalables para video progresivo/entrelazado Soporta predicción de cuadros BMAIN Acceso aleatorio Representación 4:2:0 YUV (4:1:1) Soporta toda la funcionalidad de MAINSNR Escalable Codificación escalable de SNREspacial Escalable Soporta toda la funcionalidad de SNR Escalable
  • 9. Codificación espacial escalable Representación 4:0:0 Soporta toda la funcionalidad del perfil Espacial escalableHIGH 3 capas con modos de codificación escalable SNR y Espacial Representación 4:2:2SIMPLE Soporta toda la funcionalidad de MAIN excepto la predicción de cuadros BA la hora de almacenar video, un método que incrementa de forma significativa la eficiencia de la compresiónMPEG es la utilización de una velocidad variable de bits (VBR, Variable Bit Rate). Este método ofrece laposibilidad de adaptar la velocidad utilizada por el codificador a la complejidad de la imagen en segmentos de25ms.Por ejemplo, imágenes simples necesitaran una velocidad instantánea de bits baja, mientras que una complejademandará una velocidad mayor. Por el contrario si utilizamos una velocidad constante (FBR, Fixed Bit Rate),esta será aquella necesaria para codificar la imagen más compleja y por lo tanto en el resto de casos sedesperdiciará espacio. La codificación a velocidad constante es inherentemente un subconjunto de la codificaciónVBR, por lo que todos los decodificadores soportarán FBR, siendo VBR opcional.Herramientas de compresiónComo se ha visto los algoritmos de compresión MPEG son una combinación inteligente de un número dediversas herramientas, cada una de ellas explota una redundancia concreta de la señal de video.Tabla 3.3 Herramientas de compresión HERRAMIENTA REDUNDANCIADCT EspacialPredicción de compensación de movimiento TemporalCodificación Run Length/Huffman CodificaciónCodificación diferencial TemporalTV digital vs. Tv analógicaEl principal problema de la televisión analógica es que no saca partido al hecho de que en la mayoría de loscasos, las señales de vídeo varían muy poco al pasar de un elemento de imagen (píxel) a los contiguos, o por lomenos existe una dependencia entre ellos. En pocas palabras, se derrocha espectro electromagnético.Además al crecer el número de estaciones transmisoras, la interferencia pasa a convertirse en un graveproblema.En la televisión analógica, los parámetros de la imagen y del sonido se representan por las magnitudesanalógicas de una señal eléctrica. El transporte de esta señal analógica hasta los hogares ocupa muchosrecursos.En el mundo digital esos parámetros se representan por números; en un sistema de base dos, es decir, usandoúnicamente los dígitos “1” y “0”.El proceso de digitalización de una señal analógica lo realiza el conversor analógico/digital. Esta representación,numérica en bits, permite someter la señal de televisión procesos muy complejos, sin degradación de calidad,que ofrecen múltiples ventajas y abren un abanico de posibilidades de nuevos servicios en el hogar.Sin embargo, la señal de televisión digital ofrecida directamente por el conversor analógico/digital contiene unagran cantidad de bits que no hacen viable su transporte y almacenamiento sin un consumo excesivo de recursos.La cantidad de bits que genera el proceso de digitalización de una señal de televisión es tan alta que necesitamucha capacidad de almacenamiento y de recursos para su transporte.Ejemplos de la cantidad de bits que genera la digitalización de 3 diferentes formatos de televisión:En formato convencional (4:3) una imagen digital de televisión está formada por 720x576 puntos (pixeles).Almacenar una imagen requiere: 1 Mbyte. Transmitir un segundo de imágenes continuas, requiere una velocidadde transmisión de 170 Mbit/s.En formato panorámico (16:9) una imagen digital de televisión está formada por 960x 576 puntos (pixeles):requiere un 30% más de capacidad que el formato 4:3.En formato alta definición la imagen digital de televisión consiste en 1920 x1080 puntos (píxeles). Almacenar unaimagen requiere más de 4 MB por imagen.Transmitir un segundo de imágenes continuas, requiere una velocidad de transmisión de 1GB/s.Afortunadamente, las señales de televisión tienen más información de la que el ojo humano necesita para percibircorrectamente una imagen. Es decir, tienen una redundancia considerable. Esta redundancia es explotada porlas técnicas de compresión digital, para reducir la cantidad de "números" generados en la digitalización hastaunos niveles adecuados que permiten su transporte con una gran calidad y economía de recursos.
  • 10. Estas y otras técnicas han sido los factores que han impulsado definitivamente el desarrollo de la televisióndigital, permitiendo el almacenamiento y transporte de la señal de televisión digital con un mínimo uso derecursos.Los canales radioeléctricos de la televisión digital ocupan la misma anchura de banda (8 MHz) que los canalesutilizados por la televisión analógica pero, debido a la utilización de técnicas de compresión de las señales deimagen y sonido (MPEG), tienen capacidad para un número variable de programas de televisión en función de lavelocidad de transmisión, pudiendo oscilar entre un único programa de televisión de alta definición (gran calidadde imagen y sonido) a cinco programas con calidadtécnica similar a la actual (norma de emisión G con sistema de color PAL), o incluso más programas con calidadsimilar al vídeo. Sin embargo, inicialmente, se ha previsto que cada canal múltiple (canal múltiple se refiere a lacapacidad de un canal radioeléctrico para albergar varios programas de televisión) de cobertura nacional oautonómica incluya, como mínimo, cuatro programas. Por el momento, no se contempla la emisión de programasde televisión de alta definición.Desventajas de la televisiónTelevisión DigitalEn los inicios de la televisión digital se encontró un problema de transmisión. Una señal de televisión digitalofrecida directamente por el conversor analógico/digital contiene una gran cantidad de bits que no hacen viablesu transporte y almacenamiento sin un consumo excesivo de recursos.La cantidad de bits que genera el proceso de digitalización de una señal de televisión es tan alta que necesitamucha capacidad de almacenamiento y de recursos para su transporte.Ejemplos de la cantidad de bits que genera la digitalización de 3 diferentes formatos de televisión:MPEG-1 sólo soporta secuencias progresivas, mientras que MPEG-2 permite secuencias progresivas yentrelazadas. Cada secuencia de video consiste en un número variable de grupos de imágenes. Un GOPcontiene un número variable de imágenes y jugará un papel muy importante en el proceso de compresión.Televisión analógicaEl principal problema de la televisión analógica es el derroche de espectro electromagnético además al crecer elnúmero de estaciones transmisoras, la interferencia pasa ha convertirse en un grave problema.En la televisión analógica, los parámetros de la imagen y del sonido se representan por las magnitudesanalógicas de una señal eléctrica. Si se producen modificaciones de la señal (situación lejos de un repetidor detelevisión, edificios altos que nos afectan la "visibilidad" de la señal, etc.) siempre tienen un efecto negativo sobrela calidad de imagen y sonido que finalmente recibimos.Ejemplo, en la televisión analógica la imagen se compone de líneas horizontales (las famosas 625 líneas). Laluminosidad a lo largo de una línea se traduce en una señal eléctrica de tensión proporcional a dicha luminosidad(el blanco equivale a la mayor tensión y el negro a la menor). Esto es válido para la televisión en blanco y negro.Para el caso del color, el procedimiento es algo más complejo. Cualquier variación de esta señal eléctrica nospuede hacer variar la información transmitida, acarreando siempre un efecto negativo sobre la calidad de imageny sonido que se recibe.En el mundo digital esos parámetros se representan por números; en un sistema de base dos, es decir, usandoúnicamente dos dígitos.