Creación Basica de la Imagen / Introducción a la Videoproducción

  • 1,878 views
Uploaded on

PRIMERA UNIDAD. CREACIÓN BÁSICA DE LA IMAGEN. …

PRIMERA UNIDAD. CREACIÓN BÁSICA DE LA IMAGEN.

Objetivos Particulares
• En esta unidad el alumno comprenderá los procesos técnicos mediante los cuales las imágenes del entorno son procesadas a través de la energía lumínica y la electricidad para trabajarse en los diferentes sistemas de escaneo, grabación y almacenaje.

• El alumno comprenderá los principios básicos de formación de la imagen que dieron lugar a los primeros sistemas de registro análogos y a la diversidad, flexibilidad y calidad que permite lo digital.

1. Principios básicos de escaneo, grabación y proyección de la imagen en los sistemas análogos y digitales.
2. Sistemas de escaneo y formatos en DTV.
3. Grabación de vídeo y sistemas de almacenaje en cinta y disco.

  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
    Be the first to like this
No Downloads

Views

Total Views
1,878
On Slideshare
0
From Embeds
0
Number of Embeds
1

Actions

Shares
Downloads
0
Comments
0
Likes
0

Embeds 0

No embeds

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. Videoproducción 5º semestre LCI LCMM E. Vladimir Guerrero Cortés evguerrero@correo.uaa.mx
  • 2. Primera unidad: Creación Básica de la Imagen
  • 3. Señal de Video El vídeo es la técnica que engloba la captura, el almacenaje y la reproducción de imágenes en movimiento. Es un proceso electrónico que puede ser analógico o digital. La sucesión de imágenes fijas crea la sensación de movimiento que capta, almacena y reproduce el vídeo. La señal de vídeo analógica se produce tras convertir los cambios de la intensidad de la luz en señales eléctricas. Estas señales son impresas en materiales fotosensibles como las cintas de vídeo. Las imágenes fijas del vídeo son conocidas como frames. La frecuencia a la que son reproducidas estas imágenes se denomina framerate y viene dado en frames por segundo (fps).
  • 4. Video Analógico La señal de vídeo analógico se consigue a través del muestreo periódico de la información que llega a la cámara. Este proceso es conocido como barrido o scanning. A través de él se obtienen los datos de luminancia y crominancia. La luminancia es la señal que dará la información sobre la intensidad de la luz. La crominancia es la portadora de la información acerca de los colores del objeto. El sistema de vídeo compuesto es el que tiene ambas señales. Su calidad es menor ya que las señales se deterioran con facilidad aunque es el más habitual. En vídeo analógico la calidad de la señal dependerá de la calidad del grabador, del soporte y del reproductor. Esta calidad se reducirá en función del número de veces que sea reproducido.
  • 5. Soportes de Video Analógico Los diferentes soportes de vídeo analógico son muy similares a los de audio analógico. Son cintas electromagnéticas protegidas por una carcasa plástica. El soporte de vídeo analógico más popular es la cinta VHS. También han existido soportes como el Betamax, el U-Matic, el Betacam o el Super 8. La mayor parte de ellos están en desuso.
  • 6. Sistemas de Codificación En vídeo analógico y en vídeo digital existen dos sistemas o normas de codificación y transmisión de señal básicos. Surgen como respuesta a la necesidad de ampliación del sistema de televisión en blanco y negro al entrar la televisión en color.
  • 7. Sistemas de Codificación NTSC El sistema NTSC (siglas de National Televisión System Commitee) surge alrededor de 1940 con la televisión analógica. Este sistema transmite 30 imágenes por segundo. Está compuesto por 525 líneas horizontales aunque sólo 486 son visibles. Cada una de sus líneas tiene 648 píxels. La norma NTSC nos ofrece estas 525 líneas a través de dos campos entrelazados compuestos de 262,5 líneas. Su uso está extendido sobretodo en América del Norte, América Central y Japón. Las televisiones que emiten en NTSC utilizan 6 Mhz de ancho de banda. De esos 6 Mhz sólo 4,25 son útiles. Con esta norma el sonido se emite con modulación de frecuencia y su aspecto de ratio es de 4:3.
  • 8. Sistemas de Codificación PAL PAL son las siglas de Phase Alternating Line. Surge en 1963 como derivado del sistema NTSC usado en América con el fin de optimizarlo. Su principal avance fue la mejora en cuanto a la señal de crominancia. Este avance permitió una imagen de más calidad con lo que se pudieron aumentar las líneas hasta 625. Su tasa de refresco es de 25 imágenes por segundo. Es usado en gran parte de Asia, África y Europa y algunos países de América del sur. Tiene un aspecto de ratio 4:3. Los sistemas PAL y NTSC son totalmente incompatibles entre sí.
  • 9. Sistemas de Codificación SECAM SECAM significa Séquentiel Couleur à Mémoire. Es la norma para la codificación desarrollada y usada en Francia. Es compatible con el sistema PAL ya que tiene el mismo número de líneas y la misma tasa de refresco. Se diferencian por su forma de codificar el color. Es usado, además de en Francia, en la Unión Soviética, en algunos países de la Europa del Este y África.
  • 10. Video digital El vídeo digital convierte la imagen real captada por la cámara en lenguaje binario de 1 y 0. La señal eléctrica que recibe la cámara ya no es plasmada en un soporte electromagnético. En vídeo digital la información en sistema de bits se puede almacenar en discos duros o en soportes digitales.
  • 11. Calidad de la imagen digital Cada imagen del vídeo digital está compuesta de un número concreto de pixels. Los pixels serán, por tanto, la unidad mínima y determinarán la calidad de la imagen digital. Éstos tendrán la información del color y de la disposición de la imagen según su codificación en sistema binario. La resolución de la imagen del vídeo digital se mide en pixels por pulgada o dpi (dots per inch). A mayor resolución mayor calidad de imagen. Los dispositivos de captura han reducido su tamaño considerablemente en comparación con las cámaras analógicas. La calidad del dispositivo digitalizador resulta primordial para obtener una imagen óptima. La digitalización de vídeo está al alcance de cualquiera y puede manipularse y editarse de forma no lineal. Los soportes digitales y los dispositivos de grabación son mucho más baratos y pueden ser de uso doméstico.
  • 12. Bitrate El bitrate o flujo de datos es la cantidad de información por segundo transmitida por una imagen digital. Ésta imagen será de mayor calidad cuanto mayor sea su bitrate. El vídeo digital no pierde calidad en función del número de reproducciones. Los soportes son más pequeños y manejables que los analógicos por lo que su almacenaje es más fácil El bit rate se expresa en kbps
  • 13. De lo análogo a lo digital Los soportes analógicos pueden ser digitalizados. Así se consigue conservar las imágenes durante más tiempo sin que se degraden. Para transformar el vídeo analógico en vídeo digital se necesitan los siguientes dispositivos: 1.- Un ordenador con un procesador, capacidad en el disco duro y memoria ram. Cuanta más rápido sea el procesador y mayor la memoria ram más fácil será la captura y la posterior edición del vídeo digital. La memoria en el disco duro es imprescindible para el almacenaje del vídeo digitalizado.Es muy importante tener configurado el sistema operativo de modo que permita capturar vídeo.
  • 14. De lo análogo a lo digital 3.- Una tarjeta de vídeo. Esta permitirá al ordenador reproducir las imágenes una vez digitalizadas. 4.- Una tarjeta de captura. También son conocidas como sintonizadoras. Existen varios tipos de tarjetas. Las que sólo capturan y también sintonizan tv, las que capturan y ofrecen salida de vídeo y las tarjetas específicas para edición. Los precios entre unas y otras varían considerablemente y los problemas que pueden dar también. Algunas tarjetas de vídeo llevan incorporados los sistemas de captura.
  • 15. De lo análogo a lo digital 5.- Software para captura y edición de vídeo. Son programas específicos que permiten configurar las distintas opciones de captura elegidas por el usuario. El proceso de digitalizar vídeo analógico no está exento de problemas. Se recomienda tener un buen equipo, con suficiente potencia y capacidad, correctamente configurado y preparado. No escatimar en la calidad del software y el hardware minimiza las dificultades, evita problemas y, si valoramos nuestro tiempo, resulta rentable.
  • 16. Tarjetas Gráficas La tarjeta gráfica es también conocida como tarjeta de vídeo o placa de vídeo. Es el hardware indispensable para ver las imágenes del pc en el monitor. Se encarga de convertir las señales eléctricas procedentes del CPU en información gráfica que se reflejará en la pantalla. Las tarjetas de vídeo más simples constan de estos cuatro elementos fundamentales:
  • 17. Tarjetas Gráficas 1.- El microprocesador gráfico: Es el elemento clave de las tarjetas gráficas. Su tarea consiste en ordenar y calcular el valor de cada píxel. Cuanto más potente sea, más rápido actuará y ofrecerá un mejor rendimiento. 2.- Disipador: Las tarjetas gráficas alcanzan una elevada temperatura. El disipador se encarga de reducirla para optimizar su funcionamiento. 3.- Memoria de vídeo: Es la encargada de almacenar la información que podemos ver a través de la pantalla. Cuanto más potente sea nuestra tarjeta gráfica más memoria necesitaremos. 4.- RAMDAC: Es el dispositivo conversor de señal digital en analógica para que pueda ser procesada por el monitor.
  • 18. Modo de video La calidad y potencia de las tarjetas de vídeo vienen dadas por su resolución. La resolución de vídeo es el número de pixels que puede representar por pantalla. La más común en las placas de vídeo estándar (VGA) es 640 x 480, aunque hoy en día ya ha sido ámpliamente superada. La cantidad de colores que pueda reproducir la tarjeta determinará también su calidad. A mayor resolución, mayor número de colores representables. La combinación de estos dos factores se denomina "Modo de vídeo".
  • 19. Soportes de video digital Los vídeos digitales pueden ser almacenados en multitud de soportes. Los medios físicos más habituales suelen ser ópticos. Éstos necesitan un reproductor láser para ser leídos y algunos, poco a poco, van cayendo en desuso. Los soportes de vídeo digital supusieron un gran avance frente a los de vídeo analógico. Esto se debe a que el uso, la reproducción y el paso del tiempo no deterioran la calidad de la imagen.
  • 20. DVD El Digital Video Disc o Digital Versatil Disc (DVD) es el formato óptico más extendido. Fue fabricado por primera vez en 1995 y desarrollado por marcas como Philips, Sony y Panasonic. Los DVD tienen el mismo tamaño que los CD y se convirtieron en los sustitutos del VHS. El DVD necesita un reproductor capaz de decodificar archivos en formato MPEG-2**. También almacenan el audio acompañante al vídeo en formato MPEG y pueden contener más de un canal. Pueden ser de capa simple o de doble capa. Tienen una capacidad estándar de 4,7 GB. La velocidad de transferencia de los datos de un DVD viene dada en múltiplos de 1,35 Mbps. Un DVD con una velocidad 4x transmitirá 5,4 MB/s. **Moving Pictures Experts Group 2
  • 21. Blu-ray El Blu-ray Disc tiene un formato idéntico a los CD y DVD. Su principal diferencia con los DVD es el laser empleado para su lectura. Los reproductores Blue Ray usan un laser azul con una longitud de onda corta. Esto hace que el soporte tenga una mayor capacidad de almacenaje. En sus 25 GB de capacidad puede contener hasta 6 horas de vídeo en alta definición. También existe el Blu-ray Disc de doble capa.
  • 22. Compresión de Video La digitalización de vídeo analógico requiere de mucho espacio donde almacenarlo. La gran cantidad de datos recibidos hace que sea necesaria su compresión para que los archivos tengan tamaños razonables. Para que un vídeo digital resulte fluido necesita alrededor de 25 imágenes por segundo. Si el vídeo no está comprimido estas imágenes ocuparán 1 Mb, aproximadamente. Si nuestro vídeo genera una frecuencia de 30 Mbps necesitaremos una capacidad de 1,5 Gb por minuto.
  • 23. Códecs de video digital Exiten algoritmos de codificación que reducen considerablemente el tamaño de los archivos de vídeo. Esto los hace más manejables y fácilmente almacenables. Son los llamados Códecs. Su nombre deriva de las palabras compresión y descompresión. Al igual que en el sonido digital existen formatos de compresión con pérdida de calidad y sin ella.
  • 24. Compresión inter-frame & intra-frame Compresión Intra-frame: Es conocida también como compresión espacial. Comprime cada uno de los frames de manera individual sin tener en cuenta su relación con las imágenes que le rodean. Se basa en la redundancia espacial y devuelven vídeos con suficiente calidad. El formato por compresión Intra-frame más extendido es el *.avi.
  • 25. Compresión inter-frame & intra-frame Compresión Inter-frame: Este tipo de compresión de vídeo se basa en la similitud temporal entre los distintos cuadros de imagen o frames. Es conocida también como compresión temporal. Los archivos resultantes son de menor tamaño ya que desecha mucha más información. El formato por compresión Inter-frame más extendido es el *.mpeg-2.
  • 26. Video con compresión Intra-frame Los vídeos digitales que se comprimen usando el sistema intra- frame devuelven mucha más calidad que los comprimidos con el sistema inter-frame. A cambio, su tamaño es mucho mayor.
  • 27. Formato AVI AVI son las siglas de Audio Video Interleave. Es el formato más extendido con compresión intra-frame. Fue desarrollado por Microsoft para su sistema operativo Windows en 1992. El *.avi es conocido como un formato contenedor, ya que puede soportar tanto vídeo como audio en cualquier formato. El vídeo y el audio están grabados en distintas capas y se van alternando. Esto es lo que se conoce como "interleave". Los archivos *.avi pueden contener varias pistas de audio. En el reproductor de vídeo se seleccionará uno u otro canal.
  • 28. Formato MOV El formato QuickTime Movie (MOV), creado por Apple en 1991, es multiplataforma y en sus versiones más recientes permite interactuar con películas en 3D y realidad virtual. Contiene las mismas características que el formato AVI. Es nativo de la plataforma MAC (OSX), pero es un formato multiplataforma.
  • 29. Formatos DV DV: Son las siglas de Digital Video. Es un formato estándar de compresión desarrollado por empresas como Panasonic, Sony y JVC. También es conocido como DVC (Digital Video Casette). Tiene una resolución de 720 x 480 para NTSC y 720 x 576 para PAL. El formato DV tiene una frecuencia de transmisión de datos de 25 Mbps. Las pistas de audio son almacenadas sin comprimir. El soporte básico de este formato son las cintas de vídeo de ¼ de pulgada. Su duración máxima de grabación es de 120 min y su velocidad de 18,81 mm. por segundo.
  • 30. Formatos DV
  • 31. Formatos DV DVC Pro Es un tipo de formato desarrollado por Panasonic. Forma parte de una de las variantes del formato DV y su uso suele ser profesional. Su resolución es la misma que el formato DV. La diferencia principal entre ambos formatos es que el DVC Pro añade una pista de audio longitudinal analógica (llamada cue) y otra pista de control. Su soporte básico son las cintas de partículas de metal que duran más que las DV. Tienen una velocidad de 32,82 mm. por segundo y una duración máxima de 184 min.
  • 32. Formatos DV DV Cam Es la variante del formato DV desarrollada por Sony. Comparte con su formato originario su resolución. Se diferencia en el ancho de la pista y en la velocidad de las cintas. Éstas son de partículas de metal evaporado. Su velocidad de grabación es de 28,21 mm. por segundo.
  • 33. Video con compresión Inter-frame El formato de compresión de vídeo digital más extendido es el MPEG. Este formato fue desarrollado por el Moving Picture Experts Group (Grupo de Expertos en Imágenes en Movimiento) para producir patrones estándar de compresión de vídeo y audio. El método utilizado para comprimir la imagen se basa en la similitud de contenidos y utiliza técnicas estadísticas. De esta manera se consigue una reducción de espacio a cambio de una cierta degradación de la imagen (pérdida de calidad) que dependerá de la complejidad de la escena y del algoritmo de compresión utilizado. Desde 1988 hasta la actualidad se han normalizado distintos formatos de compresión:
  • 34. Formatos MPG MPEG-1: Es un formato creado para comprimir un vídeo digital lo suficiente como para caber en un cd-rom. El audio es comprimido en formato mp3. Es el formato más extendido en la red y tiene una resolución limitada a 352 x 240. Su calidad es similar al vídeo VHS y su velocidad de transmisión de datos es de 1,3 Mbps.
  • 35. Formatos MPG MPEG-2 Este estándar fue creado en 1992 y está dedicado a la televisión digital. Ofrece una calidad de imagen muy alta. Su velocidad de transmisión de datos oscila entre los 1.3 y los 10 Mbps. La resolución mayor alcanzada es de 1920 x 1152. Puede tener hasta 5 canales de audio. También es utilizado en los DVD de vídeo. MPEG-3 No llegó a buen término debido a su similitud con el MPEG-2.
  • 36. Formatos MPG MPEG-4 Es utilizado para codificar los datos multimedia. Resulta muy apropiado para los contenidos web. Ofrece muy buena calidad con una compresión mucho mayor que otros formatos. Los Códecs más utilizados con este formato son los DivX. Su resolución es de 176 x 144 pixels. Existen otros formatos MPEG como el MPEG-7 o el MPEG-21 que aún están en desarrollo y que configurarán nuevos estándar.
  • 37. Formatos MPG H.264 o MPEG-4 parte 10 Es una norma que define un códec de vídeo de alta compresión, desarrollada conjuntamente por el ITU-T Video Coding Experts Group (VCEG) y el ISO/IEC Moving Picture Experts Group (MPEG). La intención del proyecto H.264/AVC fue la de crear un estándar capaz de proporcionar una buena calidad de imagen con tasas binarias notablemente inferiores a los estándares previos (MPEG-2, H.263 o MPEG-4 parte 2), además de no incrementar la complejidad de su diseño.
  • 38. Grabación de Video Digital Para grabar vídeo digital necesitamos un dispositivo capaz de capturar imágenes de forma contínua. El sistema de grabación más extendido es la videocámara. Las cámaras de vídeo digitales tienen el mismo sistema de captura que las cámaras de fotos digitales.
  • 39. Consejos a la hora de adquirir una cámara digital A la hora de adquirir una cámara de video digital, tendremos en cuenta una serie de factores primordiales: 1.- El sensor: El sensor de imagen es un chip electrónico fotosensible. Capta la luz y la codifica a través del sistema de bits en una señal eléctrica. Está compuesto por filas y columnas que conforman pequeñas celdas. Cada una de esas celdas equivale a un pixel. El tamaño y la calidad del sensor determinan la calidad y tamaño de la imagen. Existen varios tipos de sensores como el CCD o el CMOS.
  • 40. Consejos a la hora de adquirir una cámara digital 2.- El formato: Las cámaras pueden tener un formato de grabación estándar o grabar en alta definición (HD o High Definition). El formato estándar va cayendo poco a poco en desuso. Tiene una dimensión aproximada de 720 x 440 con un ratio de 4:3. El HD graba a 1280 x 780 y con una proporción de 16:9. También pueden tener un formato full HD que es la máxima resolución posible. Su tamaño es de 1920 x 1080 pixels.
  • 41. Consejos a la hora de adquirir una cámara digital 3.- El sistema de grabación: Las cámaras digitales que graban en cintas tienden a desaparecer. Las cámaras de vídeo actuales suelen incorporar un disco duro para almacenar las imágenes. También existen cámaras que graban en tarjetas de memoria, en pendrives o en soportes como los dvd y mini-dvd. En la actualidad se puede grabar vídeo con otros tipos de aparatos que lleven un sistema de grabación incorporado. Los ejemplos más comunes son algunos teléfonos móviles o cámaras de fotos. Éstas últimas han alcanzado una calidad de imagen igual o superior a la que ofrecen muchas videocámaras.
  • 42. Videoproducción 5º semestre LCI LCMM E. Vladimir Guerrero Cortés evguerrero@correo.uaa.mx