Digitalización de señal de video analógica y sus bloques de procesamiento

Clasificado en Informática

Escrito el en español con un tamaño de 5,45 KB

Digitalización de señal de video analógica

Las 3 señales YUV se digitalizan mediante el muestreo. Recordando como en audio y según el teorema de muestreo de Nyquist-Shannon, para poder replicar con exactitud (es decir, siendo matemáticamente reversible en su totalidad) la forma de una onda es necesario que la frecuencia de muestreo sea superior al doble de la máxima frecuencia. En audio ese superior al doble de 20.000Hz se traduce en 44.100Hz. Sin embargo en la señal de video la frecuencia de muestreo tiene que ser igual al número de píxeles por segundo: Para 625 líneas tenemos 833 columnas. En un segundo para 50 cuadros tenemos una frecuencia de señal de video de (833/2)x625x50=13Mhz. Por tanto muestreamos la señal Y a 13,5Mhz con 8 bits por muestra y suponen 108Mbit/s. Para resolución de 1920(columnas)x 1080(líneas) el número de píxeles en una pantalla es (1920/2)x1080=1.036.800 pero en un segundo hará, suponiendo a 60 pantallas (60Hz), 1.036.800x60=62208000Hz=62,2Mhz. La resolución de 1920x1080 es realmente de 2200x1125 que nos dará una velocidad de muestreo de 74,25Mhz para 60Hz que suponen 594Mbit/s para transmitir una señal. Para transmitir las 3 señales YUV necesitaremos una velocidad de transmisión de 594x3=1782Mbit/s=1,8Gbit/s o dividiendo entre 8 serán 1,8/8= 0,225Gbytes/s = 225MB/s (movistar nos da 300MBytes/s). Como se observa, transmitir video YUV al 100% requiere una velocidad alta de internet. Una cámara digital es capaz de identificar la intensidad en los tres colores primarios, lo que se denomina por sus siglas en ingles RGB, o rojo, verde y azul. Sin embargo, no es así como se envía por aquello de hacer compatible la señal con sistemas de recepción en blanco y negro. Además, si rellenamos un píxel con RGB NO PODREMOS PRECINDIR de ninguno de ellos para obtener un color dado. Sin embargo si rellenamos un píxel con YUV y dado que nuestro sistema visual está diseñado de tal manera que notamos mejor las variaciones en luminancia que en las otras dos componentes podemos prescindir en algunos pixeles de U o de V logrando El color de un pixel se codifica según tres parámetros que son su luminancia, que la puedes ver como la intensidad, y dos componentes llamadas U yV donde estas dos últimas añaden la información del color. Y=0,299R+0,587G+0,114B (U=B-Y V=R-Y) No enviar toda la información de color de cada uno de los pixeles es una técnica que se llama submuestreo de color o chroma subsampling Los tipos de submuestreo de color se identifican con tres números que encontraras separados por dos puntos. Los que más nos interesan en el mundo de la televisión son los siguientes:

  • 4:4:4. No existe ningún tipo de compresión, al menos en el apartado cromático. Es usado solamente en las tarjetas gráficas de los ordenadores. Debido al tamaño que ocupa, no es un formato que se utilice para la grabación ni para la transmisión.
  • 4:2:2. Esto indica que por cada cuatro píxeles se utilizan cuatro bytes para la luminancia y dos para la componente U y dos para la V. Esto se hace horizontalmente, es decir en píxeles que estén unos pegados al otro. De esta sencilla forma comprimimos la cantidad de información en 1.5. Se utiliza en algunas cámaras de video.
  • 4:2:0. Es el más común. Usado en DVD, Blu Ray, en la TDT normal y en la HD. En este caso tenemos los mismos cuatro bytes por cada cuatro píxeles para la luminancia, dos para la componente U y otros dos para la V, pero además está última información solo se añade cada dos líneas. Es decir, por cada ocho píxeles sólo habrá cuatro bytes de información de color en vez de los dieciséis que encontrarías si la codificación fuera 4:4:4. Es decir pasamos de 24 a 12, comprimimos la información a la mitad, si tenemos en cuenta el color y la luminancia.

BLOQUES DEL PROCESO DE DIGITALIZACIÓN Una vez muestreada la señal en cualquiera de los sistemas 4:4:4 etc se procede a dos tipos de procesados de la señal:

  1. CODIFICACIÓN DE LA FUENTE -Es el proceso de COMPRESIÓN de señal de video (y audio) en formatos MPEG etc y MULTIPLEXACIÓN para el envío de las señales de video y audio. Esto se resume en un Bloque o placa de circuito de CODIFICACIÓN MPEG Y MULTIPLEXACIÓN que se reconoce por sus componentes siguiendo el esquema del fabricante o basándonos en el sistema de Normalización de los componentes electrónicos: - Sistema proelectron. - Sistema JEDEC. - Sistema JIS.
  2. CODIFICACIÓN DEL CANAL Es el proceso de inserción de bits para la detección de errores y de la modulación de la señal si hay que emitirla por el aire. Este tratamiento de la señal se conoce como el proceso DVB (Digital Video Broadcasting) que consiste en introducir por tanto dos cuestiones a la señal ya comprimida: - Algoritmos de detección de errores del tipo Viterbi y Reed Solomon (codificación del canal) - Modulación de la señal COFDM (Coded Orthogonal Frequency Division Multiplexing, Multiplexación por División de Frecuencia Ortogonal Codificada) para televisión digital terrestre por aire. Esto se resume en un Bloque o placa de circuito de CODIFICACIÓN DEL CANAL Y OTRO BLOQUE DE MODULACIÓN DIGITAL que se reconoce por sus componentes siguiendo el esquema del fabricante o basándonos en el sistema de Normalización de los componentes electrónicos: - Sistema proelectron. - Sistema JEDEC. - Sistema JIS.

Entradas relacionadas: