Fundamentos de la Señal de Vídeo: Estándares, Tipos y Proceso de Digitalización

Clasificado en Informática

Escrito el en español con un tamaño de 7,99 KB

Señal Portadora: Estándares NTSC y PAL

La señal portadora es fundamental en la transmisión de vídeo. Existen diversos estándares, siendo los más conocidos NTSC (National Television System Committee) y PAL (Phase Alternating Line).

Tipos de Señales de Vídeo

Señal RGB

La señal RGB (Rojo, Verde, Azul) es una señal sin compresión. Representa la forma ideal para la emisión de vídeo, ya que contiene toda la información de color de manera directa. Sin embargo, su principal inconveniente es la gran cantidad de información que maneja, lo que dificulta su transmisión y emisión directa sin medios de gran capacidad.

Señal Compuesta (CVBS)

Aunque es posible capturar la señal RGB con cámaras y otros dispositivos, la gran cantidad de información que contiene necesita ser comprimida para su transmisión. Así se crea la señal compuesta (a menudo referida como CVBS: Color, Video, Blanking, and Sync). Según las Leyes de Grassmann sobre la mezcla de colores, es posible obtener toda la gama cromática a partir de tres componentes derivados de la señal RGB:

  • Y: Componente de luminancia (información de brillo).
  • R-Y: Componente de diferencia de color rojo (una de las señales de crominancia).
  • B-Y: Componente de diferencia de color azul (la otra señal de crominancia).

En la señal compuesta, toda esta información (luminancia y las dos señales de diferencia de color moduladas en una subportadora de color) se combina en una única señal.

Señal por Componentes

En la señal por componentes, la información de color (crominancia) y la información de luminancia se graban y transmiten en pistas o canales separados. Un ejemplo común es YPbPr para vídeo analógico o YCbCr para vídeo digital. Este método ofrece mejor calidad que la señal compuesta, pero en el ámbito analógico, su uso fue limitado inicialmente porque ocupaba más ancho de banda o espacio de almacenamiento en comparación con la señal compuesta.

Digitalización de la Señal de Vídeo

Para convertir una señal de vídeo analógica en digital, se siguen tres fases fundamentales:

1. Muestreo

El muestreo consiste en tomar muestras (samples) de la señal analógica a intervalos regulares de tiempo. La fidelidad del muestreo aumenta cuantas más muestras se tomen por segundo (frecuencia de muestreo). Este proceso se rige por el Teorema de Nyquist-Shannon, que establece que la frecuencia de muestreo debe ser, como mínimo, el doble de la frecuencia máxima del ancho de banda de la señal original para evitar la pérdida de información por un fenómeno conocido como aliasing.

2. Cuantificación

La cuantificación es el proceso de asignar un valor numérico discreto, de un conjunto finito de niveles, a cada una de las muestras obtenidas en la fase anterior. Cuanto mayor sea el número de bits utilizados para representar cada muestra (profundidad de bits), mayor será la fidelidad de la señal digital resultante con respecto a la señal analógica original, ya que se podrán representar más niveles de amplitud, reduciendo el error de cuantificación.

3. Codificación

La codificación implica la aplicación de algoritmos para representar la información digitalizada de una forma más eficiente, a menudo mediante compresión de datos. El objetivo es reducir la cantidad de datos para facilitar su almacenamiento o transmisión. Esta compresión puede ser:

  • Sin pérdida (Lossless): Permite reconstruir la señal original exactamente bit a bit, pero con tasas de compresión generalmente menores.
  • Con pérdida (Lossy): Elimina cierta información considerada menos perceptible para el sistema visual humano, logrando mayores tasas de compresión. Sin embargo, esta información eliminada no se puede recuperar, lo que puede afectar la calidad si la compresión es muy alta.

Durante la codificación, también se pueden introducir datos de redundancia (por ejemplo, mediante códigos de corrección de errores o FEC - Forward Error Correction) para ayudar a detectar y regenerar la señal en caso de errores durante la transmisión o el almacenamiento. Técnicas como el entrelazado de datos (barajado o interleaving) se utilizan para distribuir los bits de datos de manera que los errores en ráfaga (errores consecutivos) se dispersen y sean más fáciles de corregir por los códigos FEC. La "deducción" mencionada en el texto original podría referirse a procesos de inferencia, interpolación o extrapolación utilizados por algoritmos de corrección de errores o para la reconstrucción (ocultación de errores) de datos dañados, basándose en la información adyacente o en los códigos de redundancia.

Estructura Detallada de la Señal de Vídeo Analógica

La señal de vídeo analógica está compuesta por varias partes distintivas que aseguran la correcta transmisión y visualización de la imagen. Estas son:

  1. Pico de blanco: También conocido como pico de modulación, representa el nivel máximo de la señal correspondiente al blanco más brillante en la imagen.
  2. Pico de negro: Nivel de la señal que corresponde al negro más profundo en la imagen.
  3. Salva de color (Color Burst): Una ráfaga de la subportadora de color (una señal sinusoidal de frecuencia específica) que se añade a la señal durante el pórtico posterior de cada línea. Es esencial para que el receptor pueda sincronizar y decodificar correctamente la información de color. Asegura que la imagen se reproduzca con los colores correctos.
  4. Pórtico anterior (Front Porch): Intervalo de tiempo entre el final de la información de imagen activa de una línea y el inicio del impulso de sincronismo horizontal.
  5. Impulso de sincronismo horizontal (HSync): Pulso que indica el final de una línea de barrido y el inicio del retorno horizontal (retrace) del haz de electrones para comenzar la siguiente línea.
  6. Pórtico posterior (Back Porch): Intervalo de tiempo entre el final del impulso de sincronismo horizontal y el inicio de la información de imagen activa de la siguiente línea. Es donde se ubica la salva de color.
  7. Nivel de sincronismos: Nivel de voltaje de los impulsos de sincronización, que es inferior al nivel de negro (más negativo o de menor amplitud).
  8. Nivel de negro: Nivel de referencia para las partes más oscuras de la imagen.
  9. Pedestal (Setup Level): En algunos estándares como NTSC, es una pequeña elevación del nivel de negro por encima del nivel de borrado (blanking level). Esto asegura una clara distinción entre la información de imagen y los pulsos de sincronismo, evitando que el negro absoluto se confunda con el nivel de borrado.
  10. Negro de referencia: El nivel específico de la señal que se define como negro para la imagen.
  11. Blanco de referencia: El nivel específico de la señal que se define como blanco para la imagen.

La información de imagen (vídeo activo) se suprime temporalmente (borrado o blanking) al final de cada línea (durante el intervalo de borrado horizontal, que incluye el pórtico anterior, el pulso HSync y el pórtico posterior) y al final de cada campo o cuadro (durante el intervalo de borrado vertical). Durante estos intervalos de borrado, se insertan los impulsos de sincronización (horizontales y verticales) que son cruciales para asegurar el correcto barrido de la imagen tanto en el sensor de la cámara (captura) como en el cinescopio o pantalla (reproducción).

Entradas relacionadas: