Fundamentos de Procesamiento Digital de Imágenes: Sensores, Visión Humana y Transformaciones
Clasificado en Plástica y Educación Artística
Escrito el en
español con un tamaño de 5,63 KB
Fundamentos Esenciales del Procesamiento Digital de Imágenes
I. Sensores de Captura de Imagen
El procesamiento de imágenes se basa en sistemas que emulan o superan la capacidad del sistema visual humano. Los sensores principales incluyen:
- Retina (Sistema Visual Humano)
- CCD (Charge-Coupled Device): Conjunto de sensores bidimensionales que convierten la luz en electrones. Ofrecen señal de alta calidad y bajo nivel de ruido tras la conversión analógica a digital (A/D).
- CMOS (Complementary Metal-Oxide-Semiconductor): Utiliza múltiples transistores en cada píxel. La señal digital resultante puede ser más susceptible al ruido que la generada por CCD.
II. La Visión Humana como Referente
El ojo humano posee células fotorreceptoras especializadas:
- Conos: Responsables de la visión en color (RGB). Se concentran en mayor número en el centro de la fóvea retiniana.
- Bastones (Cañas): Procesan el brillo y la visión monocromática. Se ubican en la periferia de la retina y son aproximadamente 100 veces más sensibles a la luz que los conos.
III. Etapas del Procesamiento Digital de Imágenes
El flujo de trabajo típico en el procesamiento de imágenes consta de los siguientes pasos secuenciales:
- Adquisición: Captura de la imagen (mediante cámara, escáner, etc.).
- Pre-procesamiento: Corrección de imperfecciones (ajuste de brillo, contraste, etc.).
- Segmentación: Separación de los objetos de interés del fondo.
- Extracción de Características: Obtención de información relevante (ej. extracción de texto, formas).
- Reconocimiento e Interpretación: Asignación de significado a las características extraídas.
IV. Propiedades y Representación de la Imagen Digital
A. Digitalización de la Imagen
- Muestreo: División de la imagen analógica en un número finito de elementos discretos llamados píxeles.
- Cuantificación (o Cuantificación de Intensidad): Definición del número de niveles utilizados para representar la intensidad de cada píxel (ej. 256 niveles, 16, 8, etc.).
- Función Discreta: La intensidad luminosa se representa mediante un valor entero no negativo.
- Representación: La imagen se almacena como una matriz bidimensional, donde cada elemento corresponde a un píxel.
B. Imagen Analógica vs. Digital
La imagen analógica se caracteriza por tener valores continuos (representando la luz), mientras que la imagen digital se compone de valores discretos.
V. Operaciones a Nivel de Píxel (Operaciones Puntuales)
Las operaciones puntuales se realizan de forma independiente para cada píxel de la imagen, optimizando el tiempo de procesamiento.
A. Operaciones Fundamentales
- Aritméticas y Lógicas: Las más utilizadas para manipular valores de píxeles.
- Identidad: Simplemente copia la imagen original.
- Negativo: Genera la imagen negativa (inversión de intensidad).
- LOG (Logaritmo): Se utiliza para ajustar el contraste de manera suave.
- Potencia: Permite modificar el contraste general de la imagen.
- Gamma: Realiza un ajuste fino de los niveles de gris mediante una transformación que modifica el valor de luminancia de la imagen.
VI. Características Estructurales y Conectividad
A. Vecindad y Conectividad
- Barrio (Vecindad): Se define por los píxeles adyacentes (ej. N4, N8).
- Conectividad: Describe cómo se relacionan los píxeles vecinos (ej. 4 conectados, 8 conectados).
B. Distancias entre Píxeles
Se utilizan diversas métricas para calcular la separación entre píxeles:
- Distancia de Euclides.
- Distancia de la ciudad (Manhattan o Bloque).
- Distancia de tablero de ajedrez.
VII. Filtrado y Transformadas en el Dominio Espacial y Frecuencial
A. Filtros Digitales (Dominio Espacial)
Las técnicas de convolución se aplican píxel por píxel para modificar la imagen:
- Filtro de paso bajo (suavizado).
- Filtro de paso alto (realce de detalles).
B. Filtros de Detección de Bordes
Estos filtros se basan en la derivada de la imagen para identificar cambios bruscos de intensidad:
- Gradiente.
- Laplaciano.
- Detector de bordes de Sobel.
C. Filtros en el Dominio de la Frecuencia
Implican la conversión de la imagen del dominio espacial al dominio de la frecuencia mediante la transformada:
- Transformada de Fourier: Permite la conversión de tiempo (espacio) a frecuencia.
- Implementación: DFT (Discrete Fourier Transform) y FFT (Fast Fourier Transform).
VIII. Sistemas de Coordenadas
Para la localización y manipulación espacial, se definen varios sistemas de referencia:
- SRD (Sistema de Referencia del Dispositivo): Coordenadas intrínsecas del sensor o dispositivo de captura.
- SRU (Sistema de Referencia del Universo): Coordenadas globales o del mundo real.
- SRO (Sistema de Referencia de Objeto): Coordenadas relativas a un objeto específico dentro de la escena.