SENSORES DE CÁMARAS DIGITALES

Una cámara digital utiliza una serie de millones de diminutas cavidades de luz o "fotositos" para grabar una imagen. Cuando presiona el botón del obturador de su cámara y comienza la exposición, cada uno de estos se descubre para recolectar fotones y almacenarlos como una señal eléctrica. Una vez que finaliza la exposición, la cámara cierra cada uno de estos fotositos y luego intenta evaluar cuántos fotones cayeron en cada cavidad midiendo la fuerza de la señal eléctrica. A continuación, las señales se cuantifican como valores digitales, con una precisión determinada por la profundidad de bits. La precisión resultante puede volver a reducirse según el formato de archivo que se esté grabando (0 - 255 para un archivo JPEG de 8 bits).

Array de cavidades Cavidades ligeras

Sin embargo, la ilustración anterior solo crearía imágenes en escala de grises, ya que estas cavidades no pueden distinguir cuánto tienen de cada color. Para capturar imágenes en color, se debe colocar un filtro sobre cada cavidad que permita solo colores de luz particulares. Prácticamente todas las cámaras digitales actuales solo pueden capturar uno de los tres colores primarios en cada cavidad, por lo que descartan aproximadamente 2/3 de la luz entrante. Como resultado, la cámara tiene que aproximarse a los otros dos colores primarios para tener todo el color en cada píxel. El tipo más común de matriz de filtros de color se denomina "matriz de Bayer", que se muestra a continuación.

Matriz de filtros de color Sitios de fotos con filtros de color

Una matriz de Bayer consta de filas alternas de filtros rojo-verde y verde-azul. Observe cómo la matriz de Bayer contiene el doble de sensores verdes que rojos o azules. Cada color primario no recibe una fracción igual del área total porque el ojo humano es más sensible a la luz verde que a la luz roja y azul. La redundancia con píxeles verdes produce una imagen que parece menos ruidosa y tiene un detalle más fino que el que se podría lograr si cada color se tratara por igual. Esto también explica por qué el ruido en el canal verde es mucho menor que en los otros dos colores primarios (consulte "Comprensión del ruido de la imagen" para ver un ejemplo).

Escena original
(mostrada al 200 %) Lo que ve su cámara
(a través de una matriz de Bayer)

Nota:no todas las cámaras digitales utilizan una matriz de Bayer; sin embargo, esta es, con mucho, la configuración más común. Por ejemplo, el sensor Foveon captura los tres colores en cada ubicación de píxel, mientras que otros sensores pueden capturar cuatro colores en una matriz similar:rojo, verde, azul y verde esmeralda.

DEMOSTRACIÓN DE BAYER

El "desmosaicing" de Bayer es el proceso de traducir esta matriz de colores primarios de Bayer en una imagen final que contiene información a todo color en cada píxel. ¿Cómo es esto posible si la cámara no puede medir directamente a todo color? Una forma de entender esto es pensar en cada matriz de 2x2 de rojo, verde y azul como una única cavidad a todo color.

Esto funcionaría bien, sin embargo, la mayoría de las cámaras toman medidas adicionales para extraer aún más información de imagen de esta matriz de colores. Si la cámara tratara todos los colores en cada matriz de 2x2 como si hubieran aterrizado en el mismo lugar, solo podría lograr la mitad de la resolución en las direcciones horizontal y vertical. Por otro lado, si una cámara calcula el color utilizando varias matrices de 2x2 superpuestas, podría lograr una resolución más alta que la que sería posible con un solo conjunto de matrices de 2x2. La siguiente combinación de matrices superpuestas de 2x2 podría usarse para extraer más información de la imagen.

Observe cómo no calculamos la información de la imagen en los bordes mismos de la matriz, ya que asumimos que la imagen continuaba en cada dirección. Si estos fueran realmente los bordes de la matriz de cavidades, los cálculos aquí serían menos precisos, ya que ya no hay píxeles en todos los lados. Sin embargo, esto suele ser insignificante, ya que la información en los bordes de una imagen se puede recortar fácilmente para cámaras con millones de píxeles.

Existen otros algoritmos de demostración que pueden extraer un poco más de resolución, producir imágenes con menos ruido o adaptarse para aproximarse mejor a la imagen en cada ubicación.

ARTEFACTOS DE DEMOSAICACIÓN

Las imágenes con detalles a pequeña escala cerca del límite de resolución del sensor digital a veces pueden engañar al algoritmo de demostración y producir un resultado que parece poco realista. El artefacto más común es el muaré (pronunciado "more-ay"), que puede aparecer como patrones repetidos, artefactos de color o píxeles dispuestos en un patrón similar a un laberinto poco realista:


Segunda foto con ↓ 65 % del tamaño anterior

Arriba se muestran dos fotos separadas, cada una con un aumento diferente. Tenga en cuenta la aparición de muaré en los cuatro cuadrados inferiores, además del tercer cuadrado de la primera foto (sutil). Tanto los artefactos en forma de laberinto como los de color se pueden ver en el tercer cuadrado de la versión reducida. Estos artefactos dependen tanto del tipo de textura como del software utilizado para desarrollar el archivo RAW de la cámara digital.

Sin embargo, incluso con un sensor teóricamente perfecto que podría capturar y distinguir todos los colores en cada sitio de fotos, aún podrían aparecer muaré y otros artefactos. Esta es una consecuencia inevitable de cualquier sistema que muestree una señal continua en intervalos o ubicaciones discretas. Por esta razón, prácticamente todos los sensores digitales fotográficos incorporan algo llamado filtro óptico de paso bajo (OLPF) o filtro anti-aliasing (AA). Por lo general, es una capa delgada directamente en frente del sensor y funciona al difuminar de manera efectiva cualquier detalle potencialmente problemático que sea más fino que la resolución del sensor.

ARRAYS DE MICROLENAS

Quizás se pregunte por qué el primer diagrama de este tutorial no colocó cada cavidad directamente una al lado de la otra. Los sensores de cámara del mundo real en realidad no tienen fotositos que cubran toda la superficie del sensor. De hecho, pueden cubrir solo la mitad del área total para acomodar otros dispositivos electrónicos. Cada cavidad se muestra con pequeños picos entre ellos para dirigir los fotones a una u otra cavidad. Las cámaras digitales contienen "microlentes" sobre cada sitio de fotos para mejorar su capacidad de captación de luz. Estas lentes son análogas a los embudos que dirigen los fotones al fotosito donde, de otro modo, los fotones no se habrían utilizado.

Las microlentes bien diseñadas pueden mejorar la señal de fotones en cada sitio de fotos y, posteriormente, crear imágenes con menos ruido durante el mismo tiempo de exposición. Los fabricantes de cámaras han podido usar mejoras en el diseño de microlentes para reducir o mantener el ruido en las últimas cámaras de alta resolución, a pesar de tener fotositos más pequeños, debido a que se comprimen más megapíxeles en la misma área del sensor.

Para obtener más información sobre los sensores de las cámaras digitales, visite:
Tamaños de los sensores de las cámaras digitales:¿cómo influyen en la fotografía?