Empezando por el sensor de luz ¿Cómo nace una foto?

0
0

¿De qué vamos a hablar hoy? Ni más ni menos hoy vamos a ver, paso a paso, cómo es el proceso para pasar de la información que llega al sensor de luz (o sensor CMOS) de la cámara (ya sea réflex o de tu móvil) a una foto.

Lo primero es recordar nuestro magnífico diagrama simplificado de cómo es una cámara por dentro.

Diagrama simplificado de una cámara donde la luz entra por el objetivo, rebota en los espejos y llega al visor
Diagrama simplificado de una cámara

Ahi podemos ver el sistema de espejos, el obturador y el sensor de luz de la cámara. Cuando se va a hacer una foto, el espejo inferior se mueve para dejar pasar la luz, el obturador se abre durante un tiempo determinado y el sensor capta la luz hasta que el obturador se cierra, el espejo se vuelve a mover y todo vuelve a su estado original, pero… hay otro proceso más.

Además de todo eso, la cámara tiene que pasar la información recogida por el sensor de luz a una foto. Veamos cómo!

Lo primero… la luz

No vamos a extendernos en explicar lo que es la luz, de qué está compuesta ni de su dualidad onda-corpúsculo. Solo vamos a comentar muy brevemente que, a modo de simplificación, la luz está compuesta por una serie de partículas llamadas fotones.

La luz, además, puede ser de muchos colores, eso es evidente. Cuando nosotros vemos un objeto rojo, lo que estamos viendo, en realidad, es un objeto que absorbe todas las longitudes de onda de todos los colores excepto la del rojo, que la rebota y es la que vemos.

Como veremos ahora, los sensores de las cámaras se basan en esta naturaleza de la luz para funcionar.

Recogiendo información en el sensor de luz

Un sensor de luz de una cámara se basa en «recoger» las partículas que emite la luz y, midiendo qué cantidad de partículas ha recogido, lo traduce a un color y con eso genera la foto. Todo sea dicho, esto es una manera terriblemente simple de explicar el proceso.

El sensor está compuesto por una serie de «cajitas» en las que se recogen los fotones. Estas cajas se llaman fotodiodos. Cada fotodiodo se corresponde con un píxel de la cámara, por eso cuando en alguna ocasión hemos hablado del sensor, o de los píxeles físicos, se corresponde justamente con esto, con los fotodiodos.

Si un sensor tiene unos fotodiodos más grandes, será capaz de recoger más luz en el mismo tiempo de exposición.

Un sensor podría verse como algo similar a lo siguiente:

Malla de fotodiodos en el sensor de luz
Malla de fotodiodos / Cambride in Colour
Fotodiodos recogiendo fotones sin discriminación de color
Esquema de funcionamiento de un fotodiodo / Cambridge in Colour

Pero si eso fuese así, el sensor solo podría producir imágenes en blanco y negro. Porque el color de cada píxel tendría que tener el mismo valor en los tres canales, lo que da lugar siempre a un gris.

Para solucionar esto, lo que se hace es restringir cada fotodiodo a un color entre rojo, verde y azul (RGB). De ese modo, los fotodiodos serían algo así:

Fotodiodos con un filtro de color RGB
Fotodiodos con filtro de color / Cambridge in Colour

De esta forma ya se puede separar, en cada fotodiodo, el color básico pero… si hemos dicho que cada fotodiodo del sensor de luz se corresponde con un píxel de la foto… cada píxel solo podría ser rojo, verde o azul, sin matices, dando lugar a algo similar a la siguiente imagen:

Imagen formada por píxeles RGB tal y como lo vería el sensor de luz
Una foto vista como la «ve» el sensor / Cambridge in Colour

Por eso, lo que se hace es colocar los fotodiodios en una disposición concreta, una fila alterna verde y azul, la siguiente verde y rojo, la siguente verde y azul… Lo que se vería más o menos así:

Mosaico o filtro de Bayer
Distribución de color en un mosaico o filtro de Bayer

Si te has fijado, verás que hay el doble de verde que de cualquier otro color. Esto es intencionado, pues el ojo humano es más sensible a los verdes. Distribuyendo los colores así se obtienen imágenes más nítidas y con menos ruido para el ojo humano.

Pasando píxeles de un color a una foto real

Ahora… ¿cómo hacemos para conseguir que la foto pasa de tener cada píxel rojo, verde o azul a tener una foto con colores reales tal y como la hemos tomado? Para esto se usa lo que se llama un proceso de interpolación cromática.

Aunque el nombre parezca complicado, no es más que «deducir» el color final en base a los 3 primarios. Para poder hacer esto lo que se hace es agrupar los fotodiodos en cuadrados de 2×2 y tomar eso como un píxel. Ejemplo:

Filtro de bayer de 4 por 4 con grupos de fotodiodos de 2 por 2
Agrupación de fotodiodos para interpolación cromática / Cambridge in Colour

Como puedes ver, cada píxel final está formado por 4 píxeles físicos (fotodiodos), lo cual resulta en que la imagen final va a tener la mitad de resolución que el sensor. Si el sensor tiene 4 píxeles de ancho y 4 de alto, cuando agrupes en cuadrados de 2×2, la foto final tendrá 2×2 píxeles.

Para evitar esto, lo que se hace es superponer los grupos de 2×2 entre sí. Por ejemplo:

Superposición de grupo de fotodiodos para obtener mayor resolución
Superposición de grupo de fotodiodos en un filtro de Bayer / Cambridge in Colour

Como ves, aquí se hacen 9 grupos, superponiéndolos entre sí, para dar lugar a 9 píxeles en la imagen final. Si el sensor siguiese extendiéndose a lo ancho y largo, el proceso sería el mismo. El único problema se encontraría en los extremos, en los que no hay información suficiente para interpolar el color. En estos casos una solución sería descartar la fila izquierda, derecha, superior e inferior, que no supondrá ningún problema en un sensor que tiene millones de píxeles.

Algunos problemas de la interpolación

La interpolación cromática es un proceso en el que, al fin y al cabo, estás cogiendo una señal continua (que sería la luz) y la estás muestreando a unos valores discretos. Esto trae un problema asociado y es que, cuando los detalles de la foto son más pequeños o están cerca del límite de resolución del sensor, se producen efectos extraños.

Camisa con efecto Moiré
Efecto Moiré en una camisa

Este es uno de los ejemplos más comunes. El llamado efecto Moiré. Es muy típico en fotos con patrones de rayas o puntos muy juntos. La cámara no es capaz de reconstruir la señal de manera exacta y se dan formas extrañas e incluso colores nuevos que no existían en la imagen original.

Como esto es una consecuencia directa del muestreo de señales, algunas soluciones que se han intentado tomar pasan, por ejemplo, por poner una malla encima del sensor que «filtra» todo lo que sea más pequeño que la resolución mínima del sensor, evitando el efecto, pero dando lugar a imágenes algo «borrosas».

Mejorando el sensor de luz

Como te prodrás imaginar, los sensores de luz han ido mejorando continuamente a lo largo del tiempo para captar más luz, para mejorar la precisión etc. En realidad, un sensor no está formado por los fotodiodos únicamente, sino que necesita dejar espacio a otros componentes.

Uno de esos componentes son las «microlentes». El sensor tiene una malla de estas microlentes, colocadas de manera específica para captar más luz y que se pierdan los menores fotones posibles.

Microlentes colocadas entre los fotodiodos para dirigir y captar más fotones
Microlentes dispuestas en la malla del sensor

En la imagen se pueden ver la microlentes entre cada fotodiodo. Como ves, en la parte izquierda la lente triangular dirige la luz o bien a la derecha o bien a la izquierda, pero siempre a un fotodiodo. En la parte derecha, sin embargo, al no haber lente, el fotón rebota en el «borde» que no tiene lente y se pierde.

Han sido estas y otras mejoras las que se han introducido en los sensores para mejorar la resolución y nitidez de las fotos, y conseguir resultados con menos ruido.

Pues hasta aquí la entrada de hoy, espero que te haya gustado, que te haya servido y no olvides dejar un comentario diciéndome qué te ha parecido!! Hasta la próxima.

Dejar respuesta

Escribe un comentario
Introduce tu nombre aquí

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.