¿De qué vamos a hablar hoy? Ni más ni menos hoy vamos a ver, paso a paso, cómo es el proceso para pasar de la información que llega al sensor de luz (o sensor CMOS) de la cámara (ya sea réflex o de tu móvil) a una foto.
Lo primero es recordar nuestro magnífico diagrama simplificado de cómo es una cámara por dentro.

Ahi podemos ver el sistema de espejos, el obturador y el sensor de luz de la cámara. Cuando se va a hacer una foto, el espejo inferior se mueve para dejar pasar la luz, el obturador se abre durante un tiempo determinado y el sensor capta la luz hasta que el obturador se cierra, el espejo se vuelve a mover y todo vuelve a su estado original, pero… hay otro proceso más.
Además de todo eso, la cámara tiene que pasar la información recogida por el sensor de luz a una foto. Veamos cómo!
Lo primero… la luz
No vamos a extendernos en explicar lo que es la luz, de qué está compuesta ni de su dualidad onda-corpúsculo. Solo vamos a comentar muy brevemente que, a modo de simplificación, la luz está compuesta por una serie de partículas llamadas fotones.
La luz, además, puede ser de muchos colores, eso es evidente. Cuando nosotros vemos un objeto rojo, lo que estamos viendo, en realidad, es un objeto que absorbe todas las longitudes de onda de todos los colores excepto la del rojo, que la rebota y es la que vemos.
Como veremos ahora, los sensores de las cámaras se basan en esta naturaleza de la luz para funcionar.
Recogiendo información en el sensor de luz
Un sensor de luz de una cámara se basa en «recoger» las partículas que emite la luz y, midiendo qué cantidad de partículas ha recogido, lo traduce a un color y con eso genera la foto. Todo sea dicho, esto es una manera terriblemente simple de explicar el proceso.
El sensor está compuesto por una serie de «cajitas» en las que se recogen los fotones. Estas cajas se llaman fotodiodos. Cada fotodiodo se corresponde con un píxel de la cámara, por eso cuando en alguna ocasión hemos hablado del sensor, o de los píxeles físicos, se corresponde justamente con esto, con los fotodiodos.
Si un sensor tiene unos fotodiodos más grandes, será capaz de recoger más luz en el mismo tiempo de exposición.
Un sensor podría verse como algo similar a lo siguiente:


Pero si eso fuese así, el sensor solo podría producir imágenes en blanco y negro. Porque el color de cada píxel tendría que tener el mismo valor en los tres canales, lo que da lugar siempre a un gris.
Para solucionar esto, lo que se hace es restringir cada fotodiodo a un color entre rojo, verde y azul (RGB). De ese modo, los fotodiodos serían algo así:

De esta forma ya se puede separar, en cada fotodiodo, el color básico pero… si hemos dicho que cada fotodiodo del sensor de luz se corresponde con un píxel de la foto… cada píxel solo podría ser rojo, verde o azul, sin matices, dando lugar a algo similar a la siguiente imagen:

Por eso, lo que se hace es colocar los fotodiodios en una disposición concreta, una fila alterna verde y azul, la siguiente verde y rojo, la siguente verde y azul… Lo que se vería más o menos así:

Si te has fijado, verás que hay el doble de verde que de cualquier otro color. Esto es intencionado, pues el ojo humano es más sensible a los verdes. Distribuyendo los colores así se obtienen imágenes más nítidas y con menos ruido para el ojo humano.
Pasando píxeles de un color a una foto real
Ahora… ¿cómo hacemos para conseguir que la foto pasa de tener cada píxel rojo, verde o azul a tener una foto con colores reales tal y como la hemos tomado? Para esto se usa lo que se llama un proceso de interpolación cromática.
Aunque el nombre parezca complicado, no es más que «deducir» el color final en base a los 3 primarios. Para poder hacer esto lo que se hace es agrupar los fotodiodos en cuadrados de 2×2 y tomar eso como un píxel. Ejemplo:

Como puedes ver, cada píxel final está formado por 4 píxeles físicos (fotodiodos), lo cual resulta en que la imagen final va a tener la mitad de resolución que el sensor. Si el sensor tiene 4 píxeles de ancho y 4 de alto, cuando agrupes en cuadrados de 2×2, la foto final tendrá 2×2 píxeles.
Para evitar esto, lo que se hace es superponer los grupos de 2×2 entre sí. Por ejemplo:

Como ves, aquí se hacen 9 grupos, superponiéndolos entre sí, para dar lugar a 9 píxeles en la imagen final. Si el sensor siguiese extendiéndose a lo ancho y largo, el proceso sería el mismo. El único problema se encontraría en los extremos, en los que no hay información suficiente para interpolar el color. En estos casos una solución sería descartar la fila izquierda, derecha, superior e inferior, que no supondrá ningún problema en un sensor que tiene millones de píxeles.
Algunos problemas de la interpolación
La interpolación cromática es un proceso en el que, al fin y al cabo, estás cogiendo una señal continua (que sería la luz) y la estás muestreando a unos valores discretos. Esto trae un problema asociado y es que, cuando los detalles de la foto son más pequeños o están cerca del límite de resolución del sensor, se producen efectos extraños.

Este es uno de los ejemplos más comunes. El llamado efecto Moiré. Es muy típico en fotos con patrones de rayas o puntos muy juntos. La cámara no es capaz de reconstruir la señal de manera exacta y se dan formas extrañas e incluso colores nuevos que no existían en la imagen original.
Como esto es una consecuencia directa del muestreo de señales, algunas soluciones que se han intentado tomar pasan, por ejemplo, por poner una malla encima del sensor que «filtra» todo lo que sea más pequeño que la resolución mínima del sensor, evitando el efecto, pero dando lugar a imágenes algo «borrosas».
Mejorando el sensor de luz
Como te prodrás imaginar, los sensores de luz han ido mejorando continuamente a lo largo del tiempo para captar más luz, para mejorar la precisión etc. En realidad, un sensor no está formado por los fotodiodos únicamente, sino que necesita dejar espacio a otros componentes.
Uno de esos componentes son las «microlentes». El sensor tiene una malla de estas microlentes, colocadas de manera específica para captar más luz y que se pierdan los menores fotones posibles.

En la imagen se pueden ver la microlentes entre cada fotodiodo. Como ves, en la parte izquierda la lente triangular dirige la luz o bien a la derecha o bien a la izquierda, pero siempre a un fotodiodo. En la parte derecha, sin embargo, al no haber lente, el fotón rebota en el «borde» que no tiene lente y se pierde.
Han sido estas y otras mejoras las que se han introducido en los sensores para mejorar la resolución y nitidez de las fotos, y conseguir resultados con menos ruido.
Pues hasta aquí la entrada de hoy, espero que te haya gustado, que te haya servido y no olvides dejar un comentario diciéndome qué te ha parecido!! Hasta la próxima.