Del espacio a tu móvil: cuando la NASA inventó los sensores fotográficos CMOS

"Un pequeño paso para un hombre pero un gran salto para la humanidad". Neil Armstrong posó un pie sobre la Luna en el año 1969, y el Apollo XII casi replica su logro el año siguiente en una misión que pudo acabar en catástrofe. El cine ha contribuido casi más que los libros de historia a que conozcamos las aventuras de la Administración Nacional de la Aeronáutica y del Espacio. Más conocida como NASA, la agencia espacial estadounidense es probablemente una de las siglas mejor conocidas por toda la humanidad.

Creamos o no en la necesidad de llegar a Marte o de colonizar otros planetas, lo cierto es que la NASA ha sido responsable de bastante hallazgos importantes para la humanidad y, sobre todo, un gran creador de nuevas tecnologías como las que hoy empleamos a diario. Como el material de las suelas de las zapatillas deportivas, los filtros ultravioletas de las gafas de sol o, por lo que estamos aquí, los sensores fotográficos CMOS.

Cuando todo el campo era CCD

Tenemos que remontarnos al año 1969 para asistir a la creación del primer sensor CCD, curiosamente el mismo año en que la NASA logró que la humanidad aterrizase por primera vez en la Luna. Estos sensores fueron inventados por Wilard Boyle y por George E. Smith en los laboratorios AT&T Bell Labs y en un primer momento se conocieron como Charge Bubble Devices, aunque el tiempo haría que su nombre girase hacia Charge Coupled Devices o Dispositivo de carga acoplada. De CBD a CCD.

El invento fue de vital importancia para el desarrollo de la fotografía digital aunque no se reconoció debidamente hasta el año 2009, cuando ambos científicos fueron galardonados con el Nobel de Física. El sensor CCD fue el primero capaz de leer imágenes de la vida real y convertirlos en señales digitales. De la mano del sensor CCD nació la fotografía digital, aunque inicialmente se empleó para crear un pequeño escáner de 8 píxeles.

Los inventores del sensor CCD recibieron el Nobel de Física... 40 años después

El funcionamiento de un CCD es bastante sencillo. A través de la lente, se capta la luz y se hace que incida sobre el propio sensor, provocando que se arranquen electrones y que éstos acaben en un condensador. A más luz, más electrones arrancados y mayor la carga almacenada. Es la luz la que determina la carga y, por tanto, el voltaje, que será lo que finalmente determine el color. Este proceso se realiza para cada uno de los píxeles o células del sensor, y se compone la imagen final a partir de la concatenación de los mismos.

Por tanto, el CCD convierte las cargas de las celdas de la matriz en voltajes y entrega una señal analógica en la salida, que será posteriormente digitalizada por la cámara. En los sensores CCD, se hace una lectura de cada uno de los valores correspondientes a cada una de las celdas. Entonces, es esta información la que un convertidor analógico-digital traduce en forma de datos. En este caso, la estructura interna del sensor es muy simple, pero tenemos como inconveniente la necesidad de un chip adicional que se encargue del tratamiento de la información proporcionada por el sensor, lo que se traduce en un gasto mayor y equipos más grandes.

La NASA me lo confirmó

Todo lo relacionado con el espacio lleva un gen común, el de la economía. Todo debe reducirse al mínimo pues colocar un gramo en el exterior de la Tierra es suficientemente costoso como para no permitirse eliminar tantos como sea posible. No sólo peso, también volumen. De ahí que la NASA se viese impelida a llevar la tecnología CCD un paso más allá.

Fue en la década de los 90 cuando los laboratorios de la NASA presentaron una solución alternativa a los sensores CCD que requería un menor tamaño para cada sensor, lo que facilitaba su instalación en todo tipo de dispositivos de la Agencia y ahorraba espacio a la hora de llevarlos al espacio. Nacían los semiconductores complementarios de óxido metálico. Nació el primer sensor CMOS.

La gran ventaja del CMOS sobre el CCD es que el procesado es interno, en cada píxel, lo que hace que el sensor sea más pequeño y económico

Aunque el proceso de captación de imágenes es muy similar en los sensores CCD y los CMOS, en el caso de los últimos cada celda o píxel es independiente. La digitalización de cada uno de los píxeles de la imagen se realiza internamente en los transistores que lleva cada celda, de ahí que todo el trabajo se realice en el interior del sensor y no sea necesario ningún chip adicional para procesarlas. Con ello se logra lo que la NASA buscaba para su propio beneficio, reducir el tamaño del sensor, y de paso reducir los costes de fabricación.

Pero con la llegada de los sensores CMOS no sólo se mejoró el tamaño de los sensores o el coste de fabricación. También evolucionó la velocidad a la que se podían capturar las imágenes, pues el proceso interno es más rápido que el de los chips CCD, y también son chips que consumen menos energía para su funcionamiento. Como vemos, el paso adelante supuso también un buen saco de ventajas adicionales.

Selfies espaciales

Hoy en día es sencillo encontrar sensores CMOS, están en todas partes. Son los que pueblan el mercado de los teléfonos móviles. Usamos uno para capturar paisajes, a veces incluso dos con las cámaras duales. Usamos un sensor CMOS para tomarnos un selfie y subirlo a Instagram, y también usamos un CMOS cada vez que queremos grabar vídeo.

Un invento que todos disfrutamos y que llegó a causa de la necesidad de la NASA de economizar y reducirlo todo. Inventaron la comida liofilizada, mejoraron la comida para los bebés, pusieron de moda el Tang y también nos ofrecieron un gran salto evolutivo en cuanto a la captura de imágenes digitales. Es bonito pensar de dónde salió este descubrimiento que ahora disfrutamos todos. Un inventó que llegó desde el espacio.

En Xataka Móvil | Explora la Tierra y el espacio de forma interactiva gracias a las aplicaciones de la NASA

Ver todos los comentarios en https://www.xatakamovil.com

VER 8 Comentarios

Portada de Xataka Móvil