Publicidad

Google Pixel 4: todo sobre la apuesta computacional de Google para reinar en la fotografía móvil
Móvil y sociedad

Google Pixel 4: todo sobre la apuesta computacional de Google para reinar en la fotografía móvil

Publicidad

Publicidad

Los Google Pixel 4 y Google Pixel 4 XL ya son oficiales y, como todos los años desde que estos terminales llegaron al mercado, lucharán directamente por el trono en la fotografía móvil. La compañía con sede en Mountain View ha vuelto a hacer hincapié en este apartado, apostando este año por una cámara doble, acompañada de un sensor de profundidad.

Diciendo por fin adiós a la configuración monosensor de la que habíamos disfrutado durante tres generaciones, cabe conocer en detalle las nuevas cámaras del Google Pixel 4, y ver, sobre el papel, qué tienen para ofrecer a un mercado actual de gama alta en el que el número de cámaras y megapíxeles parece imperar.

Google dice adiós a la configuración de una sola lente

Camara Pixe

Tenía lógica preguntarse por qué Google ha estado todo este tiempo utilizando tan solo una cámara en sus generaciones Pixel. Si bien los resultados estaban a la altura de cualquier otro rival con múltiples cámaras, el mercado avanzaba hacia el multisensor, y Google parecía no querer mover ficha. Mario Queiroz, en palabras para 9to5Google, comentaba que no era necesario.

Descubrimos que era innecesario. Los teléfonos Pixel extraen suficiente información de profundidad gracias a la tecnología Dual Pixel, para posteriormente ejecutar algoritmos de aprendizaje automático, entrenados en más de un millón de fotos, para producir el efecto de foto deseado. Mario Queiroz, Vicepresidente de Product Managing en Google.

El discurso cambia este año, y es que Google ha apostado por una configuración de doble cámara, acompañada por un sensor de profundidad Ultradepth. Pero vamos a ir concretando respecto a dichos sensores.

Camaras

El primero de ellos, es un sensor principal de 12.2 megapíxeles (misma resolución del año pasado) con apertura f/1.7. El segundo, un sensor de 16 megapíxeles, teleobjetivo, y con apertura f/2.4. "El tercero", es un sensor de profundidad 'UltraDepth', cuya utilidad principal será captar información sobre profundidad, ayudando así al modo retrato y a la realidad aumentada de Google.La cámara principal (que pasa de configuración dual a ser una sola) es de 8 megapíxeles, con una configuración angular estándar.

Al trabajo de los sensores de cámara, ayudan el ISP del Snapdragon 855 y el Pixel Neural Core

Al trabajo de estos sensores, ayudados del ISP Spectra 380 Dual (el procesador de imágenes del Snapdragon 855, con IA dedicada), le acompaña el Pixel Neural Core, un sustituto del anterior Pixel Visual Core, que utiliza una red neuronal para procesar imágenes y ayudar en funciones dedicadas.

La "magia" del software de Google, un año más

Image 2019 10 15 17 10 08

A nivel de hardware, las cámaras de Google nunca han destacado respecto a sus rivales, pero sí que lo han hecho por el software. Este año, al procesado 'tipo Pixel' al que estamos tan acostumbrados (fotografías contrastadas, con ligero oversharp y un buen trabajo del HDR), se suman nuevas funciones exclusivas como el modo astrofoto. Con este, cuando el teléfono detecte que está quieto (apoyado o con trípode), podremos realizar fotografías de larga exposición para, por ejemplo, fotografíar los astros.

El modo de doble exposición permite crear fotografías con una iluminación personalizada, sin renunciar al buen trabajo hecho previamente por el HDR

Otro de los nuevos modos, y de los más útiles en opinión de servidor, es el modo de doble exposición, algo que nunca habíamos visto en fotografía móvil. Se trata de un modo que permite ajustar por separado las altas luces y las bajas luces, todo en tiempo real. En otras palabras, es una especie de HDR manual, con el que nos olvidaremos de que la fotografía no tenga la exposición que queremos. Por motivos obvios, esto no está pensado para fotografías rápidas o en movimiento, pero es un ajuste muy a tener en cuenta.

Dejando de lado los modos, Google destaca el trabajo que han hecho con el HDR+, combinando nueve fotografías para obtener el mejor output posible, mejoras a nivel de balance de blancos, que ahora se aplican en todas las fotografías, y uno de los saltos más importantes, HDR en vivo, al igual que en los iPhone. De este modo, podremos ver una fotografía más cercana a la final desde la vista previa.

Destacar también que, un año más, Google comprende el problema que hay en Android con las apps de cámara de terceros. Por ello, los desarrolladores podrán integrar el HDR de Google en sus apps para que, por ejemplo, al subir una fotografía a Instagram o WhatsApp, no pierda tanta calidad por el camino.

"No son fotografías falsas, son matemáticas"

Marc Levoy, padre de la fotografía computacional y el HDR+, ha explicado estas novedades del Pixel, haciendo referencia a por qué Google procesa como procesa. Ante los comentarios que se leen por las redes de que "las fotografías de los Pixel son falsas", él responde que no son más que matemáticas, la aproximación más cercana a lo que haría una DSLR, pero con miras a que el resultado final sea lo mejor posible.

Temas

Publicidad

Publicidad

Publicidad

Inicio
Compartir