Así es la fotografía de los Pixel 6: el hardware y el software de las cámaras más ambiciosas de Google hasta el momento

Así es la fotografía de los Pixel 6: el hardware y el software de las cámaras más ambiciosas de Google hasta el momento

6 comentarios Facebook Twitter Flipboard E-mail
Así es la fotografía de los Pixel 6: el hardware y el software de las cámaras más ambiciosas de Google hasta el momento

Tras multitud de filtraciones en las que también pudimos saber mucho sobre sus cámaras antes de lo que tocaba, los Google Pixel 6 y Google Pixel 6 Pro se presentaron el ya pasado 19 de octubre. Google echó el resto en materia fotográfica sobre sus dos nuevos terminales, apoyándose principalmente en un nuevo procesador, el Tensor, diseñado para exprimir cada gota de inteligencia artificial de sus dispositivos.

Y como la fotografía era importante, y lleva mucho tiempo siéndolo para Google, la compañía dedicó bastante de su presentación a contarnos de qué eran capaces sus nuevos Google Pixel 6 en materia fotográfica. Una pareja de teléfonos con dos cámaras para el hermano "pequeño" y tres cámaras para el hermano "mayor", pero pocas diferencias entre ellos aparte de lo estrictamente físico.

Así son las cámaras de los Google Pixel 6: especificaciones técnicas

Vamos a comenzar con las cámaras en sí, con el hardware fotográfico de los Google Pixel 6. Conviene indicar en este caso que los dos teléfonos comparten dos cámaras que son exactamente iguales mientras que el mayor, el Google Pixel 6 Pro, añade una tercera cámara con teleobjetivo. Aparte de la diferencia entre cámaras frontales (8 megapíxeles en uno y 11,1 megapíxeles en otro), esa tercera cámara es la que separa ambos modelos. Así que vamos a ir por orden, la cámara principal.

Como cámara principal, Google ha optado por un sensor de 50 megapíxeles Octa PD Quad Bayer. Este sensor tiene un tamaño de 1/1,31 pulgadas y píxeles de 1,2 micrómetros de lado, lo que le permite obtener píxeles de 2,4 micrómetros al entrar en juego el pixel bining que agrupa los píxeles en bloques de cuatro. Acompañando al sensor tenemos una lente con apertura f/1.85, bastante luminosa, y que tiene un campo de visión de 82º. La distancia focal es de 26 milímetros por lo que hablamos de una cámara gran angular, y aquí encontramos estabilización óptica además de enfoque PDAF omnidireccional.

Llegamos a la segunda cámara y aquí tenemos 12 megapíxeles a bordo de su sensor, con píxeles de 1,25 micrómetros de lado. Este sensor se acompaña de una lente con apertura f/2.2 y que además es una ultra gran angular. Google no especifica por ninguna parte su distancia focal aunque asumimos que se moverá entre los 13 y los 16 milímetros, a tenor de las fotografías de ejemplo mostradas. Esta cámara sí tiene una pequeña diferencia en ambos modelos pues en el Pixel 6 tendremos 114º de campo de visión mientras que en el Pixel 6 Pro tendremos 106,5º, una curvatura más suave.

Principal
La cámara principal de ambos teléfonos, tanto el Pixel 6 como el Pixel 6 Pro

Enfoque láser y PDAF omnidireccional para ambos modelos

Por último, llegamos a la tercera cámara, la que encontramos únicamente a bordo del Google Pixel 6 Pro. Aquí la compañía norteamericana emplea un sensor de 48 megapíxeles y de 1/2 pulgadas de tamaño que tiene píxeles de 0,8 micrómetros de lado. La lente, con una apertura f/3.5, es una lente teleobjetivo y nos ofrece 4 aumentos ópticos. Google asegura que es capaz de obtener lo que llaman Super Resolución con un zoom híbrido de hasta 20 aumentos que no debería perjudicar las fotografías tomadas con este acercamiento.

Además de estas cámaras, Google emplea un sensor LDAF en ambos modelos para el enfoque, Laser Detection Auto Focus; es decir, que ambos enfocan por láser. Google combina este enfoque con el enfoque por detección de fase de ambos sensores principales por lo que deberíamos obtener fotografías mejor enfocadas y con un enfoque mucho más veloz. Amén de otros "trucos" de software empleados por la compañía como el Face Focus que veremos más adelante. Grosso modo, éstas son las cámaras de los Google Pixel 6 y Google Pixel 6 Pro.

Y así es la fotografía computacional construida sobre los Pixel 6

Como ya hemos comentado en alguna ocasión anterior, Google ha diseñado un nuevo procesador cuya principal virtud es la de ser capaz de ejecutar código de inteligencia artificial de forma mucho más veloz y con un consumo energético menor. Y además de otros aspectos del teléfono, el nuevo Google Tensor tiene un efecto determinante en la fotografía, aportando potencia de procesado para los distintos modos y funciones que los Pixel 6 estrenan en este terreno. Vamos allá.

Borrador mágico

Comenzamos con el borrador mágico o magic eraser. Esta función ya se presentó en el Google I/O de hace un par de años pero no ha llegado a liberarse hasta ahora, y llega con los Pixel 6. De forma muy resumida, podremos eliminar objetos de una fotografía simplemente tocando sobre ellos. Un algoritmo se encargará de borrar dicho objeto y rellenar el espacio que deje con texturas coherentes. Es decir, podremos borrar un vaso sobre la mesa y Google rellenará el hueco con madera, o un ave y Google se encargará de completar el hueco con cielo.

Motion mode en los Pixel 6

Otra función de los Pixel 6 es el conocido como Modo movimiento o motion mode. Aquí estamos hablando de una simulación de movimiento mediante algoritmos de inteligencia artificial. Como si estuviésemos capturando imágenes con una exposición larga, Google será capaz de añadir sensación de movimiento a los objetos, difuminándolos para obtener el resultado final. Como se muestra en la fotografía que lo ilustra, se puede fotografiar un tren detenido y que Google finja que se estaba movimiento, o crear efecto seda a partir de una fotografía estática que muestre agua. Veremos qué tal resuelve esto cuando podamos probarlo de primera mano.

Real Tone

Seguimos con el Tono real o real tone, que Google ha definido como el más inclusivo al representar correctamente los tonos de piel de las personas de color. Y también del resto, por supuesto. De nuevo apoyado en IA, Google asegura ser capaz de identificar con mucha precisión la zona de la imagen en la que hay rostros y aplicar sobre ellos correcciones para que el color de la piel no se vea afectado por distintas iluminaciones que pueda haber en la escena. Google afirma ser capaz de ofrecer imágenes optimizadas incluso cuando en la fotografía haya personas con distintos colores o tonos de piel.

Balance

Relacionado con el modo anterior encontramos el nuevo algoritmo de corrección del balance de blancos de cada escena. Además de ofrecernos la posibilidad de variarlo de forma manual en cada fotografía que estemos tomando, Google asegura que su nuevo ajuste automático es más preciso incluso en fotografías tan complejas como los retratos a contraluz. De nuevo, un modo que estamos deseando probar a fondo para comprobar qué tan eficaz dice Google que es.

Unblur

Y por último, retratos. Concretamente, el nuevo modo de enfoque de rostros o face unblur. Aquí Google juega con las dos cámaras principales de cada teléfono (las únicas en el Pixel 6). La compañía afirma que a la hora de tomar retratos, captura una imagen con cada una de sus cámaras, imágenes simultáneas, y las fusiona para así mejorar la nitidez de los rostros de las personas incluidas en la fotografía, así como el enfoque. Las fotografías mantienen sensación de movimiento en otras zonas pero los rostros deben quedar perfectamente enfocados.

Más información | Google

Comentarios cerrados
Inicio