Apple explica cómo funciona su modo cine y cómo exprime al máximo la potencia del iPhone 13

Apple explica cómo funciona su modo cine y cómo exprime al máximo la potencia del iPhone 13
1 comentario

El modo cine de los nuevos iPhone 13 es la gran apuesta de Apple este año. Trata de ir más allá de un modo retrato en vídeo, introduciendo el enfoque automático a personas u objetos según el protagonismo que estos tienen en la escena. Todo en tiempo real y con datos guardados para su post-procesado, algo que consiguen gracias al A15 Bionic.

En una entrevista tanto al vicepresidente de Apple, Kaiann Drance, como al diseñador de interfaz, Johnie Manzari, se han desvelado detalles sobre cómo funciona a nivel técnico el modo cine y todos los elementos que se tuvieron en cuenta a la hora de desarrollarlo.

El modo cine de Apple, explicado

iPhone 13

Desde Apple indican que desarrollar el modo cine fue "mucho más desafiante" que desarrollar el modo retrato. En vídeo se necesita más información sobre la profundidad de la escena, para que el desenfoque pueda funcionar en personas, mascotas, objetos y demás. Además, es necesario que esos datos se procesen de forma continua y en tiempo real, en movimiento.

A esto hay que sumarle que el modo cine se procesa en calidad Dolby Vision HDR, aunque esté limitado a Full HD, y que esta información se debe mostrar en la vista previa, es decir, mientras estamos grabando. El objetivo era crear un modo automático, capaz de detectar los elementos de la escena para ajustar el enfoque y procesarlo todo en tiempo real.

Se destinan todos los recursos posibles para procesar este modo en tiempo real, pero se tuvieron en cuenta los consumos, para que gaste demasiada batería

Apple indica que utiliza tanto la CPU como la propia GPU del teléfono, así como el motor neuronal de Apple. Se vale asimismo del nuevo sensor estabilizado y aprovecha la luminosidad extra del mismo y de la lente, que ahora cuenta con apertura f/1.5. Básicamente, Apple indica que los elementos principales de su modo cine son los siguientes:

  • Reconocimiento y seguimiento de sujetos
  • Bloqueo de enfoque
  • Enfoque en rack (movimiento de enfoque de un sujeto a otro de forma orgánica)
  • Sobreescaneo de imagen y estabilización en cámara
  • Bokeh sintético (desenfoque de lente)
  • Modo de edición posterior al disparo que le permite modificar sus puntos de enfoque incluso después de disparar

En otras palabras, el A15 Bionic se encarga de procesar en tiempo real toda la información de la escena, con el principal objetivo de segmentar objetos y personas para poder aislarlas del fondo de forma selectiva. Se llega a utilizar el propio acelerómetro del teléfono para predecir los movimientos de la persona que graba.

Si grabamos a una persona y pasamos a acercarnos ligeramente a otra, esta pasará a estar enfocada gracias al propio acelerómetro del iPhone

Es decir, si estamos grabando a una persona y nos movemos ligeramente para enfocar a otra, ya estará enfocada antes de que si quiera hayamos terminado el movimiento, ya que el modo cine se anticipa a la propia escena. También analiza la mirada de la persona, para comprender si van a entrar o no en escena.

En definitiva, un modo cine que da sus primeros pasos, como lo hizo el modo retrato, y que pone todos los recursos del iPhone a su disposición.

Vía | Techcrunch

Temas
Inicio