El gran reto de la fotografía móvil es el rango dinámico. Apple prepara una revolución: su primer sensor propio que ve como un humano

  • Tras conseguir su primer módem, Apple quiere más componentes propios para el iPhone

  • Fuentes de la industria sitúan a la cámara como ese componente

iPhone Cámaras
Sin comentarios Facebook Twitter Flipboard E-mail
jose-ricca

Pepu Ricca

Editor

La filosofía de Apple ha tenido siempre una máxima: el control total del hardware y software para crear una experiencia de usuario óptima. Ese interés ha llevado a la firma de la manzana a sustituir a proveedores clave de sus dispositivos. Ya lo hicieron con sus procesadores para portátiles y lo último ha sido el primer módem propio de Apple, pero no se detendrán en este punto: la californiana ha puesto su punto de mira en un componente del iPhone que aún no controlan. Ese es el sensor de la cámara.

Dependencia. Esto es lo que Apple quiere evitar a toda costa: seguir dependiendo de terceros para los componentes de sus dispositivos. Todo empezó con el iPhone 4 y su chip A4, el primero diseñado por Apple que les liberó de los procesadores de Samsung. Y el punto álgido, como hemos comentado, han sido los chips M de Apple Silicon, un movimiento histórico que dejó atrás a Intel y cambió por completo el rendimiento y la autonomía de los portátiles.

Siguiente objetivo. Tras una guerra judicial con Qualcomm, Apple decidió tomar el camino difícil: comprar la división de módems 5G de Intel y tras años de desarrollo, por fin lanzó su chip propio: el Apple C1. Ahora, con los chips y módem bajo control aparente, el siguiente paso lógico es la cámara.

Actualmente, Apple usa los sensores de Sony, que combina con su particular procesado de software. Sin embargo, según filtraciones y patentes recientes, Apple está probando en sus laboratorios prototipos de sensores de imagen diseñados desde cero.

iphone 16 pro En la fotografía, el iPhone 16 Pro. Imagen: Ricardo Aguilar para Xataka

La promesa. El objetivo de la manzana mordida no es solo tener una alternativa real a Sony, sino revolucionar la fotografía móvil. Una de sus patentes describe un sensor capaz de capturar 20 pasos de rango dinámico. Para ponerlo en contexto: los iPhone actuales manejan unos 10-13 pasos, mientras que el ojo humano se mueve entre 20 y 30.

Estaríamos hablando de una cámara que elimina casi por completo las fotos con cielos quemados o sombras sin detalle. Su promesa es una cámara que "ve" como el ojo humano, según MacRumors.

El hardware. Este salto sería posible gracias a un diseño en dos capas y a un sistema denominado como LOFIC, que permite a cada píxel gestionar diferentes niveles de luz en una misma toma, algo así como si fueran múltiples exposiciones a la vez. Por si fuese poco, incluiría reducción de ruido directamente en el sensor, antes incluso de que la imagen llegue a la etapa de postprocesado.

Curiosamente, este hardware propio seguiría dependiendo de Sony: aunque Apple diseñaría el sensor, la fabricación correría a cargo de la japonesa. Y no sería nada extraño, puesto que ya sucede con los chips de Apple Silicon, que son fabricados por la taiwanesa TSMC. Aun así, la diferencia sería un control total sobre el diseño.

El calendario. ¿Cuándo podríamos ver estos prototipos de cámara de Apple? Las fuentes más fiables apuntan a que podrían ver la luz en 2026. Concretamente, debutarían con los iPhone 18 Pro. La historia ha demostrado que cuando Apple decide algo por sí misma suele conseguirlo. Intel y Qualcomm ya lo han aprendido. Sony parece ser la siguiente en la lista.

Imagen de portada | Pepu Ricca para Xataka Android

En Xataka Móvil | Los mejores iPhone en calidad precio: cuál comprar en 2025

Inicio