Cómo funciona el modo Astrofotografía de los Pixel, explicado por Google

Cómo funciona el modo Astrofotografía de los Pixel, explicado por Google

El modo Astrofotografía de Google es una de las novedades más interesantes que hemos visto en una cámara móvil. Google explica cómo lo ha logrado.

Cada año, los Google Pixel nos sorprenden con nuevas características de fotografía, y este no ha sido una excepción. Si el año pasado nos enamoró la visión nocturna, este año la han perfeccionado creando un modo llamado Astrofotografía, capaz de tomar fotografías en las que se puedan captar incluso las estrellas.

Dado el tamaño del sensor de nuestro móvil parece magia, pero es ciencia. Concretamente, la ciencia de la fotografía computacional, un área en el que la inteligencia artificial juega un papel clave. ¿Cómo funciona exactamente este modo? Google ha querido detallarlo.

Cuando usas Astrofotografía, no estás tomando una simple foto

Uno de los conceptos más importantes para entender en el campo de la fotografía es el tiempo de exposición. Cuando tomamos una fotografía, el tiempo de exposición define cuanto tiempo va a estar la cámara capturando luz.

Mientras más tiempo pase capturando luz, mejor información tendrá, pero esto plantea varios riesgos y desafíos. Cualquier mínimo movimiento que realicemos va a distorsionar la imagen capturada, ya sea porque movamos la cámara o se mueva el escenario.

A mayor tiempo de exposición captaremos más luz, pero necesitaremos que haya menor movimiento en la escena.

Para tomar una captura bien definida es necesario realizar una toma de 4 minutos, razón por la que este modo exige un trípode para que el móvil se encuentre en estático. Pero incluso si no movemos el móvil existe una segunda dificultad, y es que en esos 4 minutos serán las propias estrellas «las que se muevan».

Ejemplo de una toma con 2 minutos de exposición sin usar fotografía computacional.

El truco que Google ha utilizado para conseguir fotografías con 4 minutos sin el problema del movimiento de las estrellas es realmente simple, y se basa en el mismo principio que llevan usando durante años con HDR+ o con visión nocturna. Es tan sencillo como tomar varias imágenes.

En lugar de realizar una única toma de 4 minutos de exposición, la decisión de Google ha sido «trocear» esos 4 minutos en 15 imágenes, cada una con 16 segundos de exposición. De primeras, este tipo de combinación debería captar menor información que una toma completa de 4 minutos, pero es una información mucho más valiosa para los algoritmos de fotografía computacional.

Otro elemento fundamental en la experiencia de fotografía computacional es el autofocus, tecnología necesaria para que las imágenes tengan mayor nitidez. En el momento que pulsamos para tomar la imagen, el móvil tomará además dos imágenes con 1 segundo de exposición. Estas fotografías no serán utilizadas para componer la imagen final, sino como puntos de referencia para la imagen.

Durante el desarrollo de Astrofotografía, en Google han conseguido recopilar una serie de consejos, a los cuales puedes acceder desde aquí.

Mostrar comentarios
Vídeos El Androide Libre
Review del Roborock S5 Max
Análisis Xiaomi Mi TV 4S 55″
Análisis LG G8x
Así es el Motorola Razr
Análisis Huawei Mate 30 Pro
Las televisiones de Xiaomi llegan a España
Análisis del Netbot S15: robot aspirador que también friega
Cómo instalar la Play Store en el Huawei Mate 30
La estafa del móvil de 40 euros
Análisis Samsung Galaxy Fold
Análisis Huawei Nova 5T
Unboxing Samsung Galaxy Fold
Análisis realme X2 Pro
Análisis realme X2
realme en España
El Asus Zenfone 5Z se actualiza a Android 10 y rebaja su precio de forma bestial
Google Play Music será reemplazado definitivamente por YouTube Music