Cómo funciona el modo Astrofotografía de los Pixel, explicado por Google

Cómo funciona el modo Astrofotografía de los Pixel, explicado por Google

El modo Astrofotografía de Google es una de las novedades más interesantes que hemos visto en una cámara móvil. Google explica cómo lo ha logrado.

Cada año, los Google Pixel nos sorprenden con nuevas características de fotografía, y este no ha sido una excepción. Si el año pasado nos enamoró la visión nocturna, este año la han perfeccionado creando un modo llamado Astrofotografía, capaz de tomar fotografías en las que se puedan captar incluso las estrellas.

Dado el tamaño del sensor de nuestro móvil parece magia, pero es ciencia. Concretamente, la ciencia de la fotografía computacional, un área en el que la inteligencia artificial juega un papel clave. ¿Cómo funciona exactamente este modo? Google ha querido detallarlo.

Cuando usas Astrofotografía, no estás tomando una simple foto

Uno de los conceptos más importantes para entender en el campo de la fotografía es el tiempo de exposición. Cuando tomamos una fotografía, el tiempo de exposición define cuanto tiempo va a estar la cámara capturando luz.

Mientras más tiempo pase capturando luz, mejor información tendrá, pero esto plantea varios riesgos y desafíos. Cualquier mínimo movimiento que realicemos va a distorsionar la imagen capturada, ya sea porque movamos la cámara o se mueva el escenario.

A mayor tiempo de exposición captaremos más luz, pero necesitaremos que haya menor movimiento en la escena.

Para tomar una captura bien definida es necesario realizar una toma de 4 minutos, razón por la que este modo exige un trípode para que el móvil se encuentre en estático. Pero incluso si no movemos el móvil existe una segunda dificultad, y es que en esos 4 minutos serán las propias estrellas «las que se muevan».

Ejemplo de una toma con 2 minutos de exposición sin usar fotografía computacional.

El truco que Google ha utilizado para conseguir fotografías con 4 minutos sin el problema del movimiento de las estrellas es realmente simple, y se basa en el mismo principio que llevan usando durante años con HDR+ o con visión nocturna. Es tan sencillo como tomar varias imágenes.

En lugar de realizar una única toma de 4 minutos de exposición, la decisión de Google ha sido «trocear» esos 4 minutos en 15 imágenes, cada una con 16 segundos de exposición. De primeras, este tipo de combinación debería captar menor información que una toma completa de 4 minutos, pero es una información mucho más valiosa para los algoritmos de fotografía computacional.

Otro elemento fundamental en la experiencia de fotografía computacional es el autofocus, tecnología necesaria para que las imágenes tengan mayor nitidez. En el momento que pulsamos para tomar la imagen, el móvil tomará además dos imágenes con 1 segundo de exposición. Estas fotografías no serán utilizadas para componer la imagen final, sino como puntos de referencia para la imagen.

Durante el desarrollo de Astrofotografía, en Google han conseguido recopilar una serie de consejos, a los cuales puedes acceder desde aquí.

Mostrar comentarios
Vídeos El Androide Libre
Análisis realme Buds Air Neo
Análisis Xiaomi Redmi Note 9 Pro
Análisis realme Watch
11 Novedades de Android 11
Análisis Xiaomi Mi 10 Lite
SPC Jasper, un móvil para personas mayores
Análisis OPPO Find X2 Neo
Las REDES 5G y sus beneficios
2 alternativas para no decir Ok Google
Análisis realme X3 Superzoom
Análisis Samsung Galaxy M31
Análisis OPPO Find X2 Lite
Comparativa OnePlus 8 vs OnePlus 8 Pro
Analizamos el Nest Wifi
Análisis realme 6 Pro

Lo más visto

El Asus Zenfone 5Z se actualiza a Android 10 y rebaja su precio de forma bestial
Google Play Music será reemplazado definitivamente por YouTube Music