Así funciona la tecnología de horquillado inteligente de la función HDR+ en los Google Pixel

Google Dest
Sin comentarios Facebook Twitter Flipboard E-mail

Hace poco hablamos de por qué deberíamos instalar la app de cámara de Google en nuestros móviles para hacer fotografías interesantes. Uno de sus puntos más llamativos es la tecnología que han desarrollado conocida como HDR+. Para aquellos que se interesan por los procesos detrás, Google presentó una explicación de los procesos computacionales que su app realiza para producir una imagen HDR de tan alta calidad.

En el blog de Google se encuentra una explicación completa de HDR+ y sus ventajas. En un principio Google explica conceptos de alto rango dinámico y de horquillado de imágenes. En esta explicación vemos los límites de tener que exponer hacia las altas luces o hacia las sombras y cómo el propósito del horquillado es poder expandir ese rango. Esta técnica de la fotografía ha evolucionado y aprovecha los procesos fotográficos para ser cada vez más completa y eficaz.

El problema de un proceso HDR es que no solo estamos combatiendo frente al ruido digital que se encuentra por subexposición, que es el ruido de captura. Así mismo, cuando se hace una captura, el sensor ya cuenta con un ruido digital que se presenta en la señal conocido como ruido de lectura. Así que para procesar una imagen se necesita un balance entre el tiempo de exposición que ayude a disminuir el ruido de captura por luminancia y cantidad de capturas que permitan identificar el ruido de lectura para reducir este.

Es acá donde la compañía pasa a explicar cómo funciona HDR+. Al hacer una captura con esta función activada, el móvil hacer una ráfaga de capturas hasta de 15 imágenes RAW que son procesadas en un nuevo RAW promediado de ruido reducido, el cual luego es procesado para obtener una imagen limpia y clara. Este acople de imágenes se debe a que Google usa una técnica de horquillado enfocado en rescatar las altas luces para mantener colores naturales, tener mayor detalle de textura y menor ruido digital.

Google 004 Varias imágenes forman un RAW promediado computacionalmente (imagen de la mitad), luego es procesado para mejorar el rango dinámico y el color en un JPG final.

Para ello, la compañía utiliza su sistema de Zero Shutter Lag, donde se están haciendo capturas constantes que se reciclan en un buffer antes de presionar el botón de disparo. El sistema HDR+ utiliza estas tomas previas, la toma del momento y realiza una captura de medio segundo para tener una captura más iluminada. Este horquillado permite ahorrar tiempo en la captura de las distintas tomas y es lo que ayuda a que no se demore tanto como si hiciéramos el horquillado desde que presionamos la captura.

Google 002 Procesado antes de presionar el botón

Sin embargo, en el modo de visión nocturna el horquillado se hace después de presionar el botón de obturación para que el resultado sea limpio y no dependa del buffer.

Google 003 Horquillado en modo Night Sight

Pero este proceso no está solo, en situaciones con mucho movimiento un proceso de horquillado tradicional podría crear artefactos como bordes extraños, difusión o ghosting. Para atacar estos problemas, Google utiliza los algoritmos de acople espacial que usa para el zoom digital. Estos analizan todas las tomas y hacen una lectura de cada imagen al nivel de comparar pixel por pixel para decidir si debe ser acoplado o ignorado en la imagen promediada.

Google 001 Izquierda: HDR procesado con deghosting inteligente desactivado | Derecha: HDR procesado con deghosting y algoritmo de acople espacial

Lo mejor es que, ya que el acople de las imágenes RAW se mezclan en un nuevo RAW, después de hacer la captura podemos sacar el archivo procesado en crudo para editarlo en un editor móvil o en el ordenador. Siempre que podamos usar RAW para trabajar la imagen debemos aprovechar.

Comentarios cerrados
Inicio