Google Night Sight es la siguiente revolución en la fotografía móvil con bajas condiciones de luz

Google Night Sight es la siguiente revolución en la fotografía móvil con bajas condiciones de luz
1 comentario Facebook Twitter Flipboard E-mail

La fotografía móvil está llegando a su límite. La proporción entre densidad y tamaño de píxeles es limitada a los pequeños sensores internos, el agregar objetivos sacrifica otros componentes internos y la calidad de los elementos es limitada a lo que un consumidor promedio estaría dispuesto a pagar por el dispositivo. Lo único que queda para mejorar la calidad de las fotografías es el procesador de imagen y los algoritmos que interpretan la señal sobre el sensor. Google publicó su más reciente desarrollo para los Google Pixel 3, un elemento de inteligencia artificial llamado Night Sight; y la barra se ha puesto muy alta.

Como cuenta Google en su blog, uno de los objetivos de ‘Night Sight’ era el poder trabajar con niveles de luz entre los 0.3 y 3 Lux. Abajo podéis ver una tabla que ha liberado Google explicando de manera divertida los niveles de luz, pero básicamente lo que ellos presentan es un software capaz de tomar imágenes claras con el mínimo nivel de ruido digital con niveles de luz más bajos que aquella emitida por la luna en una noche clara; sin necesidad de un trípode. Para ponerlo en perspectiva, los móviles usualmente ya comienzan a sufrir con una intensidad de 30 Lux, el equivalente a la iluminación de un bar o un restaurante con ambiente.

F2

Para demostrar los niveles del poder de la función ‘Night Sight’, Google capturó una escena con la cámara del nuevo iPhone XS y con un Google Pixel 3. Abajo podéis ver los resultados de ambas capturas.

Image5 Izquierda: iPhone XS / Derecha: Google Pixel 3 con Night Sight

El proceso técnico detrás del algoritmo de ‘Night sight’ comienza en identificar los elementos externos a la toma: identificar si está sobre trípode, el modelo de móvil, si los elementos en escena está en movimiento y la intensidad de ilumianción de la misma. Basado en esta información, la inteligencia artificial de Google determina si captura varias tomas a una velocidad de 1/15 segundos de exposición (cuando la persona tiene el móvil con la mano), o si captura menos tomas de más duración de exposición (cuando la persona tiene el móvil en un trípode o una superficie estable). De ahí, el procesador toma la primera imagen como el momento cero, mientras las demás imágenes son alineadas y analizadas por la IA de Google para eliminar ruido, balancear los blancos de la imagen y conseguir un rango dinámico y una luminancia de escena natural.

Aunque el proceso es rápido y muy efectivo, algunos artefactos se pueden notar al capturar escenas en movimiento. El principal problema es que las tomas capturadas con cámara en mano y con escenas de movimiento pueden disminuir la nitidez aparente de la imagen. Google recomienda que en escenas que son demasiado bajas en iluminación, los usuarios pongan su móvil sobre un trípode o una superficie estable.

Image4 Izquierda: fotografía tomada sin trípode / Derecha: fotografía tomada con trípode

Como reporta PetaPixel, varios medios y fotógrafos probaron de antemano esta función inteligente. Estos han reportado lo sorprendente que es esta tecnología, marcándola de innovadora, sorprendente y mágica. Algunos usuarios que ya cuentan con la función han subido imágenes mostrando el poder de la IA. Así que, si tenéis una google Pixel 3, no dudéis en probar esta nueva función fotográfica.

_

Imagen de portada | Jesee Levinson (via Google Blog)

_

Comentarios cerrados
Inicio