Efecto bokeh sin doble cámara: Google explica cómo funciona el modo retrato de los Pixel 2

El efecto bokeh o modo retrato está entre los argumentos principales favorecedores de las cámaras dobles presentes en los móviles. Al usar lentes de diferente focal se produce un desenfoque de fondo que imita el alcanzable con las ópticas de las cámaras tradicionales. Sin embargo, podemos decir que, a pesar de que ayuda, no es necesario poseer una cámara doble para lograr ese efecto. Los Pixel 2 de Google lo demuestran.

El Pixel 2 así como el Pixel 2 XL tienen una única cámara en su parte trasera. Pero, aun así, son de doble retrato. Los resultados que hasta ahora se han observado son muy positivos. Como si no fuera suficiente, esta opción aparece igualmente en la cámara delantera y en la cámara trasera. ¿Cómo es el funcionamiento de la tecnología detrás de estas cámaras? Google mediante un post que aparece en su blog oficial, ofrece mayores detalles sobre el modo retrato de sus móviles últimos.

Dual Pixel sirve para algo más que para enfocar

 Las imágenes obtenidas son ligeramente distintas
Las imágenes obtenidas son ligeramente distintas

La salida más usada para precisar la profundidad de alguna imagen y crear así el efecto de este desenfoque es colocando las dos cámaras una vecina de la otra. Al tener cada una un punto de vista diferente, las imágenes que se obtienen son levemente diferentes. A través de la confrontación de ambas se establece la exacta profundidad de la foto. Dicho de otra manera, se establece el trayecto entre el sujeto y el fondo. En los Pixel no están presentes dos cámaras. Sin embargo, hacen uso de este principio con el que aprovechan el sistema que es el Dual Pixel. Término usado en alusión al sistema de enfoque resultado de la detección de fase.

Antes de iniciar con el señalado desenfoque, los conocidos Pixel 2 aplicando el modo HDR+  captan una foto realmente nítida. A través de un sistema de machine learning forma una máscara que permite deslindar el sujeto del fondo. Así lo vemos en la imagen de abajo. Pero, como señalan los ingenieros de Google, con sólo este método no se puede conocer la profundidad existente entre los elementos, por ello, la cámara no da la medida de desenfoque a aplicar.

 Los Pixel 2 capturan una foto totalmente nítida con el modo HDR+ y, mediante un sistema de machine learning, crea una máscara para distinguir el sujeto del fondo
Los Pixel 2 capturan una foto totalmente nítida con el modo HDR+ y, mediante un sistema de machine learning, crea una máscara para distinguir el sujeto del fondo

En este punto entra en el juego el sistema Dual Pixel que señalábamos anteriormente. En los Pixel 2 no hay dos cámaras ubicadas una al ladito de la otra. Lo que sí es que dividen en dos la lente. De tal manera que la mitad de la derecha crea una imagen y la otra que es la mitad de la izquierda genera otra levemente diferente. Aún cuando en cada caso el punto de vista se encuentre distanciado mediante menos de un milímetro esto es suficiente para aplicar el método de las cámaras propiamente duales.

Así es como Google logra una de las funciones estrella existente en las cámaras duales aún sin tener esta configuración. Pero, no existe un perfecto sistema. Google ofrece también consejos útiles para aprovechar al máximo esta función y poder alcanzar óptimos resultados. Algunas de estas indicaciones señalan estar muy cerca del sujeto que se va a fotografiar, que todos estén a igual longitud de la cámara en las fotos grupales o que hay suficiente distancia entre el sujeto y el fondo.

El mismo modo retrato de Pixel 2 funciona también en su cámara delantera y ella no posee tecnología Dual Pixel. De esta manera el trabajo es realizado a través de machine learning para distinguir la figura del fondo. Sin embargo, al no ser posible hacer la interpretación de la profundidad de igual modo, en la teoría no deberían ser muy buenos los resultados.  Lo comprobaremos cuando tengamos la oportunidad de revisarlo a fondo.

También te podría gustar...