Casa > C > Como É Que O Google Pixel 2 'Divide Pixels' Para Corresponder Ao Desempenho Fotográfico De Outros Smartphones Com Duas Câmeras?

Como é que o Google Pixel 2 'divide pixels' para corresponder ao desempenho fotográfico de outros smartphones com duas câmeras?

O propósito original dos dois pixels, voltando às primeiras DSLRs Canon que o utilizavam, é o foco automático de detecção de fase. O PDAF diz-lhe a direcção e magnitude que você're off focus. Isso'é o que faz com que seja rápido focar. Para fotografia normal, isto faz com que o Google tenha uma focagem automática rápida e precisa.

Para fotografias de retrato per se - uma lente mais longa para características faciais mais lisonjeiras - o Pixel 2 não se compara a dois dispositivos de câmara. Em praticamente todos os casos, essa segunda câmera é mais lenta na abertura e baseada em um chip menor, por isso é de uso limitado com pouca luz. Mas em boa luz, é uma vantagem sobre uma única boa câmara.

main-qimg-e36e5050cba1888de2e8822af637dccc.webp

Profundidade de campo baixa com uma câmara real.

A outra coisa é este truque de fotografia computacional que's é usado por vezes com uma empresa's "modo retrato", o truque da "profundidade de campo baixa". Esse's é um esforço para embaçar o fundo e possivelmente o primeiro plano, da mesma forma que uma lente de abertura realmente larga irá em uma câmera de grande-sensor. Esta é uma técnica criativa usada pelos fotógrafos para isolar o sujeito do fundo, e é's impossível de fazer naturalmente em um telefone, devido principalmente às lentes muito curtas, geralmente 4-5mm, usadas em câmeras telefônicas. Eles conseguem praticamente tudo em foco em uma foto típica de retrato à distância, provavelmente menos de um metro até o infinito.

O esforço mais sutil, e um que está sendo introduzido mais comumente no software do telefone, é tentar recriar "bokeh", uma certa qualidade das partes desfocadas da imagem. Tem havido bastante trabalho sobre isto, tentando modelar o aspecto de pontos de luz fora de foco, etc.

As versões mais antigas deste tentaram analisar a imagem e analisar o assunto versus o fundo. Estas por vezes funcionaram, e por vezes falharam de forma cómica e espectacular. Os sistemas mais recentes funcionam todos baseados num mapa de profundidade. Usando duas câmeras, a diferença entre as duas imagens capturadas com cada câmera, chamada paralaxe, pode ser usada para determinar a profundidade. O Google está usando suas informações PDAF para construir este mapa de profundidade.

De acordo com o Google, seu método de duplo pixel não é tão bom quanto alguns dos métodos da paralaxe. Eles também incorporam IA na fotografia de retrato. Eles têm uma IA bastante sofisticada que pode descobrir sujeitos humanos para ajudá-los a isolá-los. Para sujeitos não humanos, eles só dependem do mapa de profundidade de duplo pixel e ainda fazem muito bem.

Leia Mais

https://ai.googleblog.com/2017/10/portrait-mode-on-pixel-2-and-pixel-2-xl.html

Beautiful blur for smartphone portraits: Como funciona o efeito bokeh - AndroidPIT

De Cut Tayloriii

Qual é a forma mais rápida de carregar um iPhone? :: Como reproduzir filmes em LG TV usando uma porta USB