Como é que o Google Pixel 2 'divide pixels' para corresponder ao desempenho fotográfico de outros smartphones com duas câmeras?
O propósito original dos dois pixels, voltando às primeiras DSLRs Canon que o utilizavam, é o foco automático de detecção de fase. O PDAF diz-lhe a direcção e magnitude que você're off focus. Isso'é o que faz com que seja rápido focar. Para fotografia normal, isto faz com que o Google tenha uma focagem automática rápida e precisa.
Para fotografias de retrato per se - uma lente mais longa para características faciais mais lisonjeiras - o Pixel 2 não se compara a dois dispositivos de câmara. Em praticamente todos os casos, essa segunda câmera é mais lenta na abertura e baseada em um chip menor, por isso é de uso limitado com pouca luz. Mas em boa luz, é uma vantagem sobre uma única boa câmara.
Profundidade de campo baixa com uma câmara real.
A outra coisa é este truque de fotografia computacional que's é usado por vezes com uma empresa's "modo retrato", o truque da "profundidade de campo baixa". Esse's é um esforço para embaçar o fundo e possivelmente o primeiro plano, da mesma forma que uma lente de abertura realmente larga irá em uma câmera de grande-sensor. Esta é uma técnica criativa usada pelos fotógrafos para isolar o sujeito do fundo, e é's impossível de fazer naturalmente em um telefone, devido principalmente às lentes muito curtas, geralmente 4-5mm, usadas em câmeras telefônicas. Eles conseguem praticamente tudo em foco em uma foto típica de retrato à distância, provavelmente menos de um metro até o infinito.
O esforço mais sutil, e um que está sendo introduzido mais comumente no software do telefone, é tentar recriar "bokeh", uma certa qualidade das partes desfocadas da imagem. Tem havido bastante trabalho sobre isto, tentando modelar o aspecto de pontos de luz fora de foco, etc.
As versões mais antigas deste tentaram analisar a imagem e analisar o assunto versus o fundo. Estas por vezes funcionaram, e por vezes falharam de forma cómica e espectacular. Os sistemas mais recentes funcionam todos baseados num mapa de profundidade. Usando duas câmeras, a diferença entre as duas imagens capturadas com cada câmera, chamada paralaxe, pode ser usada para determinar a profundidade. O Google está usando suas informações PDAF para construir este mapa de profundidade.
De acordo com o Google, seu método de duplo pixel não é tão bom quanto alguns dos métodos da paralaxe. Eles também incorporam IA na fotografia de retrato. Eles têm uma IA bastante sofisticada que pode descobrir sujeitos humanos para ajudá-los a isolá-los. Para sujeitos não humanos, eles só dependem do mapa de profundidade de duplo pixel e ainda fazem muito bem.
Leia Mais
https://ai.googleblog.com/2017/10/portrait-mode-on-pixel-2-and-pixel-2-xl.html
Beautiful blur for smartphone portraits: Como funciona o efeito bokeh - AndroidPIT
Artigos semelhantes
- O desempenho de um processador ARM pode corresponder ao de um processador x86 no futuro?
- Num powerbank móvel, nota-se que tem duas portas e fornece duas saídas diferentes 5v/1A e 5v/2.1A? Será que a saída em duas portas será a mesma?
- Por que as indústrias de smartphones estão indo atrás do número de câmeras e não na qualidade das câmeras dos telefones celulares recentes?
- Por que as empresas de smartphones não usam uma lente maior em suas câmeras em vez de adicionar 3 ou mais câmeras?