Se o full HD (1920x1080) é apenas 2,1 megapixel, então o que faz o resto dos pixels quando um vídeo é gravado de, digamos, uma câmera de 10MP?
Existem realmente algumas possibilidades.
Se o seu sensor estiver demasiado próximo do formato de vídeo, a câmara pode cortar. Por exemplo, a Canon faz DSLRs que fazem vídeo de 4K (4096 x 2160 ou 3840 x 2160), que é cerca de uma imagem de 8 megapixels. Isso parece distante, mas considere que a imagem da câmera é de 3:2, enquanto o quadro de vídeo geralmente é de 16:9. ou O 1D X tem um sensor de 18 megapixels, o 5D Mark IV tem um sensor de 30 megapixels, e essas câmeras fazem um corte reto. Isso significa que, no modo 4K, o Mark IV 5D tem um recorte de 1,72x.
Em algumas câmeras, particularmente câmeras com sensores analógicos mais antigos, apenas parte do sensor é usada. Esses chips não eram suficientemente rápidos para fornecer uma imagem completa de 18 ou 24 megapixels em velocidades de vídeo, portanto, eles só entregam a cada segunda ou terceira linha da imagem. A linha inteira é enviada e reduzida para a resolução necessária para o modo de vídeo em questão. O processamento da imagem só precisa ocorrer em cada linha específica de imagem que está indo para o vídeo final, não está fundindo várias em uma só. Isso é menos computacionalmente intensivo, mas não vai parecer tão bom.
Quando há múltiplos específicos de pixels ou muitos pixels extras, outras opções estão disponíveis. Vamos considerar uma câmera de 12 megapixels filmando vídeo HD. A resolução nominal de um sensor de 12 megapixels 4:3 é de 4000 x 3000 pixels, mas a maioria dos vídeos quer uma relação de aspecto de 16:9. Se definirmos um corte de 3840 x 2160, poderíamos ter um quadro reto de 4K, mas isso também é fácil e útil para se transformar em um quadro HD via pixel binning.
Back in the days of small-sensor camcorders, uma boa câmera de vídeo tinha três sensores, com um prisma diacróico que dividia as cores em vermelho, verde e azul. Em câmeras com sensores grandes e praticamente todas as câmeras ainda fixas, há um único sensor com uma matriz de cores padrão Bayer. Quando você fotografa uma imagem normal, o software da sua câmera faz interpolação de cores.
No entanto, vamos olhar para o nosso corte... temos aquele corte 3840 x 2160, quase o quadro completo, indo para um quadro de vídeo de 1920 x 1080... são quatro chips pixels por pixel de vídeo. Então nós em essência "bin" um vermelho, dois verdes, e um azul pixel neste único pixel de vídeo. Isso elimina os erros de cor de borda que você obtém com o Bayer de-matrixing, e na verdade é menos computacionalmente intensivo, como não há interpolação a fazer.
E finalmente, vamos pegar uma câmera como a Sony A7R Mark II, que tem um sensor de 42 megapixels, 7952 x 5304 pixels. Se você cortar para 7952 x 4473, isso é 16:9 e ainda 35,6 megapixels, entrando em uma imagem que é 8 ou 2 megapixels, nominalmente. Usando algoritmos modernos de redimensionamento de imagem, a imagem inteira é redimensionada, com muito boa qualidade. Enquanto tecnicamente, o downrezzing pode ser usado em qualquer câmera, quando sua imagem original está muito próxima do tamanho da imagem final, o downrezzing não vai ficar bem - você está melhor cortando 1:1.
Cada vez mais, pode não ser uma coisa qualquer. Algumas câmeras têm várias opções de corte por vídeo. Se você estiver filmando esportes, por exemplo, você pode querer um pouco de aumento. Várias câmeras com quadro completo podem, pelo menos, dar-lhe um recorte de imagem no modo APS-C, que é então redimensionado para a opção de vídeo selecionada. Outras dão-lhe uma variedade de opções de recorte, com a possibilidade de saltar linhas, píxeis, ou de reduzir o tamanho junto com isso.