A exportação de um vídeo de 4k em 1080p ou 1440p será melhor do que uma filmagem que foi filmada nativamente em 1080p ou 1440p?
Observações para A2A.
Na maioria dos casos, tecnicamente poderia parecer melhor. A principal razão para isso é uma combinação do efeito do filtro Bayer, com subamostragem de croma, que produz uma imagem bastante suave, quando comparada com o que você obteria de um filme de 4k raw scan, onde todos os pixels são pixels reais. A questão é: qual seria o meio de destino e o codec. Se você estiver fazendo isso para vídeo web com baixa largura de banda, na maioria dos casos seus espectadores não verão a diferença.
Ao falar sobre sistemas high end que reproduzem a realidade corretamente e comparações pSNR/resolução para apenas redimensionar as imagens de 4k para 1080p, então sim, nesse conjunto finito de regulamentos você obterá uma melhor qualidade conhecida como resolução, pSNR, contraste, mas principalmente, nitidez e resolução de cores. Isso seria, em um assunto de teste.
Mas é aí que a vida entra em ação! Nós somos apenas mamíferos com um sistema de visão bastante pobre. Vemos principalmente uma imagem nítida e correcta no centro do campo, falta-nos resolução de cor, percebemos movimento mais forte do que a subtileza, raios, mais forte do que a textura. Mas somos bastante bons em rostos. E as imagens estão em movimento.
Os algoritmos de compressão fazem o seu trabalho. Eles apenas deixam o que é necessário (luma, algum movimento) para o olho humano ficar satisfeito com os resultados e descartar tudo o resto.
P>Primeiro, a informação de cor é descartada. Para poupar alguma largura de banda/espaço, a informação das cores é perdida, na maioria dos casos apenas um quarto de se é deixado - veja subamostragem Chroma - Wikipedia .
Os codecs de vídeo mais usados na Internet hoje em dia estão a empregar um esquema de compressão de cores 4:2:0, e raramente alguém reclama. Mas eles são deixados com resolução de cores 960x540 efetiva! Assim, fotografar 4k permite obter uma melhor saída - porque mesmo que você tenha uma filmagem 4k 4:2:0 , ela poderia teoricamente ser processada em HD 4:4:4, pois o quarto de uma informação de cor da câmera 4k seria apenas o suficiente para reter informações completas de cor em HD. Mais uma vez, isso faz sentido apenas para algum processamento posterior de alto nível. Para colocar isso no Youtube, isso seria uma perda de tempo e recursos (filmagem em disco, poder de processamento, largura de banda usada para enviar isso online e tempo). Porquê? Porque o Youtube/Vimeo irá recomprimir isso no espaço 4:2:0 e tudo será perdido novamente. O mesmo acontece com outras plataformas.
Quando você observa isso em uma tela grande com projeção decente em um bom ambiente de observação, você pode sentir uma diferença de qualidade, mas quando observa isso em dispositivos móveis e laptops, a maioria das pessoas não vai notar.
Outra coisa é perda de resolução. Devido à guerra de patentes/economia em conjunto com a ciência, nós pousamos com apenas um terço dos pixels reais. Sim, a interpolação da Bayer faz isso, mas o resultado é a perda de nitidez. Para mitigar isso, disparar o sensor de 4k bayer e reduzi-lo para 1080p traz bons resultados.
Então, mais uma vez, tudo faz sentido para qualquer coisa com qualidade real em mente. Se você está considerando usar uma câmera de consumo 4k com sensor pequeno e construído em óptica, as propriedades físico-ópticas de tal conjunto podem limitar os ganhos provenientes da captura do 4k.
Codificação Avançada de Vídeo - Wikipedia
Relação sinal/ruído - Wikipedia
Filtro Bayer - Wikipedia
Interpolação Bayer por Ken Rockwell (bons exemplos)
Subamostragem de Croma - Wikipedia