Qual é a diferença entre 4k HDR e 4k?
(Assumindo UHD, como HDR é uma coisa UHD/Rec.2020, não 4K/cinema)
TL;DR: HDR = 12-bit por componente, EDR=10-bit por componente, não marcado = desconhecido ou 8-bit por componente.
HDR significa High Dynamic Range. Tecnicamente, refere-se ao número de bits por pixel. O número de bits (bits por componente) é essencialmente o número de passos entre off e on para cada componente (vermelho, azul, verde) que fazem os pixels na tela. Cada bit duplica o número de passos. Pense nisto como um interruptor de luz. A maioria dos interruptores de luz são de 1 bit: a luz está 100% ligada ou 100% desligada. Digamos que havia um dimmer que tinha 2 ajustes entre ligar e desligar: 33% e 66%. Agora você tem 4 configurações: apagado, 33% aceso (dim), 66% aceso (brilhante), 100% aceso (mais brilhante). Quatro configurações são 2 bits. Com uma imagem de 8 bits, há 256 posições no dimmer.
HD era suposto ser de 10 bits. O equipamento profissional era maioritariamente de 10 bits. Os aparelhos de TV de consumo eram normalmente de 8 bits ou 6 bits. Para um componente em um pixel, uma tela de 10 bits tem 1024 passos, incluindo ligar e desligar. Uma tela de 6 bits tem apenas 64 passos.
UHD era suposto ser de 12 bits. (4096 passos). No entanto, os fabricantes reclamaram que era muito caro construir telas de 12 bits, então eles começaram a fazer TVs UHD de 8 bits. Muitos fabricantes lançaram agora alguns modelos mais avançados com ecrãs de 10 bits. AFAIK, nenhum deles lançou um monitor de 12-bit.
Currentemente no mercado de UHD existem TVs que são de 8-bit e 10-bit (e alguns monitores profissionais que são de 12-bit). Mas o conteúdo tem que ser criado com a mesma profundidade de bits, ou não há benefício para uma TV com maior profundidade de bits. O conteúdo marcado com HDR é codificado com (uma espécie de) 12 bits por componente, EDR ou HDR10 - (obrigado Ryan) a 10 bits por componente, e se diz apenas 4K ou UHD, a profundidade de bits é desconhecida, mas provavelmente é de 8 bits, especialmente se estiver a utilizar o codec AVC (MPEG4). Para o conteúdo, é bastante direto. Para TVs, existem sites que testam os painéis e relatam a profundidade de bits. Rótulos como "HDR Ready" num televisor normalmente significam que as entradas HDMI aceitarão um sinal HDMI HDR, mas o ecrã não é um ecrã HDR... o televisor deita fora os passos extra.
Artigos semelhantes
- Qual é a diferença entre HD, HDR, Full HD, UHD, Quad HD e HDR 10+ em TVs/smartphones?
- Qual é a diferença entre um televisor LED inteligente Full HD & HDR?
- Qual é a diferença entre HDR e full HD?
- Qual é a diferença entre HDR e Ultra HD 4K em Netflix?
- Qual é a diferença entre HDR, P3, Rec. 709, e Rec. 2020? Como isso afeta os monitores que estamos usando, tais como OLED, IPS, LED e LCD?