Por que HDR é apenas 8+2 bits = 10 bits, não 8*4=32 bits quando 4K = Full HD x4 pixels?
A pergunta parece confundir o tamanho da imagem com a profundidade do bit da imagem.
A profundidade do bit é o número de bits transportados para cada componente de cor (Vermelho, Verde, Azul) para cada pixel. Mais pixels por imagem não significa mais bits por pixel.
Tamanho de imagem
UltraHD 4K tem 4x o número de pixels de Full HD. Mas 4k ainda pode ter 8 bits de profundidade.
Profundidade de bits
Ambos 4K e Full HD podem ter 10 bits por componente de cor.
8 bits por componente de cor, ou seja, 256 tonalidades de cor por componente, foi considerado suficiente para o HD. Muito poucos espectadores vêem bandas (faixas no céu, etc.) em 8 bits de conteúdo HD. Com alguma prática, você também pode ver a bandagem em conteúdo sem ruído. Não confundir com artefatos de compressão que também podem causar banding.
UHD 4K (e algumas variantes de HD) vem com um modo para carregar e exibir cores mais profundas ou mais coloridas, "Wide Color Gamut", WCG. Como os verdes mais profundos, cian.
Para NÃO criar bandas neste novo sistema WCG, ainda precisamos de 256 tonalidades de cor para carregar as "cores antigas". Para carregar mais tons de cor, precisamos de mais bits por componente. Adicionar mais um bit nos permite carregar 512 valores por componente de cor. Os valores extra podem agora ser atribuídos a essas novas cores profundas. Vale notar que mais um bit (de 8 a 9) seria suficiente para o UHD, pois dobraria o número de cores disponíveis por componente. Mas os engenheiros de vídeo preferem trabalhar com números pares, por isso temos 10 bits.
Alguns conteúdos usam 12 bits ou mais, especialmente em masterização. Isto pode parecer excessivo, mas observadores críticos podem ver banding em algum conteúdo com menos bits. E ter mais bits significa menos chance de causar banding ao classificar as cores do vídeo no estúdio.