O que é melhor, 36 bits por pixel ou 24?
Eu diria 24. Aqui está porque.24 bits de cor significa 8 bits cada para os canais R, G, e B. (Às vezes ele vai até 32, com o quarto byte designando o canal alfa, que codifica a transparência da imagem, mas não vamos considerar isso). Isso significa que cada pixel pode ter 256*256*256=16777216 cores. Sim, quase 17 milhões. Isso é um monte de cores, mais do que o olho humano médio pode distinguir.
Contraste que com cores de 36 bits. O primeiro problema é que o processamento de 36 bits é uma relíquia dos anos 60 e 70 e nunca foi uma coisa comum para microprocessadores; você realmente só vê isso na emulação de sistemas como o DEC PDP-10, que é um nicho bonito de retrocomputação. O segundo é que, assumindo que você não está usando um canal alfa, você está fazendo 12 bits para cada cor primária; isso é 2^36=68719476736. Você não precisa de 70 bilhões de cores. Nenhum olho humano pode resolver 70 bilhões de cores. Mesmo se você dividi-lo em quatro canais, três bytes de nove bits ainda é obviamente mais do que você vai precisar.
Curta uma longa história, por que desperdiçar a memória para algo que seus olhos não podem usar?
Artigos semelhantes
- Por que HDR é apenas 8+2 bits = 10 bits, não 8*4=32 bits quando 4K = Full HD x4 pixels?
- Por que alguns laptops são pré-instalados com SO de 32 bits quando eles são capazes de 64 bits?
- Um áudio de 16 bits ou 24 bits é melhor?
- Podemos instalar um software de 32 bits em um SO de 64 bits?
- Você consegue ouvir a diferença de qualidade entre arquivos de música de 24 bits e 32 bits 192khz?