Casa > O > O Que É Melhor, 36 Bits Por Pixel Ou 24?

O que é melhor, 36 bits por pixel ou 24?

Eu diria 24. Aqui está porque.

24 bits de cor significa 8 bits cada para os canais R, G, e B. (Às vezes ele vai até 32, com o quarto byte designando o canal alfa, que codifica a transparência da imagem, mas não vamos considerar isso). Isso significa que cada pixel pode ter 256*256*256=16777216 cores. Sim, quase 17 milhões. Isso é um monte de cores, mais do que o olho humano médio pode distinguir.

Contraste que com cores de 36 bits. O primeiro problema é que o processamento de 36 bits é uma relíquia dos anos 60 e 70 e nunca foi uma coisa comum para microprocessadores; você realmente só vê isso na emulação de sistemas como o DEC PDP-10, que é um nicho bonito de retrocomputação. O segundo é que, assumindo que você não está usando um canal alfa, você está fazendo 12 bits para cada cor primária; isso é 2^36=68719476736. Você não precisa de 70 bilhões de cores. Nenhum olho humano pode resolver 70 bilhões de cores. Mesmo se você dividi-lo em quatro canais, três bytes de nove bits ainda é obviamente mais do que você vai precisar.

Curta uma longa história, por que desperdiçar a memória para algo que seus olhos não podem usar?

De Howenstein Cardono

O que é a física por trás da arma do portal do Rick Sanchez? :: Como afiar uma lâmina de barbear reta