Casa > 1 > 10-Bit Bytes: Não Seria Grande Se A Definição Ubíqua De "Byte" Significasse 10 Bits Em Vez De 8?

10-bit bytes: Não seria GRANDE se a definição ubíqua de "byte" significasse 10 bits em vez de 8?

Você poderia fazer um caso de que seria um desperdício. Grande parte do que armazenamos e transmitimos digitalmente é texto legível por humanos. Como a gama completa de caracteres alfanuméricos e de pontuação está (na sua maioria) adequadamente representada na capacidade de um byte de 8 bits, armazenar ou transmitir os dois bits extra sem qualquer propósito seria um desperdício.

I can't cite quaisquer referências, mas se eu tivesse que adivinhar, esta premissa provavelmente tem muito a ver com a base para o byte de 8 bits. Algumas das primeiras comunicações digitais foram feitas através de teletipos que transmitiam texto em série. Eles eram incrivelmente lentos pelos padrões modernos, e nem mesmo tão rápidos pelos padrões do dia (50 baud era um padrão). Eles usavam dados de 7 bits, porque isso era adequado para representar os conjuntos de caracteres que transmitiam. Mais tarde, os padrões ASCII e EBCDIC expandiram isso para 8 bits. Sim, eu sei que os conjuntos de caracteres modernos são de natureza multibyte, mas ainda há uma enorme quantidade de dados armazenados e transmitidos em representação de bytes únicos.

No projeto e fabricação da lógica digital, uma das premissas é que você pode dobrar a capacidade de um bloco lógico simplesmente usando dois de alguns componentes existentes que compõem o bloco. Isto promove a escalabilidade sem redesenho. A duplicação de blocos lógicos resulta na evolução natural para potências de dois em tamanhos de componentes de projeto.

Se eu tivesse que adivinhar, os dois fatores acima são provavelmente a base principal para a existência do byte de 8 bits como o padrão que usamos hoje.

De Paapanen

Importa qual a porta HDMI que eu uso para 4k? :: O Honor Play 9A é um bom smartphone?