A invenção do bit: a partícula fundamental da informação

Quem diria que uma idéia tão simples envolveria uma revolução de implicações ainda em constante desenvolvimento. Quem diria que uma abordagem tão maniqueísta como sim ou não, preto ou branco, verdadeiro ou falso acabaria sendo o fundamento da comunicação do futuro. Este é o átomo da informação. Bit.

Em 1948, Laboratórios Bell anunciou a criação do bit, uma unidade para medir informações. Seu inventor tinha 32 anos e seu nome era Claude Shannon, um tipo de biografia fascinante que um dia espero explicar em profundidade. A ideia de Shannon era contra-intuitiva e revolucionária: segundo ele, as mensagens nem sempre fazem sentido e são ou não "aspectos semânticos da comunicação ... irrelevantes para o problema de engenharia".

Graças a Shannon, então, o bit (sigla que significa "dígito binário") é a menor unidade possível de informações em computação digital. Na computação, a menor unidade indivisível possível é um pulso elétrico simples, que pode representar 1 ou 0. Enquanto dez dígitos são usados ​​no sistema de numeração decimal, apenas dois dígitos são usados ​​no binário. Todos os dados armazenados em um computador são compostos por números binários. A origem do termo "dígito binário" é atribuída a John tukey, um cientista que trabalhou nos Laboratórios Bell e os usou pela primeira vez em 1947.

O bit é uma partícula fundamental de uma espécie diversa: não é apenas minúsculo, mas também abstrato: um dígito binário. Construindo pontes entre a física do século XX e a do século 21, John Archibald Wheeler, o último colaborador restante de Einstein e Bohr (falecido em 2008), disse “It from Bit”, ou seja, dos bits, das informações, “todo“ isso ”sai, toda partícula, todo campo de força” Isso pode existir no mundo.

Afinal, informação (e consequentemente conhecimento) consiste apenas em uma seleção entre várias alternativas possíveis. Como ele explicou George miller:

Um pouco de informação é a quantidade de informações que precisamos para tomar uma decisão entre duas alternativas com o mesmo grau de probabilidade. Se tivermos que decidir se um homem tem menos de oitenta ou mais de oitenta e se soubermos que as probabilidades são 50-50, precisamos de um pouco de informação (...) Dois bits de informação nos permitem decidir entre quatro alternativas com o mesmo grau de probabilidade. Três bits de informação nos permitem decidir entre oito alternativas com o mesmo grau de probabilidade. (…) Se existem 32 alternativas com o mesmo grau de probabilidade, devemos tomar 5 decisões binárias sucessivas, cada uma delas um pouco, antes de saber qual alternativa é a correta.

Em outras palavras: Cada vez que o número de alternativas aumenta em um fator de dois, um pouco de informação é adicionada. O número 255 em binário, por exemplo, é 11111111.

No filme Tron, um bit é representado por uma forma poliédrica branca que é um composto de dodecaedro e icosaedro. Você pode apenas dizer "sim" (Ativado) e "não" (desativado).

Não devemos confundir bits com bytes. Se os bits são a menor unidade "física" de informação, os bytes são a menor unidade "lógica" de informação, equivalente a um caractere (letra ou símbolo). Um bit não tem um significado prático, enquanto um byte, pois é um caractere, letra ou símbolo. Um byte consiste em 8 bits ou pulsos elétricos. Portanto, na computação, a quantidade de caracteres de texto que podem ser armazenados neles é tomada como uma unidade de medida para a capacidade de armazenamento de dispositivos como disco rígido ou memória. Assim, um disco rígido com capacidade de armazenamento de 500 gigabytes pode armazenar até 500.000.000.000 (500.000 milhões) de caracteres ou bytes.

Mas por que um bit tem oito bytes. A decisão foi arbitrária, mas há vários motivos que o impulsionaram, como afirma Yobioit:

* A principal razão é que, a partir da década de 1970, os 8 bits se tornaram o denominador menos comum da ciência da computação; onde os microprocessadores eram 8 bits; Isso significa que eles podem processar 8 bits simultaneamente em um determinado momento. Com o tempo, começaram a aparecer microprocessadores capazes de processar 16 bits simultaneamente, depois 32 bits, 64 bits e, eventualmente, 128; todos os múltiplos de 8. Havia também microprocessadores de 18 e 36 bits, mas eles deixaram de ser fabricados, popularizando os múltiplos de 8.
* Os primeiros microprocessadores comerciais da década de 1970 eram de 4 bits, ou seja, podiam processar 4 bits simultaneamente, em um determinado momento; mas na segunda metade da década, as de 8 bits começaram a se popularizar quando empresas como IBM e Apple começaram a vender computadores pessoais.
* Na década de 1970, as placas de circuito e os periféricos ainda eram caros; portanto, a tecnologia de 8 bits continuou sendo usada; no qual eles poderiam ser transportados de um dispositivo para outro (por exemplo, do microprocessador para a memória ou da memória para a placa de vídeo) 8 bits simultaneamente. Mesmo quando os primeiros microprocessadores comerciais de 16 bits (que podiam processar 16 bits simultaneamente) foram desenvolvidos, quando os referidos bits ou pulsos elétricos viajaram ao longo das linhas de dados para a memória, o fizeram em 8 simultaneamente; para reduzir os custos de material do circuito.
* Nos anos 60, o conjunto de caracteres ASCII de 7 bits (128 caracteres) era um novo padrão; mas quando foi aceito internacionalmente, já havia muitas variantes. Na década de 1960, a IBM introduziu o conjunto de caracteres EBCDIC de 8 bits. No final da década de 1970, pensava-se que o UNIX se tornaria o sistema operacional dominante; A linguagem de programação UNIX, para desenvolver os diferentes aplicativos para esse sistema operacional, era C, que exigia um conjunto de caracteres de 8 bits. No entanto, o sistema operacional que acabou sendo mais popular foi o PCDOS ou MS-DOS, que também usava um conjunto de caracteres de 8 bits, uma versão estendida de 256 caracteres do padrão ASCII. Depois, com a chegada do Windows, que usava a mesma estrutura do DOS, o conjunto de caracteres foi continuado e, portanto, o byte de 8 bits.
* Nas telecomunicações, com o desenvolvimento da telefonia digital no início dos anos 60, o sistema de 8 bits foi padronizado, no qual os dados transmitidos eram de 8 bits ou pulsos elétricos. Este sistema foi, décadas mais tarde, adotado e desenvolvido pelas modernas redes de comunicação, incluindo a Internet.