Definição
Todos os dados em um sistema de computador consistem em informações binárias. ' Binário ' significa que existem apenas 2 valores possíveis: 0 e 1. O software de computador traduz entre as informações binárias e as informações com as quais você realmente trabalha em um computador, como números decimais, texto, fotos, som e vídeo. Informações binárias às vezes também são chamadas de linguagem de máquina, pois representam o nível mais fundamental de informações armazenadas em um sistema de computador.
Em um nível físico, os 0s e 1s são armazenados na unidade de processamento central de um sistema de computador usando transistores. Transistores são interruptores microscópicos que controlam o fluxo de eletricidade. Se uma corrente passar pelo transistor (a chave está fechada), isso representa um 1. Se uma corrente não passar (a chave está aberta), isso representa um 0.
As informações binárias também são transmitidas usando propriedades magnéticas; os dois tipos diferentes de polaridades são usados para representar zeros e uns. Um disco óptico, como um CD-ROM ou DVD, também armazena informações binárias na forma de fossos e terrenos (a área entre os fossos).
Não importa onde seus dados estão armazenados, todos os dados digitais no nível mais fundamental consistem em zeros e uns. Para dar sentido a essas informações binárias, é necessário um método de notação binária, também conhecido como código binário .
Notação Binária
Cada dígito binário é conhecido como um bit . Um bit só pode ser usado para representar 2 valores diferentes: 0 e 1. Para representar mais de dois valores, precisamos usar vários bits. Dois bits combinados podem ser usados para representar 4 valores diferentes: 0 0, 0 1, 1 0 e 1 1. Três bits podem ser usados para representar 8 valores diferentes: 0 0 0, 0 0 1, 0 1 0, 1 0 0, 0 1 1, 1 0 1, 1 1 0 e 1 1 1. Em geral, 'n' bits podem ser usados para representar 2 ^ n valores diferentes.
Considere o exemplo de representação dos números decimais de 0 a 10. Existem mais de 8 valores exclusivos para representar, o que, portanto, exigirá um total de 4 bits (já que 3 bits podem representar apenas 8 valores diferentes). A tabela mostra o equivalente binário para os números de 0 a 10. Este é um exemplo de notação binária padrão ou código binário.
![]() |
Para representar números maiores, você precisa de mais bits. Os computadores modernos usam uma arquitetura de 32 ou 64 bits. Isso representa o número máximo de dígitos binários que podem ser usados para representar um único valor. Um total de 32 bits pode ser usado para representar 2 ^ 32 valores diferentes. O equivalente em notação decimal é 4.294.967.295. Este é o maior número que pode ser usado sem resultar em problemas de arredondamento.
Quer ver o que isso realmente significa? Use um aplicativo de computador que funcione com números, como o Excel. Digite um número muito grande. Se o seu sistema operacional for de 32 bits, após 10 dígitos, os próximos dígitos serão arredondados para 0. Existem maneiras de contornar isso, mas o número de bits fornece um limite físico para quantos dígitos exclusivos podem ser armazenados em um único valor.
Codificação Binária
A mesma lógica usada para representar números pode ser usada para representar texto. O que precisamos é de um esquema de codificação, semelhante ao exemplo de notação binária para os números de 0 a 10. Quantos caracteres precisamos para representar o texto? O idioma inglês inclui 26 letras. Letras maiúsculas e minúsculas devem ser tratadas separadamente, o que resulta em 52 caracteres únicos. Também precisamos de caracteres para representar pontuação, dígitos numéricos e caracteres especiais.
Um conjunto básico pode precisar de apenas cerca de 100 caracteres ou mais, muito parecido com as teclas de um teclado, mas e os idiomas diferentes que usam um script diferente? Todos os personagens que queremos representar são conhecidos como um conjunto de caracteres . Vários conjuntos de caracteres padrão foram desenvolvidos ao longo dos anos, incluindo ASCII e Unicode.
O American Standard Code for Information Exchange (ASCII) foi desenvolvido a partir de códigos telegráficos, mas depois foi adaptado para representar texto em código binário nas décadas de 1960 e 1970. A versão original do ASCII usava 7 bits para representar 128 caracteres diferentes (2 ^ 7).
Os conjuntos de caracteres desenvolvidos posteriormente geralmente incorporam os mesmos 128 caracteres, mas adicionam mais caracteres usando a codificação de 8, 16 ou 32 bits. Esta tabela mostra um pequeno exemplo do conjunto completo de 128 caracteres ASCII.
![]() |
Embora o ASCII ainda esteja em uso hoje, o padrão atual para codificação de texto é Unicode . O princípio básico subjacente ao Unicode é muito semelhante ao ASCII, mas o Unicode contém mais de 110.000 caracteres, cobrindo a maioria das línguas impressas do mundo. A versão relativamente simples de 8 bits do Unicode (referido como UTF-8) é quase idêntica ao ASCII, mas as versões de 16 e 32 bits (referido como UTF-16 e UTF-32) permitem que você use quase qualquer caractere em qualquer idioma impresso.
Além de números e texto, o código binário também foi desenvolvido para armazenar outros tipos de dados, como fotografias, som e vídeo. Por exemplo, quando você amplia muito de perto uma fotografia digital, você começará a ver os pixels que compõem a fotografia.
Um único pixel possui uma cor, que normalmente é representada usando uma combinação de três valores de cores. Se você estiver usando cores de 8 bits, cada valor de cor pode ser um de 2 ^ 8 ou 256 valores exclusivos. Som, vídeo e outros tipos de dados podem ser divididos em código binário de maneira semelhante. Em última análise, todos os dados digitais consistem apenas em informações binárias.
Bits e bytes
Você provavelmente está familiarizado com o termo 'byte', como em gigabytes (GB) de memória ou capacidade de armazenamento. Bits e bytes são frequentemente confundidos, portanto, uma breve observação é necessária ao discutir bits e código binário. O que é um byte? Um byte consiste em 8 dígitos binários ou 8 bits. Historicamente, os sistemas de computador usavam 8 bits para codificar caracteres. ASCII é um exemplo de código binário de 7 bits, mas os conjuntos de caracteres mais recentes usam código binário de 8 bits (ou 16 ou 32 bits). Como resultado, 8 bits tornaram-se a unidade de armazenamento de dados e foi denominada byte - 1 byte armazena 1 caractere.
O símbolo de unidade para byte é 'B', mas é mais comum ver kilobyte (kB), megabyte (MB), gigabyte (GB) e terabyte (TB). Portanto, embora os bytes tenham sua origem na arquitetura de computador de 8 bits, os bytes agora são usados principalmente para descrever o tamanho dos componentes do computador, como unidades de disco rígido e memória de acesso aleatório (RAM).
A declaração '1 byte armazena 1 caractere' não é mais verdadeira para sistemas de caracteres de 16 bits e maiores, mas ajuda a entender a origem do termo 'byte' e sua relação com a capacidade de armazenamento.
Resumo da lição
Todos os dados digitais usados em sistemas de computador consistem em informações binárias , que contêm apenas 0s e 1s. Um único dígito binário é conhecido como bit . Cada bit 'n' pode ser usado para representar 2 ^ n valores diferentes. Por exemplo, se você estiver usando um sistema de codificação binária de 8 bits, isso significa que cada valor exclusivo é representado usando 8 bits, o que resulta em 2 ^ 8 ou 256 valores exclusivos.
Sistemas de codificação binária foram desenvolvidos para números, texto, imagens, vídeo, som e outros tipos de dados digitais. Os sistemas de codificação comumente usados para texto incluem ASCII e Unicode.
Código Binário - Termos Chave
![]() |
- Binário : apenas 2 valores possíveis: 0 e 1
- Linguagem de máquina : representa o nível mais fundamental de informação armazenada em um sistema de computador
- Transistores : interruptores microscópicos que controlam o fluxo de eletricidade
- Pits : forma em que as informações binárias são armazenadas em um disco óptico, como um CD-ROM ou DVD
- Terras : área entre os poços
- Código binário : um método de notação binária
- Bit : cada dígito binário
- Conjunto de caracteres : todos os personagens que queremos representar
- ASCII : Código padrão americano para intercâmbio de informações desenvolvido a partir de códigos telegráficos; adaptado para representar texto em código binário
- Unicode : o padrão atual para codificação de texto contém mais de 110.000 caracteres, cobrindo a maioria das línguas impressas do mundo
- Pixels : dados e código binário que compõem as fotografias digitais
- Bytes : consiste em 8 dígitos binários ou 8 bits
Resultados de Aprendizagem
Encerre a lição garantindo que você pode:
- Discuta o uso de linguagens binárias para computadores
- Identifique os fundamentos da notação binária
- Compare as diferenças entre as duas principais linguagens de codificação binária
- Distinguir entre bits e bytes