História dos Computadores
Um computador é uma máquina eletrônica que aceita informações, as armazena, processa de acordo com as instruções fornecidas por um usuário e, em seguida, retorna o resultado. Hoje, consideramos os computadores um dado adquirido e eles se tornaram parte de nossas atividades diárias. Embora os computadores como os conhecemos hoje sejam relativamente recentes, os conceitos e ideias por trás dos computadores têm um pouco de história – é hora de um tour rápido de como chegamos à era do e-mail, YouTube e Facebook.
Primeiros dispositivos de computação
As tentativas dos humanos de desenvolver uma ferramenta para manipular dados datam de 2.600 aC, quando os chineses inventaram o ábaco. A régua de cálculo foi inventada em 1621 e permaneceu amplamente usada até o surgimento das calculadoras eletrônicas na década de 1970. Ambos os exemplos dos primeiros dispositivos eram mecânicos e em escala humana.
Em 1830, o matemático inglês Charles Babbage concebeu uma máquina analítica , que podia ser programada com cartões perfurados para realizar cálculos. Era diferente de seus predecessores porque era capaz de tomar decisões com base em seus próprios cálculos, como controle sequencial, ramificação e loop. Quase todos os computadores em uso hoje seguem essa ideia básica apresentada por Babbage, e é por isso que ele é freqüentemente referido como ‘o pai dos computadores’. O mecanismo analítico era tão complexo que Babbage nunca foi capaz de construir um modelo funcional de seu projeto. Foi finalmente construído mais de 100 anos depois pelo Museu de Ciência de Londres.
Os primeiros computadores eletrônicos
Muitos tipos diferentes de dispositivos mecânicos seguiram-se com base na ideia do motor analítico. Os primeiros computadores eletrônicos foram desenvolvidos por Konrad Zuse na Alemanha no período de 1935 a 1941. O Z3 foi o primeiro computador digital funcional, programável e totalmente automático. O original foi destruído na Segunda Guerra Mundial, mas uma réplica foi construída pelo Deutsches Museum em Munique. Como seus dispositivos implementaram muitos dos conceitos que ainda usamos nos computadores modernos, Zuse é frequentemente considerado o ‘inventor do computador’.
Na mesma época, os britânicos construíram o computador Colossus para quebrar os códigos alemães criptografados para o esforço de guerra, e os americanos construíram o Analisador e Computador Integrador Numérico Eletrônico, ou ENIAC. Construído entre 1943 e 1945, o ENIAC pesava 30 toneladas e tinha 30 metros de comprimento e 2,5 metros de altura. Tanto o Colossus quanto o ENIAC dependiam muito de tubos de vácuo, que podem funcionar como uma chave eletrônica que pode ser ligada ou desligada muito mais rápido do que chaves mecânicas, que eram usadas até então. Os sistemas de computador que usam tubos de vácuo são considerados a primeira geração de computadores.
Tubos de vácuo, no entanto, consomem grandes quantidades de energia, transformando um computador em um forno. O primeiro transistor semicondutor foi inventado em 1926, mas somente em 1947 foi desenvolvido em um transistor de estado sólido confiável para uso em computadores. Semelhante a um tubo de vácuo, um transistor controla o fluxo de eletricidade, mas tinha apenas alguns milímetros de tamanho e gerava pouco calor. Os sistemas de computador que usam transistores são considerados a segunda geração de computadores.
Demorou alguns anos para a tecnologia do transistor amadurecer, mas em 1954 a empresa IBM lançou o 650, o primeiro computador produzido em massa. Os computadores de hoje ainda usam transistores, embora sejam muito menores. Em 1958, tornou-se possível combinar vários componentes, incluindo transistores e os circuitos que os conectam em uma única peça de silício. Este foi o primeiro circuito integrado. Os sistemas de computador que usam circuitos integrados são considerados a terceira geração de computadores. Os circuitos integrados levaram aos processadores de computador que usamos hoje.
Computadores pessoais
Os computadores tornam-se rapidamente mais poderosos. Em 1970, tornou-se possível espremer todos os circuitos integrados que fazem parte de um único computador em um único chip chamado microprocessador. Os sistemas de computador que usam microprocessadores são considerados a quarta geração de computadores.
No início da década de 1970, os computadores ainda eram usados principalmente por grandes corporações, agências governamentais e universidades. O primeiro dispositivo que poderia ser chamado de computador pessoal foi lançado em 1975. O Altair 8800 foi fabricado pela Micro Instrumentation and Telemetry Systems. Ele incluía um processador Intel 8080 e 256 bytes de memória. Não havia teclado e, em vez disso, programas e dados eram inseridos usando interruptores. Não havia monitor e, em vez disso, os resultados foram lidos interpretando um padrão de pequenas luzes vermelhas.
Este computador era usado principalmente por amadores e hackers que desmontavam os dispositivos e construíam os seus próprios. Dois desses hackers, Stephen Jobs e Steve Wozniak, criaram um computador pessoal em 1976 que tinha teclado, tela e armazenamento em disco. Eles o chamaram de Apple I. Na mesma época, dois outros hackers, Bill Gates e Paul Allen, começaram a desenvolver software para o Altair 8800 e fundaram a Microsoft.
Outros sistemas de computador foram desenvolvidos pela Radio Shack and Commodore. A próxima descoberta veio em 1981, quando a IBM decidiu criar o computador pessoal ou PC. Feito principalmente com componentes já existentes, o IBM PC tornou-se um produto de mercado de massa em parte porque o design foi disponibilizado para outros fabricantes. O sistema operacional do IBM PC era o MS-DOS da Microsoft.
A década de 1980 viu um rápido crescimento no uso de sistemas de computador. Em meados da década de 1980, a Apple e a Microsoft lançaram sistemas operacionais com uma interface gráfica de usuário. Foi quando os computadores pessoais começaram a se parecer muito mais com os dispositivos que usamos hoje. Desde então, houve inúmeros avanços tecnológicos e os computadores tornaram-se mais fáceis de usar, mais robustos e muito mais rápidos, mas os fundamentos de como os computadores pessoais funcionam foram desenvolvidos neste período, por volta de 1970 a 1985.
Tendência em poder de processamento
Um desenvolvimento chave na computação foi o crescimento da capacidade de processamento. Os computadores modernos usam transistores , que são interruptores microscópicos que controlam o fluxo de eletricidade. Essas chaves podem ser ligadas ou desligadas, o que torna possível armazenar informações binárias. Mais transistores significa que mais informações podem ser processadas. A capacidade dos computadores cresceu de um único transistor na década de 1950 para milhões de transistores em processadores modernos.
Essa tendência é conhecida como lei de Moore . Gordon Moore foi um dos co-fundadores da Intel e descreveu a tendência de que o número de transistores em circuitos integrados dobre aproximadamente a cada dois anos. Ele previu isso em 1975, e até agora sua previsão provou ser bastante precisa.
Resumo da lição
Enquanto a ideia conceitual por trás de um computador foi desenvolvida no século 19, o primeiro computador eletrônico foi desenvolvido na década de 1940. Os primeiros computadores usavam relés mecânicos e tubos de vácuo, que foram substituídos por transistores e, posteriormente, por circuitos integrados, o que deu origem aos microprocessadores que usamos hoje. Os computadores pessoais foram introduzidos na década de 1970. Empresas como Apple, IBM e Microsoft estiveram envolvidas no desenvolvimento de hardware e software que lembram o computador moderno. O componente de processamento dos computadores aumentou de acordo com a lei de Moore , dobrando a cada dois anos.
Resultados de Aprendizagem
Depois de concluir esta lição, você será capaz de:
- Lembre-se do início da história da computação com máquinas, começando com o ábaco
- Explique a criação de máquinas analíticas para o esforço de guerra (1940)
- Identifique as mudanças feitas por dissidentes como Jobs, Wozniak, Allen e Gates
- Descreva os avanços devido ao microprocessamento