Apostila básica de hardware Histórico Evolutivo dos Computadores



Baixar 6,61 Mb.
Página1/40
Encontro27.11.2016
Tamanho6,61 Mb.
  1   2   3   4   5   6   7   8   9   ...   40

Apostila básica de hardware

Histórico Evolutivo dos Computadores



A Evolução dos Computadores
Há momentos, na história da humanidade, em que uma descoberta, um evento, muda completamente o curso dos acontecimentos. Assim ocorreu com a descoberta do fogo, o advento da escrita, a invenção da moeda, a descoberta da eletricidade.
Agora é a vez da Informática. Recentemente, na área da eletrônica, houve um verdadeiro salto qualitativo com o desenvolvimento dos transistores, em seguida, dos circuitos integrados. Isso permitiu a difusão em grande escala dos computadores e deu à Informática um lugar de enorme destaque na sociedade moderna. Hoje os computadores já estão nos escritórios, e em nossas casas como uma presença tão familiar quanto a mais comum Tv a cores. Estamos vivendo o momento em que a revolução da informática muda o curso da história e acelera o ritmo das conquistas do homem, abrindo horizontes que antes sequer existiam na ousada imaginação dos escritores de ficção científica.
De todas as máquinas que o homem inventou para servi-lo, uma se destacou bem mais que as outras: o Computador Eletrônico.
Um computador é uma máquina que processa e armazena dados eletronicamente, e que pode ser programada para realizar as mais diversas tarefas.
Embora simples esta definição nos indique que o computador não é capaz de criar informações a partir do nada. Ele apenas faz o que nós o instruímos a fazer sobre os dados que lhe fornecemos. Portanto, ele tem que receber informações iniciais (dados de entrada), tem que receber as instruções (que lhe indicam o que fazer com as informações recebidas) e só então produz resultados (dados de saída).
Isso quer dizer que não adianta fazer ao computador perguntas para as quais ele não recebeu informações e instruções necessárias. Não adianta colocar um $ na frente de um número e esperar que o computador entenda que se trata de reais ou dólares.
Ele não vai entender que um determinado número corresponde a uma quantia apenas por estar associado a um item com nome, salário ou preço. Se você quer que isso aconteça, você precisa relacionar estes objetos no programa. Se você quer que os valores sejam calculados com aproximação de duas casas decimais e, além disso, arredondá-los para cima você tem que instruí-lo a fazer isso. E assim por diante.
Isso mostra que não há muito mistério no funcionamento de um computador. Há, isto sim, muito trabalho para programá-lo de maneira correta, eficiente e que facilite a vida do usuário.
Alguém já disse, com propriedade, que o computador é um ser completamente ignorante, mas com excelente capacidade de memorização e rapidez de execução de instruções, desde que estas instruções sejam absolutamente precisas, sem ambigüidade, e estejam em uma linguagem que ele possa entender.
Mas, se as coisas são assim, quais as vantagens de utilizarmos o computador ? Parte da resposta já está dada: sua enorme capacidade de memória e sua velocidade de processamento. Além disso, embora muita gente o critique, ele é extremamente confiável. A maioria dos erros identificados nos resultados emitidos por computador não passam de erros dos usuários, operadores ou programadores - isto é, erros humanos.

Existe ainda uma outra razão para a grande utilização dos computadores hoje em dia: a sua flexibilidade. Um mesmo equipamento, com programas diferentes, pode ser utilizado para vários propósitos em inúmeras áreas de trabalho: processamento de textos, planejamento financeiro, cálculos orçamentários, jogos, composição musical, artes gráficas, automação bancária, etc.


A Figura 2.1 lista algumas das máquinas marcantes a serem discutidas neste texto.


1834

Máquina Analítica

Babbage

Primeira tentativa de se construir um computador digital

1936

Z1

Zuse

Primeira máquina calculadora a relés a funcionar

1943

COLOSSUS

Governo britânico

Primeiro Computador eletrônico

1944

Mark I

Aiken

Primeiro computador americano de uso geral

1946

ENIAC I

Eckert/Mauchley

A historia do computador moderno começa aqui

1949

EDISAC

Wilkes

Primeiro computador de programa armazenado

1951

Whirlwind I

M.I.T.

Primeiro computador de tempo real

1951

UNIVAC I

Eckert/Mauchley

Primeiro computador vendido comercialmente

1952

IAS

von Neumann

A maioria das máquinas atuais utiliza este projeto

1960

PDP-1

DEC

Primeiro minicomputador (50 vendidos)

1961

IBM 1401

IBM

Máquina comercial de pequeno porte muito popular

1962

IBM 7094

IBM

Dominou a computação científica no início dos anos 60

1963

B5000

Burroughs

Primeira máquina projetada para uma linguagem de alto nível

1964

IBM 360

IBM

Primeira linha de produtos projetados como uma família

1964

CDC 6600

CDC

Primeira máquina com amplo uso de paralelismo internamente

1965

PDP-8

DEC

Primeiro minicomputador de venda em massa (50.000 vendidos)

1970

PDP-11

DEC

Minicomputadores que dominaram os anos 70

1974

8080

Intel

Primeira CPU de uso geral em uma pastilha

1974

CRAY-1

Cray

Primeiro supercomputador

1978

VAX

DEC

Primeiro supermini de 32 bits

Figura 2.1 - Alguns marcos importantes no desenvolvimento do computador digital

Histórico

O mais primitivo auxilio ao homem na execução das operações digitais, alem dos seus próprios dedos, foi, provavelmente, pequenas pedras ou seixos. Em verdade, nossa palavra cálculo é derivada do latim calculus, que significa seixos e se levarmos em conta que o termo COMPUTAR, significa fazer cálculos, contar, efetuar operações aritméticas, COMPUTADOR seria então o mecanismo ou máquina que auxilia esssa tarefa, com vantagens no tempo gasto e na precisão. Inicialmente o homem utilizou seus próprios dedos para essa tarefa, dando origem ao sistema DECIMAL que estudamos no capítulo anterior e aos termos DIGITAL e DIGITO. Para auxílio deste método, eram usados gravetos, contas ou marcas na parede.


Se tentarmos retrocedermos milhares de anos, até chegarmos ao mais elementar dos instrumentos destinados a facilitar o cálculo encontraremos: o ÁBACO, usado pelos chineses e romanos. Apesar de sua antigüidade, o ábaco continua sendo utilizado em alguns países da Ásia, onde teve origem. De fato, um operador de ábaco bem treinado pode somar muito mais rapidamente do que muitos operadores de calculadoras eletrônicas.

Geração zero - Computadores Mecânicos (1642-1945)

Em 1728, o engenheiro francês Basile Bouchon construiu um tear, que podia tecer desenhos de seda, de acordo com instruções cifradas em um folha giratória de papel perfurado, onde somente trabalhavam as agulhas coincidentes com os furos. Em 1801 Joseph Marie Jacquard concluiu a máquina de tecer com cartões perfurados. Este dispositivo iria influenciar significativamente as idéias de como comandar uma máquina.



A primeira pessoa a construir uma máquina de calcular foi o cientista francês Blaise Pascal (1623-1662), em cuja honra deu-se o nome à linguagem de programação Pascal. Este aparelho, construído em 1642, foi projetado para ajudar seu pai, um coletor de impostos para o governo francês. Era inteiramente mecânica, e transferia os números da coluna das unidades para coluna de dezenas por um dispositivo semelhante a um velocímetro de autómovel. Pascal chamou sua invenção de Pascalina.
Apesar de realizar apenas adições e subtrações, a calculadora de Pascal podia ser utilizada indiretamente para efetuar multiplicações e divisões por adições e subtrações sucessivas. Pascal esperava comercializar sua máquina, mas, apesar de ter construído 50 versões diferentes, nenhuma delas funcionava confiavelmente, de modo que ele pouco lucrou. As máquinas de calcular, descendentes da Pascalina ainda hoje podem ser encontradas em uso por algumas lojas de departamentos.
Nos anos que se seguiram, vários projetos foram feitos com intuito de aperfeiçoar essa primeira calculadora. Entretanto nada de significativo aconteceu até que Charles Babbage (1792-1871), matemático e engenheiro britânico, considerado por muitos o verdadeiro pai do computador atual. Preocupado com os erros das tabelas matemáticas de sua época e, em meados de 1822, ele construiu um modelo de máquina para calcular tabelas - a máquina de diferenças. Esta máquina baseada no princípio dos discos giratórios e operada por uma simples manivela. Este dispositivo mecânico, que do mesmo modo que o de Pascal só podia somar e subtrair, foi projetado para calcular tabelas de números úteis à navegação naval. A máquina foi projetada para executar um algoritmo simples, o método das diferenças finitas utilizando polinômios. O aspecto mais interessante da máquina de diferenças era o seu método de saída: ela perfurava os resultados numa placa de cobre com um buril de aço.
Ela foi justamente idealizada para atender às necessidades da marinha real inglesa. Na época, as tabelas de navegação eram escritas manualmente por diversos funcionários, contratados para realizar sucessivas e repetidas operações de adição e multiplicação e imprimi-los. Foi constatado que, devido à natureza permanente e repetitiva do processo realizado pelo humanos, sempre ocorriam erros. O que Babbage se propunha era projetar uma máquina que realizasse de forma constante e sem erros o tedioso trabalho de cálculos, e registrasse, de forma também confiável, os resultados.
Embora a máquina de diferenças funcionasse razoavelmente bem, Babbage logo cansou-se dela, pois podia executar apenas um algoritmo. Ele começou então a gastar quantias crescentes de seu tempo e da fortuna de sua família. Em julho de 1823, o governo britânico concordou em financiar o projeto e construção de uma versão melhorada da máquina de diferenças, denominada Máquina Analítica. A máquina analítica possuía quatro componentes: o armazenamento (memória), o engenho (unidade de cálculo), a seção de entrada (leitora de cartões perfurados) e a seção de saída (saída perfurada e impressa).
Sua operação era comandada por um conjunto de cartões perfurados, de modo que, de acordo com os resultados dos cálculos intermediários, a máquina poderia saltar os cartões, modificando dessa forma o curso dos cálculos.
O grande avanço da máquina analítica era ser de uso geral. Era possível fazer com que a máquina analítica executasse cálculos diferentes, algo que não era verdade na máquina de diferenças.
Uma vez que a máquina analítica era programável numa linguagem de montagem simples, ela precisava de software (programas). Para produzir este software, Babbage contratou uma jovem chamada Ada Augusta Lovelace, que era filha do famoso poeta britânico, Lord Byron. Ada foi assim a primeira programadora de computador do mundo. A moderna linguagem de programação Ada foi assim denominada em sua homenagem.

Infelizmente, a indústria ferramenteira da época não era suficientemente sofisticada para construir essa máquina. Como resultado, Babbage, foi obrigado a usar grande parte do seu tempo desenhando peças e ferramentas. Isso retardou o progresso de seu projeto. Suas idéias estavam muito a frente de seu tempo, e, até mesmo hoje, a maioria dos computadores modernos tem uma estrutura muito similar à máquina analítica. Somente um século depois, idéias semelhantes foram postas em prática.


Na década de 1880, um estatístico, Herman Hollerith (1860-1929), foi encarregado, pela Agência de Estatística dos Estados Unidos, de desenvolver uma técnica para acelerar o processamento dos dados do censo, que ocorre uma vez a cada 10 anos nos EUA. Como os dados do censo de 1880 levaram quase 8 anos para serem processados, temia-se que os dados coletados de 1890 não estivessem completamente analisados antes de 1900. Hollerith propôs que estes dados fossem perfurados em cartões e automaticamente tabulados, usando-se máquinas especialmente projetadas. Com este novo procedimento, os dados do censo de 1890 foram processados em menos de 3 anos. Influenciados pelo sucesso do esforço americano, os governos do Canadá, Áustria e Rússia também utilizaram as máquinas de Hollerith para o processamento de seus censos durante a década de 1890.
As máquinas de HOLLERITH (chamadas “Tabuladoras”) fizeram tanto sucesso, que ele montou uma empresa para construí-las. A empresa cresceu e após algumas mudanças deu origem em 1924 à IBM (International Business Machine).
O próximo grande marco de desenvolvimento ocorreu nos anos 30, quando um estudante alemão de engenharia chamado Konrad Zuse (1910-1995) construiu uma série de máquinas de calcular automáticas utilizando relés eletromagnéticos. Sua idéia era criar uma máquina que usava relés mecânicos que atuando como chaves, podiam abrir ou fechar automaticamente, o que levou à utilização de números binários em vez de algarismos decimais, utilizadas na engrenagens da máquina de Babbage.
Em 1936, Zuse deixou de ser estudante e profissionalmente criou sua primeira máquina, chamada Z1, baseada em relés mecânicos, que usava um teclado como dispositivo de saída e lâmpadas (dispositivo binário – acesso e apagada) com componente de saída. Zuse realizou alguns aperfeiçoamentos em seu “computador” até concluir, em 1941, o Z3, o qual utilizava relés eletromecânicos e era controlado por programa, sendo talvez o primeiro computador efetivamente operacional do mundo. A informação é introduzida por um teclado, e os resultados exibidos num painel de lâmpadas.
O Z4, último computador de Zuse no período de guerra, aumenta o tamanho das palavras para 32 bits. Levada para Gottingen quando os aliados marcham sobre Berlim, a máquina acaba em Basiléia, na Suíça, onde opera até 1954. Sem conseguir fabricar computadores na Alemanha ocupada, Zuse concentra-se na teoria, desenvolvendo a linguagem "Plankalkul". Ao conseguir novamente fabricá-los, monta a Zuse Company, a maior fabricante de computadores alemã até 1969, quando é incorporada pela Siemens.
Zuse não conhecia o trabalho de Babbage, e suas máquinas foram destruídas pelo bombardeio de Berlim pelos aliados em 1944, de forma que seu trabalho não teve qualquer influencia nas máquinas posteriores. Mesmo assim, ele foi um dos pioneiros neste campo.

Logo depois, nos Estados Unidos, duas pessoas também projetaram calculadoras, John Atanasoff, no Iowa State College, e George Stibbitz, no Bell Laboratory. A máquina de Atanasoff era surpreendentemente avançada para sua época. Ela utilizava aritmética binária e possuía capacitores para a memória, que eram periodicamente refrescados para evitar que se descarregassem, processo esse denominado por ele de “estimulação da memória”. As pastilhas modernas de RAM (Random Access Memory) dinâmica funcionam exatamente da mesma maneira. Infelizmente, a máquina nunca se tornou operacional. De certa forma, Atanasoff foi como Babbage: um visionário derrotado pela inadequada tecnologia de hardware (parte física) de seu tempo.



O computador de Stibbitz, embora mais primitivo do que o de Atanasoff, funcionava realmente. Stibbitz fez uma demonstração pública em uma conferência no Dartmouth College em 1940. Uma das pessoas da audiência era John Mauchley, um desconhecido professor de física da Universidade da Pennsylvania. Posteriormente, o mundo da computação ouviria mais sobre o Prof. Mauchley.
Howard Aiken estava realizando manualmente tediosos cálculos numéricos como parte de sua pesquisa de doutorado em Harvard. Após seu doutorado, Aiken reconheceu a importância dos cálculos feitos por máquinas. Começou a ler sobre o assunto, e descobriu o trabalho de Babbage e decidiu construir com relés o computador de uso geral que Babbage não conseguiu construir com rodas dentadas.
A primeira máquina de Aiken, o MARK I, uma Calculadora Automática de Seqüência Controlada, foi terminada em Harvard (com o apoio da IBM e da marinha americana), em 1944. O MARK I podia realizar uma soma em seis segundos e uma divisão em 12 segundos. Quando Aiken acabou de construir o sucessor, o MARK II, computadores com relés estavam obsoletos. A era da eletrônica tinha começado.
O final da década de 1930 e o início da de 1940 testemunharam um grande alvoroço nas atividades de desenvolvimento de computadores. Este período, chamado de “anos efervescentes”, foi influenciado grandemente pelo início da II guerra mundial. O esforço de guerra intensificou a necessidade de cálculos científicos e, como exemplo, citamos a produção de tabelas balísticas, tornando possível o funcionamento de diversos projetos-chaves. Além disto, dispunha-se da tecnologia necessária.
Entre os projetos deste período está à construção encomendada pelo exército americano de uma série de cinco computadores de grande porte dos Bell Telephone Laboratories. Chamados de Computadores Bell a relé, devido ao uso de relés eletromecânicos como componente operacional básico, eles representaram um progresso significativo sobre as máquinas de calcular da época.
Ao contrário de alguns de seus contemporâneos, Aiken, que conhecia o trabalho executado por Babbage um século antes, reconheceu sua influência em seus escritos. De fato, o MARK I veio a ser chamado de “o sonho de Babbage torna-se realidade”.

ANALÓGICO X DIGITAL
A diferenciação entre o que chamamos de computador analógico e computador digital é que os analógicos realizam operações aritméticas por meio de analogia (sistema de representação de fenômenos por meio de pontos de semelhança), ou seja, não trabalham com números ou símbolos que representem os números, eles fazem analogia direta entre as quantidades; eles medem as quantidades a serem trabalhadas, tendo, portanto, uma analogia entre os valores com os quais pretende trabalhar e os valores internos da máquina.

Já os computadores digitais trabalham diretamente com números, ou seja trabalham realizando operações diretamente com os números, enquanto os analógicos medem.

Primeira Geração - Válvulas (1945-1955)

O estimulo para o computador eletrônico foi a segunda Guerra Mundial. Durante a primeira fase da guerra, os submarinos alemães estavam massacrando os navios britânicos. Ordens eram enviadas para os submarinos por rádio, mas as mensagens eram criptografadas utilizando um aparelho chamado ENIGMA.


A inteligência britânica conseguiu adquirir uma máquina ENIGMA da inteligência polonesa Para decodificar as mensagens, o governo britânico criou um laboratório altamente secreto que construiu um computador eletrônico denominado COLOSSUS. O matemático Alan Turing (1912-1954) ajudou a projetar esta máquina. O COLOSSUS ficou operacional em 1943, mas a linha COLOSSUS nasceu morta, pois todos seus projeto era segredo militar. Vale apenas salientar que foi o primeiro computador eletrônico digital do mundo.
Além de destruir as máquinas de Zuse e estimular a construção do COLOSSUS, a guerra também afetou a computação nos Estados Unidos. O exército precisava de tabelas de alcance para calibragem de mira de sua artilharia pesada, e achava que calculá-las manualmente consumia muito tempo e era sujeito a erros.
Em 1946 foi inventado o primeiro computador eletrônico, por John Mauchley, e seu aluno de pós-graduação, J. Presper Eckert, ao qual deram o nome de ENIAC (Electronic Numerical Integrator And Calculator), ou seja, Computador e Integrador Numérico Eletrônico. Ele foi construído de 1943 a 1946. O ENIAC usava válvulas eletrônicas, substituindo os relés do MARK I, que o tornava capaz de operar com velocidade 1.000 vezes maior. Entre seus muitos componentes, o ENIAC tinha em torno de 18.000 válvulas. Ele ocupava uma área de aproximadamente 1.400, um terço de um campo de futebol e pesava 30 tonelada. O objetivo do ENIAC era ajudar o exército americano durante a 2ª guerra mundial, ou seja ele podia calcular a trajetória ou ângulo de uma bomba em 20 segundos.
A máquina só ficou pronta em 1946, quando já era muito tarde para ter uso em seus objetivos originais. Entretanto, logo que a guerra acabou, Mauchley e Eckert obtiveram permissão para organizar um curso de verão para descrever o trabalho deles para colegas cientistas. Aquele curso de verão deu início a uma explosão de interesse na construção de grandes computadores digitais.
Após esse histórico curso de verão, muitos outros pesquisadores começaram a construir computadores eletrônicos.
Eckert e Mauchley começaram a construir uma nova máquina, O EDVAC (Electronic Discrete Variable e Automatic Computer, ou seja, Computador Automático Eletrônico de Variáveis Discretas), mas esse projeto foi seriamente afetado quando eles deixaram a Universidade da Pennsylvania para criar uma companhia, a Eckert-Mauchley Computer Corporation, na Philadelphia (o vale do silício não existia ainda). Após uma série de fusões, esta companhia tornou-se a atual Unisys Corporation.
Enquanto isso, uma das pessoas envolvidas no projeto ENIAC, John von Neumann (1903-1957), foi para o Instituto de estudos Avançados de Princeton, para construir sua própria versão do EDVAC, a máquina IAS. Neumann Sugeriu que as instruções de operação de um computador fossem armazenadas, não externamente como na fita perfurada, mas dentro da memoria do computador. Observou também que a desajeitada aritmética decimal utilizada pelo ENIAC poderia ser substituída por uma aritmética binária.
Seu projeto básico, agora conhecido como máquina de von Neumann, foi utilizado no EDSAC, o primeiro computador com programa armazenado, e é ainda a base de quase todos os computadores digitais, até mesmo hoje, quase meio século depois.
A máquina de Von Neumann possuía cinco partes básicas: a memória, a unidade lógica-aritmética, a unidade de controle de programa e os equipamentos de entrada e saída. Mais ou menos na mesma época em que von Neumann estava construindo a máquina IAS, pesquisadores do M.I.T. estavam também construindo um computador. Ao contrario do IAS, ENIAC e outras máquinas deste tipo, que possuíam células com comprimento longo e que visavam ao cálculo numérico pesado, a máquina do M.I.T., o Whirlwind I, possuía células de 16 bits e foi projetado para controle de tempo real.

Enquanto tudo isso acontecia, a IBM era uma companhia pequena engajada no ramo da fabricação de perfuradores de cartões e de máquinas mecânicas de classificação de cartões. Embora a IBM fosse um dos financiadores de Aiken, ela não estava muito interessada em computadores até produzir o IBM 701 em 1953, muito tempo depois da companhia de Eckert e Mauchley já ser a número um do mercado comercial com o seu computador UNIVAC (Computador Automático Universal). Foi a primeira de uma série de máquinas científicas que vieram a dominar a indústria em uma década. Em 1958, a IBM iniciou a produção de sua última máquina a válvulas, o IBM 709, que era basicamente uma versão melhorada do IBM 704.



Segunda Geração - Transistores (1955-1965)

O transistor foi inventado no Bell Labs em 1948 por John Bardeen, Walter Brattain e William Shockley, pelo qual foram agraciados com o prêmio Nobel de Física de 1956. Nos 10 anos seguintes o transistor revolucionou os computadores, e no final dos anos 50 os computadores a válvulas estavam obsoletos. O primeiro computador transistorizado foi construído no Lincoln Laboratory do M.I.T., uma máquina de 16 bits baseada no Whirlwind I. Foi denominada TX-0 (Transistorized eXperimental computer 0, ou seja, computador transistorizado experimental 0).


Quando o PDP-1 finalmente apareceu em 1961, o desempenho era a metade daquele do IBM 7090, a máquina transistorizada sucessora do 709, e o mais rápido computador do mundo naquele tempo. O PDP-1 custava US$ 120.000, e o IBM 7090 custava milhões. A DEC vendeu dezenas de PDP-1, e a indústria de minicomputadores nascia.
Um dos primeiros PDP-1 foi doado ao M.I.T., onde rapidamente atraiu a atenção de alguns desses jovens gênios tão comuns nesse instituto. Uma das muitas inovações que o PDP-1 trazia era um display visual (CRT - Tubo de Raios Catódicos) e a capacidade de se plotar pontos em qualquer posição de uma tela. Em pouco tempo, os estudantes já tinham programado o PDP-1 para jogar guerra nas estrelas, e o mundo tinha assim seu primeiro videogame.
Entrementes, a reação da IBM ao transistor foi construir uma versão transistorizada do IBM 709, o IBM 7090, como já dissemos antes, e mais tarde o IBM 7094. O 7090 e o 7094 marcaram o fim das máquinas do tipo ENIAC, e dominaram a computação científica durante vários anos na década de 60.
Ao mesmo tempo que a IBM tornou-se uma importante força na computação científica com o 7094, ela ganhou muito dinheiro vendendo uma pequena máquina de orientação comercial, denominada IBM 1401. Esta máquina podia ler e escrever em fitas magnéticas, ler e perfurar cartões, e imprimir quase tão rapidamente quanto o 7094, por uma fração do preço. Não era boa para aplicações científicas, mas perfeita para manter registros comerciais. O IBM 1401 era incomum no fato de não possuir registradores.
Em 1962 foram usados pela primeira vez discos magnéticos para o armazenamento de informações, no computador Atlas. Na época, além de serem gigantescos, os computadores usavam imensas unidades de fita magnética para o armazenamento de informações para uso posterior, além de sistemas de cartões perfurados, onde as informações que você queria passar para o computador eram marcadas através de perfurações feitas em cartões para a posterior leitura pelos computadores - processo extremamente demorado. Obviamente tais discos magnéticos ainda estavam longe de serem parecidos com os discos magnéticos como conhecemos hoje em dia.
Em 1964, uma nova companhia iniciante, CDC (Control Data Corporation), lançou o CDC 6600, uma máquina que era quase uma ordem de grandeza mais rápida que o poderoso IBM 7094. Foi amor à primeira vista entre os trituradores de números, e o CDC 6600 foi lançado assim para o sucesso. O segredo de sua velocidade, e a razão de ser muito mais rápido do que o IBM 7094, era que dentro do processador havia uma máquina altamente paralela. Ela possuía diversas unidades funcionais para fazer adições, outras para fazer multiplicações, e ainda uma outra para divisão, e todas elas podiam executar em paralelo.
Houve muitos outros computadores nesta geração, mas um sobressaiu-se por uma razão muito diferente, e vale mencionar: o Burroughs B5000. Os projetistas de máquinas como o PDP-1, o IBM 7094 e o CDC 6600 estavam todos completamente preocupados com o hardware, ou fazendo-o barato (DEC) ou rápido (IBM e CDC). O software era quase completamente irrelevante. Os projetistas do B5000 tomaram uma direção diferente. Eles construíram uma máquina com a intenção especifica de programá-la em Algol 60, uma linguagem de programação precursora do Pascal, e incluíram muitos aspectos no hardware para facilitar a tarefa do compilador. A idéia de que o software também importava nascia. Infelizmente, ela foi esquecida quase que imediatamente.

Terceira Geração - Circuitos Integrados (1965-1980)

Considerados uma evolução quase natural da tecnologia dos transistores, os circuitos integrados surgiram da necessidade cada vez maior de miniaturização e economia de custo dos circuitos eletrônicos.


Sua idéia fora proposta pela primeira vez por G. W. A. Dummer em 1952, mas a visão de Dummer fora um tanto adiantada para o seu tempo, e a tentativa de pôr em prática sua proposta fracassou.
O primeiro protótipo real do que viria a ser um circuito integrado foi desenvolvido por Jack Kilby, em 1958, enquanto trabalhava para a Texas Instruments. Este proto-chip media um centímetro de comprimento e continha apenas cinco componentes interligados uns aos outros por fios. O grande mérito de Kilby foi ter provado que era possível construir componentes, como resistores e capacitores, com o mesmo material semicondutor dos transistores. Deste modo era possível integrá-los em uma única placa.
Logo surgiur outro modelo, de fabricação mais fácil, desenvolvido pela empresa de Willian Shockley, que já havia sido o criador do transistor de junção. Entretanto, oito de seus melhores funcionários, cansados de suas excentricidades, resolveram fundar uma empresa própria: a Fairchild Semiconductor, responsável, juntamente com empresas dissidentes como a Intel, pelos maiores avanços nesse ramo de pesquisa, entre eles a criação da primeira memória ROM em um chip (256 bits).
Em 1959, Robert Noyce, criou um novo dispositivo, bem mais eficiente que o de Kilby. Sua principal vantagem era que a ligação entre os diversos componentes era gravada no próprio material semicondutor - abandonando o método anterior de inserir manualmente pequenos fios, com a ajuda de um microscópio. Este circuito foi tão mais prático que o de Kilby que a própria Texas Instruments o adotou.
No terreno das memórias, a Intel foi a pioneira, companhia fundada por Noyce e outros ex-integrantes da Fairchild. Foi dela a criação da primeira memória RAM em um chip, capaz de armazenar 1 Kbit de informação. Um outro marco fundamental fincado pela Intel foi a criação do primeiro chip programável, o 4004, criado por Marcian Ted Hoff em 1971.

O último grande avanço desta tecnologia foi o aproveitamento do transistor MOS, inventado pela RCA na década de 60. O transistor MOS tornou possível "espremer" um número ainda maior de componentes em uma pastilha, a custos cada vez menores. Também possibilitou a criação de microprocessadores com capacidade igual ou até superior a de máquinas contemporâneas de grande porte.



A invenção do circuito integrado possibilitou que dezenas de transistores fossem colocados em uma única pastilha. Este encapsulamento tornou possível construir computadores menores, mais rápidos e mais baratos que seus predecessores transistorizados. Alguns dos mais significativos computadores desta geração são descritos abaixo.
Por volta de 1964, a IBM era o fabricante lider de computadores, e tinha um grande problema com suas máquinas de grande sucesso, o 7094 e o 1401: eram totalmente incompatíveis entre si. Uma era uma processadora de números altamente veloz (number cruncher), e a outra era uma excelente processadora de Entrada/Saída. Muitos clientes possuíam ambos, e não gostavam da idéia de ter dois departamentos de programação com nada em comum.
Quando chegou o momento de substituir estas duas séries, a IBM deu um passo radical. Lançou uma única linha de produtos, o System/360, baseada em circuitos integrados, projetada tanto para computação científica quanto comercial. O System/360 continha muitas inovações, a mais importante delas era que esta família, de cerca de meia dúzia de máquinas, possuía a mesma linguagem de montagem. Um cliente poderia substituir seu IBM 1401 por um 360 Modelo 30, e seu IBM 7094 por um 360 Modelo 75. O modelo 75 era maior e mais rápido (e mais caro), mas o software escrito para um deles poderia, em princípio, ser executado no outro. Na prática, o software escrito para o modelo pequeno executaria em um modelo maior sem problemas, mas, quando mudássemos para uma máquina menor, o programa poderia não caber na memoria. Todavia, este foi um grande avanço em relação à situação existente com o 7094 e o 1401. A idéia de família de máquinas foi aceita imediatamente, e poucos anos depois a maioria dos fabricantes de computadores possuía uma família de máquinas comuns apresentando uma grande variação de preços e desempenho.
Uma outra importante inovação do IBM 360 foi a multiprogramação, com vários programas presentes na memória simultaneamente, de forma que quando um estiver esperando pela Entrada/Saída ser completada, um outro poderia estar sendo executado.
O 360 também foi à primeira máquina que podia emular (simular) outros computadores. Os modelos menores podiam emular o 1401, e os maiores podiam emular o 7094, de forma que os clientes podiam continuar a executar seus antigos programas binários sem modificações, enquanto eram convertidos para o 360. Alguns modelos executavam os programas do 1401 tão mais rapidamente que o próprio, que muitos clientes nunca os converteram.
O mundo do minicomputador deu um enorme passo à frente na terceira geração com o lançamento, pela DEC, do PDP-11, um sucessor de 16 bits do PDP-8. Tanto o IBM 360 e o PDP-11 possuíam registradores orientados para palavras e memória orientada para bytes (8 bits). O PDP-11 obteve um enorme sucesso, especialmente nas universidades, e manteve a liderança da DEC em relação aos outros fabricantes de minicomputadores.
Toda informação introduzida em um computador precisa ser entendida pela máquina, para que possa interpretá-la e processá-la.
Considerando que é muito mais simples e confiável projetar um circuito capaz de gerar e manipular o menor número de valores distintos, optou-se por uma máquina binária, isto é, capaz de entender apenas dois valores diferentes: 0 e 1.
Toda a informação introduzida em um computador é convertida para a forma binária. A menor unidade de informação armazenável em um computador é o algarismo binário ou dígito binário, conhecido como bit (contração das palavras inglesas binary digit). O bit pode ter, então, somente dois valores: 0 ou 1.

Evidentemente, com possibilidades tão limitadas, o bit pouco pode representar isoladamente; por essa razão, as informações manipuladas por um computador são codificadas em grupos ordenados de bits, de modo a terem um significado útil.


A primeira definição formal atribuída a um grupo ordenado de bits, para efeito de manipulação interna mais eficiente, foi instituída pela IBM e é, atualmente, utilizada por praticamente todos os fabricantes de computadores. Trata-se do byte, definido como um grupo ordenado de 8 bits, tratados de forma individual, como unidade de armazenamento e transferência.
Como os principais códigos de representação de caracteres utilizam grupos de 8 bits por caractere, os conceitos de byte e caractere tornam-se semelhantes e as palavras, quase sinônimas. É costume, no mercado, construírem memórias cujo acesso, armazenamento e recuperação de informações são efetuadas byte a byte. Por essa razão, em anúncios de vendas de computadores, menciona-se que ele possui “64 Kbytes de memória” ou 12 Mbytes de memória”.

A Miniaturização

Com o advento do circuito integrado, a principal preocupação dos projetistas passou a ser a diminuição do espaço físico dos circuitos. Isto permitiria baixar o preço dos componentes além de introduzir ganhos significativos de desempenho.



Quarta Geração - Computadores Pessoais e VLSI (1980-20??)

Nos anos 80, a VLSI (Very Large Scale Integration, ou seja, Integração em Escala Muito Grande) tornou possível colocar dezenas de milhares, depois centenas de milhares, e finalmente milhões de transistores em uma única pastilha. Este desenvolvimento levou a computadores menores e mais rápidos. Antes do PDP-1, os computadores eram tão grandes e caros que as companhias e universidades tinham que ter departamentos especiais, denominados centros de computação, para operá-los. Com o advento do minicomputador, um departamento podia comprar seu próprio computador. Por volta de 1980, os preços tinham caído tanto que era possível a uma pessoa física possuir seu próprio computador. A era do computador pessoal tinha começado.


Os computadores pessoais foram utilizados de uma maneira bastante diferente daquela dos grandes computadores. Eles eram usados para processamento de texto, planilhas e inúmeras aplicações altamente interativas que os computadores maiores não realizavam bem.
Atualmente, os computadores podem ser divididos grosseiramente em cinco categorias, como mostrado na Figura 2.4. Elas se baseiam em tamanho físico, desempenho e áreas de aplicação. Na categoria de cima, temos os computadores pessoais, máquinas de mesa (desktop) que utilizam uma única pastilha processadora, geralmente dedicados a um único usuário. Eles são amplamente usados em escritórios, em ensino e para uso doméstico.
Máquina

Tipo Exemplo Exemplo de uso



Computador Pessoal

IBM PS/2

Processamento de texto, Planilhas

Minicomputador

PDP-11/84

Controle tráfego aéreo em tempo real, Automação industrial

Supermini

SUN-4

Servidora de arquivos (rede), Sistemas de tempo compartilhado

Mainframe

IBM-3090/300

Bancos, Reservas de passagens aéreas

Supercomputador

Cray-2

Previsão do tempo

Cinco tipos comuns de computadores
Os minicomputadores são amplamente utilizados em aplicações de tempo real, por exemplo, para controle de tráfego aéreo ou automação industrial. Dizer precisamente em que consiste um minicomputador é difícil, pois muitas companhias fabricam produtos que consistem em um microprocessador de 16 ou 32 bits, certa quantidade de memória e algumas pastilhas de Entrada/Saída, tudo em uma única placa.
O Supermini é essencialmente um minicomputador muito grande, quase sempre baseado em um processador de 32 bits, e geralmente equipado com dezenas de Gigabytes de memória. Tais máquinas são usadas como sistemas departamentais de tempo compartilhado, como servidoras de arquivos (em rede), e muitas outras aplicações. Estas máquinas modernas são muito mais poderosas do que o IBM 360 modelo 75, o mainframe mais poderoso do mundo quando foi lançado em 1964.
Os mainframes tradicionais descendem de máquinas do tipo IBM 360 e CDC 6600. As diferenças reais entre um mainframe e um supermini estão na capacidade de Entrada/Saída e nas aplicações para as quais são usados. Um supermini típico pode ter um ou dois discos de 1 gigabyte, um mainframe pode ter 100 deles. Os superminis são utilizados normalmente para aplicações interativas, enquanto que a maioria dos mainframes é usado para grandes jobs em lote (batch) ou para processamento de transações, tais como bancos ou reservas de passagens aéreas, onde grandes bancos de dados são necessários.
Na extremidade superior do espectro estão os supercomputadores. Normalmente são muito caros e muitos grandes para aplicações comerciais típicas. Eles tendem a serem usados basicamente em aplicações cientificas pesada, tais como o monitoramento de condições climáticas, projetos de aeronaves, pesquisa nuclear, etc. São tipicamente usados para simulações na exploração e produção de petróleo, análise estrutural, dinâmica computacional dos fluidos, física e química, projetos eletrônicos, pesquisas em energia nuclear e meteorologia. Também são empregados para imagens animadas de computação gráfica em tempo real.
No total, existem poucas centenas destes computadores em uso nos EUA. Apenas os maiores fabricantes, como IBM, Control Data, Amdahl e Burroughs constróem estes computadores.
Durante anos, os nomes supercomputador e Seymour Cray foram quase sinônimos. Cray projetou o CDC 6600 e seu sucessor, o 7600. Depois ele criou sua própria companhia, a Cray Research, para construir o Cray-1 e o Cray-2. Em 1989, Cray deixou-a para formar uma outra companhia para construir o Cray-3.

A Lei de Moore

O aumento da capacidade de agrupamento de transistores num único chip sempre foi um dos grande objetivos das empresas produtoras de semicondutores já que este aumento deve estar diretamente relacionado a potencialidade de um microprocessador e consequentemente a computadores mais avançados.

Uma das frases mais conhecidas neste meio deve-se a Gordon Moore quando presidente da Intel em 1965. Moore disse o que ficou conhecido como a Lei de Moore: "O poder de processamento dos chips dobra a cada dezoito meses".
Resumo das Gerações
1ª Geração

Nesta geração, os computadores usavam milhares de válvulas, enormes sistema de refrigeração (para controlar a temperatura) e quilômetros de fios, ocupando verdadeiros edifícios. A velocidade de processamento era na ordem de milésimos de Segundos.


2ª Geração

Os transistores foram inventados, eliminando as inconvenientes válvulas, deixando as máquinas menores, mais baratas e mais rápidas. A velocidade passou para milionésimos de segundos.


3ª Geração

Surgiu a técnica dos micro-circuitos ou Circuitos de estado sólido (Chips de Silício), miniaturizando mais ainda a máquina. A velocidade vai para bilionésimos de segundos.


4ª Geração

Utiliza circuitos integrados em altíssima escala. É a geração atual. A velocidade atinge os trilionésimos de segundos quase a velocidade da luz.



  1   2   3   4   5   6   7   8   9   ...   40


©bemvin.org 2016
enviar mensagem

    Página principal