História da computação

227 visualizações

Publicada em

história da informatica

Publicada em: Dispositivos e hardware
0 comentários
0 gostaram
Estatísticas
Notas
  • Seja o primeiro a comentar

  • Seja a primeira pessoa a gostar disto

Sem downloads
Visualizações
Visualizações totais
227
No SlideShare
0
A partir de incorporações
0
Número de incorporações
3
Ações
Compartilhamentos
0
Downloads
5
Comentários
0
Gostaram
0
Incorporações 0
Nenhuma incorporação

Nenhuma nota no slide

História da computação

  1. 1. UNIVERSIDADE DO ESTADO DA BAHIA-UNEB DEPARTAMENTO DE CIÊNCIAS HUMANAS CURSO ENGENHARIA AGRONÔMICA HANNAN ALI NUNES GHAZZAOUI KALINE RAMOS HISTÓRIA DA COMPUTAÇÃO CONCEITOS BÁSICOS + ARQUITETURA DE COMPUTADORES BARREIRAS - BA 2014
  2. 2. HANNAN ALI NUNES GHAZZAOUI KALINE RAMOS HISTÓRIA DA COMPUTAÇÃO CONCEITOS BÁSICOS + ARQUITETURA DE COMPUTADORES Trabalho apresentado à disciplina Informática Básica para fins de avaliação do semestre do curso de Engenharia Agronômica da Universidade do Estado da Bahia, sob orientação do professor Marcondes. . BARREIRAS - BA 2014
  3. 3. Sumário História da Computação .............................................................................. 6 1. Introdução ....................................................................................... 6 2. Ábaco, a primeira calculadora da História ....................................... 6 3. Régua de Cálculo............................................................................ 7 4. Máquina de Pascal.......................................................................... 8 5. A programação funcional................................................................. 9 6. A Máquina de Diferenças e o Engenho Analítico .......................... 10 7. A Teoria de Boole.......................................................................... 12 8. Máquina de Hollerith...................................................................... 13 9. Computadores pré-modernos........................................................ 14 10. Computação moderna................................................................... 15 10.1. Primeira geração (1946 — 1959)............................................... 15 10.1.1. ENIAC ...................................................................................... 16 10.1.2. Arquitetura de Von Neumann................................................... 17 10.1.3. UNIVAC ................................................................................... 18 11. Segunda geração (1959 — 1964) ................................................. 18 11.1. IBM 7030.................................................................................... 18 11.2. PDP-1......................................................................................... 19 12. Terceira geração (1964 — 1970)................................................... 20 13. Quarta geração (1970 até hoje) .................................................... 21 13.1. Altair 8800.................................................................................. 21 13.2. Apple, Lisa e Macintosh ............................................................. 22 13.3. Microsoft e os processadores Intel............................................. 23 13.4. Multi-core ................................................................................... 23
  4. 4. 13.5. Computação de bolso e tablets.................................................. 24 Arquitetura de Computadores.................................................................... 25 1. Introdução ..................................................................................... 25 2. Conceitos básicos de informática.................................................. 25 3. Computadores: hardware e software............................................. 26 3.1. Hardware: componentes dos computadores.............................. 26 3.1.1. Unidades de Entrada e Saída.................................................... 26 3.1.2. Memória..................................................................................... 27 3.1.3. Unidade Central de Processamento (UCP) ............................... 27 3.2. Software..................................................................................... 28 3.2.1. Software básico ......................................................................... 28 3.2.1.1. Sistemas ou Ambientes Operacionais .................................... 28 3.2.1.2. Linguagens ............................................................................. 29 3.2.1.3. Software aplicativo.................................................................. 29 3.2.1.3.1. Uso geral.............................................................................. 29 3.2.1.4. Uso específico......................................................................... 30 Referencias Bibliográficas ......................................................................... 31
  5. 5. Índice de Figuras Figura 1 - Exemplo de ábaco russo ............................................................. 7 Figura 2 - Régua de cálculo......................................................................... 8 Figura 3 - Máquina de Pascal...................................................................... 9 Figura 4 - Tear de Jacquard ...................................................................... 10 Figura 5 - Charles Babbage....................................................................... 10 Figura 6 - Máquina de Diferenças.............................................................. 11 Figura 7 - Máquina analítica ...................................................................... 12 Figura 8 – Tabuladora de Hollerith ............................................................ 13 Figura 9 - Allan Turing ............................................................................... 14 Figura 10 – Harvard Mark 1....................................................................... 15 Figura 11 – ENIAC..................................................................................... 16 Figura 12 - O primeiro super computador, IBM 7030................................. 19 Figura 13 - PDP-1, exemplo de mini-computador...................................... 19 Figura 14 – IBM 360/91 ............................................................................. 20 Figura 15 – Altair 8800............................................................................... 21 Figura 16 – Macintosh ............................................................................... 22 Figura 17 – Modelos de processadores Intel ............................................. 23 Figura 18 - Iphone ..................................................................................... 24
  6. 6. 6 História da Computação 1. Introdução Hoje em dia, os computadores estão presentes em nossa vida de uma forma nunca vista anteriormente. Sejam em casa, na escola, na faculdade, na empresa ou em qualquer outro lugar, eles estão sempre entre nós. Ao contrário do que parece, a computação não surgiu nos últimos anos ou décadas, mas sim há mais de 7 mil anos. 2. Ábaco, a primeira calculadora da História O ábaco (Figura 1) foi o começo de tudo, segundo historiadores, acreditam que o mesmo foi descoberto em meados do ano 5500 a.C. pelo povo mesopotâmico. Contudo, o ábaco também foi usado posteriormente por muitas outras culturas: Babilônia, Egito, Grécia, Roma, Índia, China, Japão etc. Cada um desses povos possui uma versão de específica dessa máquina, entretanto, preservando a sua essência original. Seu nome na Roma Antiga era "Calculus", termo de onde a palavra cálculo foi derivada. Muitos povos da antiguidade utilizavam o ábaco para a realização de cálculos do dia a dia, principalmente nas áreas de comércio de mercadorias e desenvolvimento de construções civis. Ele pode ser considerado como a primeira máquina desenvolvida para cálculo, pois utilizava um sistema bastante simples, mas também muito eficiente na resolução de problemas matemáticos. É basicamente um conjunto de varetas de forma paralela que contém pequenas bolas que realizam a contagem. O fato de este instrumento ter sido difundido entre todas essas culturas se deve principalmente a dois fatores. O contato entre povos distintos é o primeiro deles, o que fez com que o ábaco fosse copiado de um lugar para vários outros no mundo. Por outro lado, a necessidade da representação matemática fez com que os sistemas de contagem utilizados no cotidiano fossem implementados de forma mais prática.
  7. 7. 7 Sobre as operações matemáticas, ele é bastante útil para a soma e subtração. Já para a multiplicação e divisão, o ábaco comum não é muito recomendado, somente algumas versões mais complexas que a padrão. 3. Régua de Cálculo Durante vários séculos, o ábaco foi sendo desenvolvido e aperfeiçoado, se tornando a principal ferramenta de cálculo por muito tempo. Entretanto, os principais intelectuais da época do Renascimento precisavam descobrir maneiras mais eficientes de efetuar cálculos. Logo, em 1638 depois de Cristo, um padre inglês chamado William Oughtred, criou uma tabela muito interessante para a realização de multiplicações muito grandes. A base de sua invenção foram às pesquisas sobre logaritmos, realizadas pelo escocês John Napier. Até o momento, a multiplicação de números muito grandes era algo muito trabalhoso e demorado de ser realizado. Porém, Napier descobriu várias propriedades matemáticas interessantes e deu a elas o nome de logaritmos. Após o fato, multiplicar valores se tornou uma tarefa mais simples. Figura 1 - Exemplo de ábaco russo
  8. 8. 8 O mecanismo consistia em uma régua que já possuía uma boa quantidade de valores pré-calculados, organizados de forma que os resultados fossem acessados automaticamente. Uma espécie de ponteiro indicava o resultado do valor desejado (Figura 2). 4. Máquina de Pascal Apesar da régua de cálculo de William Oughtred ser útil, os valores presentes nela ainda eram pré-definidos, o que não funcionaria para calcular números que não estivessem presentes na tábua. Acredita-se que em meados de 1552, Wilhelm Schickard criou a primeira máquina de verdade, que fazia operações de soma, subtração, multiplicação e divisão, mas só até 6 dígitos, quando ultrapassava os 6, tocava um sinal de alerta para avisar que a operação tinha sido falha. Essa máquina tinha foi perdida no meio da guerra dos trinta anos, e a pouco tempo encontrou-se documentações sobre a mesma, o que tirou de Blaise Pascal o título de inventor da primeira máquina calculadora. Pascal, em 1623, com a necessidade de ter um instrumento que o ajudasse no trabalho de coleta de impostos, criou uma calculadora que usava engrenagens e funcionava similarmente a um odômetro. Seu funcionamento era baseado no uso de rodas interligadas que giravam na realização dos cálculos. A ideia inicial de Pascal era desenvolver uma máquina que realizasse as quatro operações matemáticas básicas, o que não aconteceu na prática, pois ela era capaz apenas de somar e subtrair. Figura 2 - Régua de cálculo
  9. 9. 9 Essa calculadora (Figura 3) foi lançada no comércio, mas não obteve muito sucesso, alguns afirmaram que o motivo do seu insucesso foi que a mesma só realizava funções de soma e subtração, outros porque afirmaram que foi pela sua sofisticação e seu elevado preço. Por esses motivos, a tecnologia não foi muito bem acolhida na época. Alguns anos após a Máquina de Pascal, em 1672, o alemão Gottfried Leibnitz conseguiu o que Pascal não tinha conseguido: criar uma calculadora que efetuava a soma e a divisão, além da raiz quadrada. 5. A programação funcional Então em 1801 apareceu uma máquina que realmente chamou atenção de todos, pelo motivo de ser programável, ao contrário das demais que só realizavam as operações previamente estabelecidas. O costureiro Joseph Marie Jacquard desenvolveu um sistema muito interessante nesta área. A indústria de Jacquard atuava no ramo de desenhos em tecidos, tarefa que ocupava muito tempo de trabalho manual. Vendo esse problema, Joseph construiu a primeira máquina realmente programável, com o objetivo de recortar os tecidos de forma automática. Tal mecanismo foi chamado de Tear Programável (Figura 4), pois aceitava cartões perfuráveis com entrada do sistema. Dessa maneira, Jacquard perfurava o cartão com o desenho desejado e a máquina o reproduzia no Figura 3 - Máquina de Pascal
  10. 10. 10 tecido. A partir desse momento, muitos esquemas foram influenciados pelo tear. Também a primeira calculadora comercializada com sucesso foi inventada em 1820, por Charles Xavier Thomas, ela era capaz de efetuar as quatro operações aritméticas básicas. 6. A Máquina de Diferenças e o Engenho Analítico No ano de 1822, foi publicado um artigo científico que prometia revolucionar tudo o que existia até então no ramo do cálculo eletrônico. O seu autor, Charles Babbage (Figura 5), começou um projeto financiado pelo governo, que objetivava inventar uma máquina capaz de calcular funções de diversas naturezas (trigonometria, logaritmos) de forma muito simples. Esse projeto possuía o nome de Máquina de Diferenças (Figura 6). Figura 5 - Charles Babbage Figura 4 - Tear de Jacquard
  11. 11. 11 As ideias aplicadas no projeto estavam muito à frente do seu tempo. Devido a limitações técnicas e financeiras, a Máquina de Diferenças só pôde ser implementada muitos anos depois. No meio deste projeto, Babbage teve uma ideia partindo dos princípios dos cartões de Jacquard, a de criar uma máquina muito mais completa que todas que já haviam sido inventadas, e posteriormente passaria a ser chamada de “máquina analítica” (Figura 7). A grande diferença dessa máquina para as outras é que, segundos os historiadores, ela teria uma memória (moinho), um engenho central, engrenagens e alavancas, que transferiam dados da memória para o engenho central, e dispositivos de entrada (leitor de cartões, pois usaria cartões perfurados) e saída (um tipógrafo). Ada Lovelace foi a primeira programadora da época, a pedido de Babbage,projetou e explicou programas para a máquina ainda inexistente. Dentre seus conceitos inventados, se destacaram o da subrotina, loop e o do salto condicional (que apenas foi iniciado). Babbage e Ada embora tivessem gastado toda a fortuna de suas famílias, não conseguiram concluir a máquina analítica, pois a tecnologia da época era insuficiente para o que eles precisavam. Babbage morreu em 1871, mas até hoje ele é considerado o “avô da computação”, pois as suas teorias serviram de base para a criação de várias máquinas que possuímos atualmente. Até o ano de 1940 nada semelhante com o projeto da máquina de Babbage e Ada foi inventado, provando mais uma vez que ele estava avançando para o seu tempo. Figura 6 - Máquina de Diferenças
  12. 12. 12 7. A Teoria de Boole Em 1838, nos estados unidos, foi criado o código Morse, por Samuel F. Morse, que também foi o criador do telégrafo elétrico, cujo teve sua primeira apresentação pública em 1844. No século XIX as máquinas utilizavam o sistema por base decimal, ou seja, de 0 a 9, mas eram encontrados problemas nesse sistema, pois afirmavam que qualquer variação provocada por um ruído causaria erros consideráveis nos cálculos. Isso foi mudado quando George Boole, propôs a álgebra binário booleana, que ao invés de utilizar 10 números, utilizava só dois, o 0 e 1, melhor dizendo, o verdadeiro e o falso. Esse novo tipo sistema lógico revolucionou a computação, e até hoje é utilizado em nossos computadores. Em sua teoria, o número “1” tem significados como: ativo, ligado, existente, verdadeiro. Por outro lado, o “0” representa o inverso: não ativo, desligado, não existente, falso. Para representar valores intermediários, como “mais ou menos” ativo, é possível usar dois ou mais algarismos (bits) para a representação. Por exemplo: Figura 7 - Máquina analítica
  13. 13. 13  00 – desligado  01 – carga baixa  10 – carga moderada  11 – carga alta Todo o sistema lógico dos computadores atuais, inclusive o do qual você está usando, usa a teoria de Boole de forma prática. 8. Máquina de Hollerith Em 1890, mais um homem marcante na história dos computadores, o Dr. Herman Hollerith, que acelerou o tempo de processamento dos dados censos. Em vez da clássica caneta para marcar X em “sim” e “não” para perguntas como sexo e idade, os agentes do censo perfuravam essas opções nos cartões. O censo de 1880 tinha sido processado em sete anos, com todos caçulos sendo feitos a mão, já o de 1890 foi processado em dois anos e meio, com a ajuda de uma máquina de perfurar cartões, criada por Hollerith. Ela tinha um funcionamento baseado na idéia de Babbage, dos cartões perfurados para fazer a memória, o funcionamento era descrito por ele assim: “As informações sobre os indivíduos eram armazenadas por meio de perfurações em locais específicos do cartão. Nas máquinas de tabular (Figura 8), um pino passava pelo furo e chegava a uma jarra de mercúrio, fechando um circuito elétrico e causando um incremento de 1 em um contador mecânico.” Figura 8 – Tabuladora de Hollerith
  14. 14. 14 Aproveitando todo o sucesso ocasionado por sua máquina, Hollerith fundou sua própria empresa, a Tabulation Machine Company, no ano de 1896. Após algumas fusões com outras empresas e anos no comando do empreendimento, Hoolerith veio a falecer. Quando um substituto assumiu o seu lugar, em 1916, o nome da empresa foi alterado para Internacional Business Machine, a mundialmente famosa IBM. 9. Computadores pré-modernos Na primeira metade do século XX, vários computadores mecânicos foram desenvolvidos, sendo que, com o passar do tempo, componentes eletrônicos foram sendo adicionados aos projetos. Em 1931, Vannevar Bush implementou um computador com uma arquitetura binária propriamente dita, usando os bits 0 e 1. A base decimal exigia que a eletricidade assumisse 10 voltagens diferentes, o que era muito difícil de ser controlado. Por isso, Bush fez uso da lógica de Boole, onde somente dois níveis de voltagem já eram suficientes. A Segunda Guerra Mundial foi um grande incentivo no desenvolvimento de computadores, visto que as máquinas estavam se tornando mais úteis em tarefas de desencriptação de mensagens inimigas e criação de novas armas mais inteligentes. Allan Turing (Figura 9) responsável por várias pesquisas focadas no objetivo de saber os tipos de problemas que um computador poderia resolver, nascendo aí a ideia de que o computador poderia resolver tudo. Além disso criou o Colossus, que era um computador responsável por fazer criptoanálises no tempo da segunda guerra mundial, criou também a “máquina de Turing”, que a partir dela é possível modelar qualquer computador digital, ela foi envolvida na construção da “Colossus”. Figura 9 - Allan Turing
  15. 15. 15 Turing foi chamado “o pai da ciência da computação”, devido as suas várias contribuições para o meio. Vários projetos e grandes invenções marcaram essa época, a marinha americana em conjunto com a universidade de Harvard construiu o computador chamado “Harvard Mark 1” (Figura 10), ele tinha aproximadamente 120m³, era cheio de relês, tinha um alto nível de ruídos e era capaz de multiplicar números de 10 dígitos em apenas 3 segundos, uma maravilha. Na época, ele era interpretado como uma realização do projeto de Babbage. Figura 10 – Harvard Mark 1 10.Computação moderna A computação moderna pode ser definida pelo uso de computadores digitais, que não utilizam componentes analógicos com base de seu funcionamento. Ela pode ser dividida em várias gerações. 10.1.Primeira geração (1946 — 1959) A primeira geração de computadores modernos tinha com principal característica o uso de válvulas eletrônicas, possuindo dimensões enormes. Eles utilizavam quilômetros de fios, chegando a atingir temperaturas muito elevadas, o que frequentemente causava problemas de funcionamento. Normalmente, todos os programas eram escritos diretamente na linguagem de
  16. 16. 16 máquina. Existiram várias máquinas dessa época, contudo, vamos focar no ENIAC (Figura 11), que foi a mais famosa de todas. 10.1.1. ENIAC O ENIAC foi mantido em segredo até o fim da guerra, até que em 1946 foi levado a público, ocorreu uma revolução no mundo da computação com o lançamento do computador ENIAC (Electrical Numerical Integrator and Calculator), desenvolvido pelos cientistas norte-americanos John Eckert e John Mauchly. Esta máquina era em torno de mil vezes mais rápida que qualquer outra que existia na época.Seus custos foram imensos, pois várias válvulas queimavam a cada hora, além dos custos por energia elétrica oriundos do sistema de refrigeração utilizado para controlar o calor da máquina. A principal inovação nesta máquina é a computação digital, muito superior aos projetos mecânicos-analógicos desenvolvidos até então. Com o ENIAC, a maioria das operações era realizada sem a necessidade de movimentar peças de forma manual, mas sim pela entrada de dados no painel de controle. Cada operação podia ser acessada através de configurações, padrão de chaves e switches. As dimensões desta máquina são muito grandes, com aproximadamente 25 metros de comprimento por 5,50 metros de altura. O seu Figura 11 – ENIAC
  17. 17. 17 peso total era de 30 toneladas. Esse valor representa algo como um andar inteiro de um prédio. Alguns aspectos deixavam o ENIAC meio distante dos computadores atuais, são eles:  Não era usada a lógica binária, mas sim o sistema decimal;  Não tinha a capacidade de armazenar os programas na memória, tendo a necessidade de o operador conectar vários fios, relés e sequencias de chaves para que o computador executasse uma nova tarefa;  Não suportava instruções de desvio condicional, uma das bases da programação atual; 10.1.2. Arquitetura de Von Neumann Em 1946, o matemático John Von Neumann surgia para mudar essa história, com a sua teoria que era chamada de "Arquitetura de Von Neumann”, ele procurava armazenar programas no computador como se fossem dados, semelhante ao que acontece nos computadores atuais. Esse processo envolvia três características, são elas:  Que a houvesse uma codificação das instruções de uma forma que fosse possível armazenar dados no computador. Propôs a lógica binária  Armazenar as instruções e toda e qualquer informação necessária para execução das tarefas na memória  Seriam trocados os chamados cartões perfurados que continham a instrução do que deveria acontecer, e isso passaria a ficar na memória do computador. Essas mudanças transformariam os computadores daquela época nos nossos computadores programáveis de hoje, trazendo assim mais rapidez no processamento das tarefas, versatilidade e automodificação. Isso tudo, graças a Von Neumann, portanto essa nova arquitetura do computador foi nomeada de “arquitetura de Von Neumann”.
  18. 18. 18 10.1.3. UNIVAC Em 1951, surgiu o primeiro computador comercial, o UNIVAC (UNIVersal Automatic Computer), que pesava aproximadamente 7,2 toneladas e ocupava 32,5m² de espaço, sua programação era ajustada por aproximadamente 6000 chaves conectadas a um painel, consumia muita energia, especialmente por um equipamento que o acompanhava, o UNIPRINTER. O UNIVAC era capaz de realizar 1905 operações por segundo, seu preço inicial era de U$$ 1 milhão. O UNIVAC I ficou famoso ao fazer a previsão correta sobre as eleições presidenciais americanas de 1952. 11.Segunda geração (1959 — 1964) Na segunda geração, houve a substituição das válvulas eletrônicas por transistores, o que diminui em muito tamanho do hardware. A tecnologia de circuitos impressos também foi criada, evitando que os fios e cabos elétricos ficassem espalhados por todo lugar. É possível dividir os computadores desta geração em duas grandes categorias: supercomputadores e minicomputadores. 11.1.IBM 7030 O IBM 7030 (Figura 12), também conhecido por Strech, foi o primeiro supercomputador lançado na segunda geração, desenvolvido pela IBM. Seu tamanho era bem reduzido comparado com máquinas como o ENIAC, podendo ocupar somente uma sala comum. Ele era utilzado por grandes companhias, custando em torno de 13 milhões de dólares na época. Esta máquina executava cálculos na casa dos microssegundos, o que permitia até um milhão de operações por segundo. Dessa maneira, um novo patamar de velocidade foi atingido. Comparado com os da primeira geração, os supercomputadores, como o IBM 7030, eram mais confiáveis. Várias linguagens foram desenvolvidas para os computadores de segunda geração, como Fortran, Cobol e Algol. Assim, softwares já poderiam
  19. 19. 19 ser criados com mais facilidade. Muitos mainframes (modo como as máquinas dessa época são chamadas) ainda estão em funcionamento em várias empresas no dias de hoje, como na própria IBM. 11.2. PDP-1 PDP-1 foi um dos minicomputadores mais conhecidos da segunda geração. Basicamente, foi uma versão mais basica do supercomputador, sendo mais atrativo do ponto de vista financeiro (centenas de milhões de dólares a menos). Eram menores do que os supercomputadores, mas mesmo assim ainda ocupavam um bom espaço no cômodo. Figura 12 - O primeiro super computador, IBM 7030 Figura 13 - PDP-1, exemplo de mini-computador
  20. 20. 20 12.Terceira geração (1964 — 1970) Os computadores desta geração foram conhecidos pelo uso de circuitos integrados, ou seja, permitiram que uma mesma placa armazenasse vários circuitos que se comunicavam com hardwares distintos ao mesmo tempo. Desta maneira, as máquinas se tornaram mais velozes, com um número maior de funcionalidades. O preço também diminuiu consideravelmente. Um dos principais exemplos da terceira geração é o IBM 360/91 (Figura 14), lançado em 1967, sendo um grande sucesso em vendas na época. Esta máquina já trabalhava com dispositivos de entrada e saída modernos, como discos e fitas de armazenamento, além da possibilidade de imprimir todos os resultados em papel. O IBM 360/91 foi um dos primeiros a permitir programação da CPU por microcódigo, ou seja, as operações usadas por um processador qualquer poderiam ser gravadas através de softwares, sem a necessidade do projetar todo o circuito de forma manual. No final deste período, houve uma preocupação com a falta de qualidade no desenvolvimento de softwares, visto que grande parte das empresas estava só focada no hardware. Figura 14 – IBM 360/91
  21. 21. 21 13.Quarta geração (1970 até hoje) A quarta geração é conhecida pelo advento dos microprocessadores e computadores pessoais, com a redução drástica do tamanho e preço das máquinas. As CPUs atingiram o incrível patamar de bilhões de operações por segundo, permitindo que muitas tarefas fossem implementadas. Os circuitos acabaram se tornando ainda mais integrados e menores, o que permitiu o desenvolvimento dos microprocessadores. Quanto mais o tempo foi passando, mais fácil foi comprar um computador pessoal. Nesta era, os softwares e sistemas se tornaram tão importantes quanto o hardware. 13.1. Altair 8800 O Altair 8800, lançado em 1975, revolucionou tudo o que era conhecido como computador até aquela época. Com um tamanho que cabia facilmente em uma mesa e um formato retangular, também era muito mais rápido que os computadores anteriores. O projeto usava o processador 8080 da Intel, fato que propiciou todo esse desempenho. Com todo o boom do Altair, um jovem programador chamado Bill Gates se interessou pela máquina, criando a sua linguagem de programação Altair Figura 15 – Altair 8800
  22. 22. 22 Basic. O Altair funcionava através de cartões de entradas e saída, sem uma interface gráfica propriamente dita. 13.2. Apple, Lisa e Macintosh Vendo o sucesso do Altair, Steve Jobs (fundador da Apple) sentiu que ainda faltava algo no projeto: apesar de suas funcionalidades, este computador não era fácil de ser utilizado por pessoas comuns. Steve sempre foi conhecido por ter um lado artístico apurado, portanto, em sua opinião, um computador deveria representar de maneira gráfica o seu funcionamento, ao contrário de luzes que acendiam e apagavam. Por isso, o Apple I, lançado em 1976, pode ser considerado como o primeiro computador pessoal, pois acompanhava um pequeno monitor gráfico que exibia o que estava acontecendo no PC. Como o sucesso da máquina foi muito grande, em 1979 foi lançado o Apple II, que seguia a mesma ideia. Seguindo na mesma linha, os computadores Lisa (1983) e Macintosh (1984) (Figura 16) foram os primeiros a usar o mouse e possuir a interface gráfica como nós conhecemos hoje em dia, com pastas, menus e área de trabalho. Não é um preciso dizer que esses PCs tiveram um sucesso estrondoso, vendendo um número enorme de máquinas. Figura 16 – Macintosh
  23. 23. 23 13.3. Microsoft e os processadores Intel Paralelamente à Apple, Bill Gates fundou a Microsoft, que também desenvolvia computadores principiais. No começo de sua existência, no final dos anos 70 e até meados dos anos 80, Gates usou as ideias contidas nas outras máquinas para construir a suas próprias. Utilizando processadores 8086 da Intel, o primeiro sistema operacional da Microsof, MS-DOS, estava muito aquém dos desenvolvidos por Steve Jobs. Por esse motivo, Bill Gates acabou criando uma parceria com Jobs e, após algum tempo, copiou toda a tecnologia gráfica do Macintosh para o seu novo sistema operacional, o Windows. Desta forma, em meados dos anos 80, O Machintosh e o Windows se tornaram fortes concorrentes. Com a demisão de Steve Jobs da Apple, a empresa acabou muito enfraquecida. Assim, a Microsoft acabou se tornando a líder do mercado de computadores pessoais. Desde aquela época, vários processadores da Intel foram lançados, acompanhados de várias versões de Windows. Entre os modelos da Intel, podemos citar: 8086, 286, 386, 486, Pentium, Pentium 2, Pentium 3, Pentium 4, Core 2 Duo e i7. A AMD entrou no ramo de processadores em 1993, com o K5, lançando posteriormente o K6, K7, Athlon, Duron, Sempron, entre outros. Todos os computadores pessoais que são lançados atualmente são bastante derivados das ideias criadas pela Apple e pela Microsoft. 13.4. Multi-core Uma das principais tendências dos últimos anos do mercado de desktops é a chamada “multi-core”, que consiste em vários processadores Figura 17 – Modelos de processadores Intel
  24. 24. 24 trabalhando paralelamente. Assim, as tarefas podem ser divididas e executadas de maneira mais eficiente. No início da década de 2000, os transístores usados no processador já estavam muito pequenos, causando um aquecimento maior que o normal. Desta maneira, foi necessário dividir a CPU em vários núcleos. 13.5. Computação de bolso e tablets A computação de bolso, que está cada vez mais presente nas nossas vidas. De alguns anos para cá, cada vez mais computadores móveis são lançados no mercado, os quais podem ser carregados dentro do bolso — por isso o seu nome. Entre esses dispositivos, podemos citar primeiramente os celulares, que cada vez mais executam funções existentes nos computadores, possuindo sistemas operacionais completos, além de palmtops, pendrives, câmeras fotográficas, TVs portáteis etc. Na verdade, a principal tendência do futuro, que já está ocorrendo agora, é a união de muitas funcionalidades em um mesmo aparelho. Por isso, após alguns anos, vai ser muito comum que as pessoas tenham somente um único dispositivo portátil, que vai executar todas as tarefas desejadas. A chegada dos tablets ao mercado foi outro grande passo para que isso se tornasse realidade. Figura 18 - Iphone
  25. 25. 25 Arquitetura de Computadores 1. Introdução A busca de técnicas mais eficazes de processamento de dados, aliada ao natural avanço tecnológico em diversos outros ramos de atividade, como a eletrônica e a mecânica, por exemplo, conduziu ao desenvolvimento de equipamentos de processamento eletrônico de dados - os computadores - capazes de coletar, armazenar e processar dados muito mais rapidamente que os antigos meios manuais. 2. Conceitos básicos de informática Um computador é uma máquina (conjunto de partes eletrônicas e eletromecânicas) capaz de sistematicamente coletar, manipular e fornecer os resultados da manipulação de dados para um ou mais objetivos. Por ser uma máquina composta de vários circuitos e componentes eletrônicos, também é chamado de equipamento de processamento eletrônico de dados. O esquema básico de um processamento de dados (manual ou automático) resulta em um produto acabado: a informação. Assim, os dados precisam ser processados para que algum resultado tenha significado para alguém ou para o próprio computador. O computador processa os dados, orientado por um conjunto de instruções, para produzir resultados completos com um mínimo de intervenção humana. Entre seus vários benefícios, podemos citar: a) grande velocidade no processamento e disponibilização de informações; b) precisão no fornecimento das informações; c) adequação para execução de tarefas repetitivas; d) redução de custos operacionais; e) compartilhamento de dados.
  26. 26. 26 3. Computadores: hardware e software Um sistema baseado em computador é, na verdade, composto por hardware e software. Hardware é o nome que se dá para a parte física do computador. É tudo que você pode tocar (mouse, teclado, caixas de som, placas, fios, componentes em geral). Software é o nome que se dá a toda parte lógica do computador, ou seja, os programas que você vê funcionar na tela e que dão “vida” ao computador. Sem um software adequado às suas necessidades, o computador, por mais bem equipado e avançado que seja, é completamente inútil. 3.1.Hardware: componentes dos computadores 3.1.1. Unidades de Entrada e Saída Os dispositivos de E/S (Entrada e Saída) são constituídos, geralmente, de duas partes: o controlador e o dispositivo propriamente dito. O controlador é um chip ou um conjunto de chips que controla fisicamente o dispositivo; ele recebe comandos do sistema operacional (software), por exemplo, para ler dados dos dispositivos e para enviá-los (TANEMBAUM, 2003). Unidades de entrada são, portanto, dispositivos físicos que capturam os dados a serem processados. Os dados podem ser do tipo texto, vídeo ou áudio. Para cada tipo de dado temos um dispositivo de entrada especifico para sua leitura: teclado, mouse, scanner, etc. Unidades de saída apresentam os resultados finais do processamento. Para o usuário, os dispositivos de saída são tão normais que quase não são percebidos: monitores de vídeo, impressoras, plotter, telas de terminais bancários, impressoras de extratos, painéis de senha, monitores de vídeo, quiosques de consultas de preços, etc. Existem também alguns dispositivos que podem ser classificados com ambas as denominações, entrada e saída, por exemplo: unidades de disco (discos rígidos, disquetes, unidades leitoras e gravadoras de CD e DVD), unidades de armazenamento USB (Universal Serial Bus – Barramento Serial Universal) – conhecidos como pen drives –, telas touch screen, etc.
  27. 27. 27 3.1.2. Memória O computador deve ser dotado de alguma forma de armazenamento (temporário ou permanente) para que os dados coletados ou processados possam ser armazenados. A essa estrutura damos o nome genérico de memória (não está contextualizado aqui o tipo da memória). A memória armazena, essencialmente, os bits. A menor unidade de informação em um computador é o bit, que pode assumir os valores 0 ou 1. Como um único bit é insuficiente para representar informações mais complexas, eles são agrupados e combinados. Num primeiro agrupamento, são reunidos em conjuntos de oito bits, recebendo a denominação de Byte. Como a unidade byte (unidade de medida de armazenamento) também é, consideravelmente, pequena quando indicamos valores mais extensos, utilizamos múltiplos do byte: quilobyte, megabyte, gigabyte, terabyte, etc. 3.1.3. Unidade Central de Processamento (UCP) A CPU (Central Processing Unit ou Unidade Central de Processamento), microprocessador ou processador é a parte do computador que interpreta e executa as instruções contidas no software. Na maioria das CPUs essa tarefa é Figura 1 - Exemplos de dispositivos de entrada e saída Fonte: CEAD/ IFES
  28. 28. 28 dividida entre uma unidade de controle que dirige o fluxo do programa e uma ou mais unidades que executam operações em dados. O ciclo básico de execução de qualquer CPU é buscar a primeira instrução da memória, decodificá-la para determinar seus operandos e qual operação executar com os mesmos, executá-la e então buscar, decodificar e executar a instrução subsequente (TANEMBAUM, 2003). A CPU é constituída pelos seguintes componentes: a ULA (Unidade de Lógica e Aritmética), a UC (Unidade de Controle) e os registradores. Um tipo de registrador especial é o contador de programa, que contém o endereço de memória da próxima instrução que a CPU vai buscar. Assim, esse registrador vai ser atualizado para conter sempre o endereço da próxima instrução a ser processada. 3.2.Software Um programa de computador pode ser definido como uma série de instruções ou declarações, em forma inteligível pelo computador, preparada para obter certos resultados. Um programa pode ser chamado de software, porém esse termo pode ser utilizado também para um grupo de programas ou para todo o conjunto de programas de um computador. Podemos classificar os software ou programas de várias formas. A seguir apresentamos uma classificação genérica. 3.2.1. Software básico São software destinados à operação do computador. Têm como função principal controlar os diversos dispositivos do computador e servir de comunicação intermediária entre o computador e os outros programas normalmente utilizados, o que permite que esses possam ser executados. Sua classificação básica pode ser: 3.2.1.1. Sistemas ou Ambientes Operacionais Chamado tradicionalmente de Sistema Operacional (ou simplesmente SO), esse software é o grande responsável pelo funcionamento do computador, a interação e sincronização de todos os elementos que fazem
  29. 29. 29 parte do conjunto computacional. Sem um sistema operacional o computador não passa de um monte de placas de circuito sem função definida. Os sistemas operacionais mais utilizados nos dias de hoje são o Windows e o Linux. 3.2.1.2. Linguagens Podemos imaginar o computador como uma calculadora capaz de fazer cálculos muito mais rápido que nós, mas para isso devemos dizer-lhe o quê e como calcular. A função das linguagens de programação é exatamente esta: servir de um meio de comunicação entre computadores e humanos. Existem basicamente dois tipos de linguagens de programação: as de baixo nível e as de alto nível. As linguagens de baixo nível são interpretadas diretamente pelo computador, tendo um resultado rápido, porém é muito difícil e incômodo se trabalhar com elas. Exemplos de linguagens de baixo nível são o Basic e o Assembly. As linguagens de alto nível são mais fáceis de trabalhar e de entender; as ações são representadas por palavras geralmente em inglês (por exemplo: Do, Write, etc.) e foram assim desenvolvidas para facilitar a memorização e a lógica. Essas linguagens não são interpretadas diretamente pelo computador, sendo necessário traduzi-las para linguagem binária utilizando um programa chamado compilador. 3.2.1.3. Software aplicativo São programas de computadores que têm alguma função específica. Podem ser, basicamente, de: 3.2.1.3.1. Uso geral São os programas destinados a nos oferecer certos tipos de serviços. Podemos incluir nessa categoria os processadores de texto, as planilhas eletrônicas, os programas gráficos e os sistemas gerenciadores de banco de dados, exemplificados a seguir: • Processadores de texto - dentre os vários disponíveis, destacamos os seguintes: Word (Microsoft) e WordPerfect (Corel), OpenEdit; • Planilhas eletrônicas ou planilhas de cálculo - dentre as mais comuns, destacamos o MS-Excel, o Lotus 1-2-3, o Quatro Pro e o OpenCalc;
  30. 30. 30 • Programas Gráficos - permitem a criação de figuras e desenhos; alguns possuem recursos extras para animação. Podem ser conjugados com programas que adicionam sons às imagens. Dentre os mais sofisticados destacam-se o Corel Draw e o Adobe PhotoShop. 3.2.1.4. Uso específico São software desenvolvidos sob encomenda para empresas que utilizam aplicações específicas, como, por exemplo, aplicações de controle financeiro, controle de produção, controle de clientes, faturamento, etc. Normalmente esses software necessitam dos sistemas Gerenciadores de Bancos de Dados (programas ou coleção de programas voltados ao controle de grandes volumes de informações).
  31. 31. 31 Referencias Bibliográficas Fonseca Filho, Cléuzio. História da computação [recurso eletrônico] : O Caminho do Pensamento e da Tecnologia / Cléuzio Fonseca Filho. – Porto Alegre : EDIPUCRS, 2007. 205 p Amaral, Allan Francisco Forzza. Arquitetura de computadores : Curso Técnico em Informática / Allan Francisco Forzza Amaral. – Colatina: CEAD / Ifes, 2010. 100 p. : il. TANEMBAUM, Andrew S. Sistemas Operacionais Modernos. 2ª ed. Tradução de Ronaldo A.L. Gonçalves e Luis A. Consularo. São Paulo: Prentice Hall, 2003.

×