WebCheats Teamspeak
Siga-nos...
Follow us on Twitter Follow us on Facebook Watch us on YouTube
Registro






Resultados 1 a 7 de 7
  1. #1
    Membro Avançado
    Data de Ingresso
    May 2011
    Localização
    Desapareci, mais estou de volta, com muito mais...
    Posts
    1.251
    Agradecer
    311
    Agradecido
    80 vezes
    WC Coins
    27 (0 Banked)

    Padrão [ARTIGO] Sobre Hardware

    Bom galera , vim trase um monte de coisa sobre hardware, espero que gostem.Vamos lá.

    Introdução: Como tudo funciona
     
    Para um leigo, um computador pode até parecer uma máquina misteriosa, uma "caixa preta" onde de alguma forma mística são guardadas e processadas informações. Mas, de misterioso os computadores não têm nada. Tudo funciona de maneira ordenada, e até certo ponto simples.

    Hoje em dia, quase todo mundo com condições para pagar um curso, ou ter um PC em casa, aprende muito rápido como usar o Windows ou mesmo o Linux, acessar a Internet, ou seja, usar o micro. Mas, dentre todos estes usuários, poucos, muito poucos realmente entendem como a máquina funciona. O que muda entre um processador Pentium ou um Athlon por exemplo? Por que um PC com pouca memória RAM fica lento? Como funciona um disco rígido, e como é possível armazenar uma quantidade tão grande de dados num dispositivo tão pequeno? O que fazem as placas de vídeo 3D e em que tarefas elas são necessárias? Qual é a diferença entre uma placa de som "genérica" e outra que custa mais de 100 dólares? Por que alguns modems são tão ruins? Como um PC funciona??

    O objetivo deste texto introdutório é lhe dar uma visão geral sobre os componentes que formam um computador atual e como tudo funciona. Você encontrará também várias dicas de compra, explicações sobre termos e convenções usadas, etc. O objetivo é servir como "o caminho das pedras" para quem está começando a estudar hardware, e precisa de um empurrãozinho inicial para poder estudar tópicos mais avançados.

    Como funciona o sistema binário
     
    Existem duas maneiras de representar uma informação: analógicamente ou digitalmente. Uma música é gravada numa fita K-7 de forma analógica, codificada na forma de uma grande onda de sinais magnéticos, que pode assumir um número ilimitado de freqüências. Um som grave seria representado por um ponto mais baixo da onda, enquanto um ponto mais alto representaria um som agudo. O problema com esta representação, é que qualquer interferência causa distorções no som. Se os computadores trabalhassem com dados analógicos, certamente seriam muito passíveis de erros, pois qualquer interferência, por mínima que fosse, causaria alterações nos dados processados e consequentemente nos resultados.

    O sistema digital por sua vez, permite armazenar qualquer informação na forma de uma seqüência de valores positivos e negativos, ou seja, na forma de uns e zeros. O número 181 por exemplo, pode ser representado digitalmente como 10110101. Qualquer tipo de dado, seja um texto, uma imagem, um vídeo, um programa, ou qualquer outra coisa, será processado e armazenado na forma de uma grande seqüência de uns e zeros.

    É justamente o uso do sistema binário que torna os computadores confiáveis, pois a possibilidade de um valor 1 ser alterado para um valor 0, o oposto, é muito pequena. Lidando com apenas dois valores diferentes, a velocidade de processamento também torna-se maior, devido à simplicidade dos cálculos.

    Cada valor binário é chamado de "bit", contração de "binary digit" ou "dígito binário". Um conjunto de 8 bits forma um byte, e um conjunto de 1024 bytes forma um Kilobyte (ou Kbyte). O número 1024 foi escolhido pois é a potência de 2 mais próxima de 1000. Um conjunto de 1024 Kbytes forma um Megabyte (1048576 bytes) e um conjunto de 1024 Megabytes forma um Gigabyte (1073741824 bytes). Os próximos múltiplos são o Terabyte (1024 Gibabytes) e o Petabyte (1024 Terabytes)

    Também usamos os termos Kbit, Megabit e Gigabit, para representar conjuntos de 1024 bits. Como um byte corresponde a 8 bits, um Megabyte corresponde a 8 Megabits e assim por diante.

    1 Bit = 1 ou 0

    1 Byte = Um conjunto de 8 bits

    1 Kbyte = 1024 bytes ou 8192 bits

    1 Megabyte = 1024 Kbytes, 1.048.576 bytes ou 8.388.608 bits

    1 Gigabyte = 1024 Megabytes, 1.048.576 Kbytes, 1.073.741.824 bytes ou 8.589.934.592 bits


    Quando vamos abreviar, também existe diferença. Quando estamos falando de Kbytes ou Megabytes, abreviamos respectivamente como KB e MB, sempre com o "B" maiúsculo. Quando estamos falando de Kbits ou Megabits abreviamos da mesma forma, porém usando o "B" minúsculo, "Kb", "Mb" e assim por diante. Parece irrelevante, mas esta é uma fonte de muitas confusões. Sempre que nos referimos à velocidade de uma rede de computadores, por exemplo, não a medimos em bytes por segundo, e sim em bits por segundo: 10 megabits, 100 megabits e assim por diante. Escrever "100 MB" neste caso, daria a entender que a rede transmite a 100 megabytes, que correspondem a 800 megabits.


    Como um PC funciona
     
    A arquitetura básica de qualquer computador completo, seja um PC, um Macintosh ou mesmo um computador de grande porte, é formada por apenas 5 componentes básicos: processador, memória RAM, disco rígido, dispositivos de entrada e saída e softwares.

    O processador é o cérebro do sistema, encarregado de processar todas as informações. Porém, apesar de toda sua sofisticação, o processador não pode fazer nada sozinho. Para termos um computador funcional, precisamos de mais alguns componentes de apoio: memória, unidades de disco, dispositivos de entrada e saída e finalmente, os programas a serem executados.

    A memória principal, ou memória RAM, é usada pelo processador para armazenar os dados que estão sendo processados, funcionando como uma espécie de mesa de trabalho. A quantidade de memória RAM disponível, determina quais atividades o processador poderá executar. Um engenheiro não pode desenhar a planta de um edifício sobre uma carteira de escola. Caso a quantidade de memória RAM disponível seja insuficiente, o computador não será capaz de rodar aplicativos mais complexos. O IBM PC original, lançado em 1981, por exemplo, possuía apenas 64 Kbytes de memória e por isso era capaz de executar apenas programas muito simples, baseados em texto. Um PC atual possui bem mais memória: 64 MB, 128 MB ou mais, por isso é capaz de executar programas complexos.

    A memória RAM é capaz de responder às solicitações do processador numa velocidade muito alta. Seria perfeita se não fossem dois problemas: o alto preço e o fato de ser volátil, ou seja, de perder todos os dados gravados quando desligamos o micro.

    Já que a memória RAM serve apenas como um rascunho, usamos um outro tipo de memória para guardar arquivos e programas: a memória de massa. O principal dispositivo de memória de massa é o disco rígido, onde ficam guardados programas e dados enquanto não estão em uso ou quando o micro é desligado. Disquetes e CD-ROMs também são ilustres representantes desta categoria de memória.

    Para compreender a diferença entra a memória RAM e a memória de massa, você pode imaginar uma lousa e uma estante cheia de livros com vários problemas a serem resolvidos. Depois de ler nos livros (memória de massa) os problemas a serem resolvidos, o processador usaria a lousa (a memória RAM) para resolvê-los. Assim que um problema é resolvido, o resultado é anotado no livro, e a lousa é apagada para que um novo problema possa ser resolvido. Ambos os dispositivos são igualmente necessários.

    Os sistemas operacionais atuais, incluindo claro a família Windows, permitem ao processador usar o disco rígido para gravar dados caso a memória RAM se esgote, recurso chamado de memória virtual. Utilizando este recurso, mesmo que a memória RAM esteja completamente ocupada, o programa será executado, porém muito lentamente, devido à lentidão do disco rígido.

    Para permitir a comunicação entre o processador e os demais componentes do micro, assim como entre o micro e o usuário, temos os dispositivos de I/O "input/output" ou "entrada e saída". Estes são os olhos, ouvidos e boca do processador, por onde ele recebe e transmite informações. Existem duas categorias de dispositivos de entrada e saída:

    A primeira é composta pelos dispositivos destinados a fazer a comunicação entre o usuário e o micro. Nesta categoria podemos enquadrar o teclado, mouse, microfone, etc. (para a entrada de dados), o monitor, impressoras, caixas de som, etc. (para a saída de dados).

    A segunda categoria é destinada a permitir a comunicação entre o processador e os demais componentes internos do micro, como a memória RAM e o disco rígido. Os dispositivos que fazem parte desta categoria estão dispostos basicamente na placa mãe, e incluem controladores de discos, controladores de memória, etc.

    Como toda máquina, um computador, por mais avançado que seja, é burro; pois não é capaz de raciocinar ou fazer nada sozinho. Ele precisa ser orientado a cada passo. É justamente aí que entram os programas, ou softwares, que orientam o funcionamento dos componentes físicos do micro, fazendo com que eles executem as mais variadas tarefas, de jogos à cálculos científicos.

    Os programas instalados, determinam o que o micro "saberá" fazer. Se você quer ser um engenheiro, primeiro precisará ir a faculdade e aprender a profissão. Com um micro não é tão diferente assim, porém o "aprendizado" é não é feito através de uma faculdade, mas sim através da instalação de um programa de engenharia, como o AutoCAD. Se você quer que o seu micro seja capaz de desenhar, basta "ensiná-lo" através da instalação um programa de desenho, como o Corel Draw! e assim por diante.

    Toda a parte física do micro: processadores, memória, discos rígidos, monitores, enfim, tudo que se pode tocar, é chamada de hardware, enquanto os programas e arquivos armazenados são chamados de software.

    Existem dois tipos de programas, chamados de software de alto nível, e software de baixo nível. Estas designações não indicam o grau de sofisticação dos programas, mas sim com o seu envolvimento com o Hardware.

    O processador não é capaz de entender nada além de linguagem de máquina, instruções relativamente simples, que ordenam a ele que execute operações matemáticas como soma e multiplicação, além de algumas outras tarefas, como leitura e escrita de dados, comparação, etc. Como é extremamente difícil e trabalhoso fazer com que o processador execute qualquer coisa escrevendo programas diretamente em linguagem de máquina, usamos pequenos programas, como o BIOS e os drivers de dispositivos do Windows para executar as tarefas mais básicas, funcionando como intermediários, ou intérpretes, entre os demais programas e o hardware. Estes programas são chamados de software de baixo nível. Todos os demais aplicativos, como processadores de texto, planilhas, jogos, etc. rodam sobre estes programas residentes, não precisando acessar diretamente ao hardware, sendo por isso chamados de softwares de alto nível.

    É justamente por causa desta divisão que muitas vezes um novo dispositivo, uma placa de som que acabou se ser "espetada" na placa mãe por exemplo, não funciona até que sejam instalados os drivers que vem no CD ou disquetes que acompanham a placa. O Windows é capaz de perceber a presença da nova placa, mas para usa-la, ele precisa do driver correto. O driver funciona como uma espécie de intérprete, que converte os comandos usados pelo Windows nos comandos entendidos pela placa e vice-versa.

    O próprio Windows possui uma grande biblioteca de drivers, que permite instalar automaticamente muita coisa, mas, muitos dispositivos, principalmente placas mais recentes, lançadas depois da versão do Windows que estiver usando, não funcionarão adequadamente até que sejam instalados os drivers corretos. Sem os drivers, é impossível fazer qualquer placa funcionar, é como perder a chave do carro. Felizmente, hoje em dia é possível encontrar drivers para praticamente qualquer tipo de placa, mesmo antiga, através dos sites dos fabricantes.

    Para instalar uma nova placa, o procedimento básico é sempre o mesmo. Depois de instalar fisicamente a placa e ligar o PC, o Windows exibirá uma aviso de "novo Hardware encontrado", pedindo os drivers em seguida. Escolha a opção de procurar um driver para o dispositivo e mostre a localização dos arquivos, seja uma pasta no CD-ROM, uma pasta do HD, um disquete, etc. Caso tenha apontado os arquivos corretos, o Windows irá instala-los e o dispositivos passará a funcionar.

    Lembre-se que existem drivers específicos para cada sistema operacional. Se o modem tiver apenas drivers para Windows 98 por exemplo, ele não funcionará no Linux, DOS ou outros sistemas, a menos que o fabricante resolva disponibilizar novas versões do driver.

    Continuando a explicação sobre software, não podemos nos esquecer do próprio sistema operacional, que funciona como uma ponte entre o hardware e o usuário, automatizando o uso do computador, e oferecendo uma base sólida apartir da qual os programas podem ser executados.

    Continuando com os exemplos anteriores, o sistema operacional poderia ser definido como a "personalidade" do micro. Um micro rodando o Slackware por exemplo, dificilmente seria tão amigável e fácil de operar quanto um outro micro rodando o Windows 98. Por outro lado, este último jamais seria tão estável quanto um terceiro micro rodando o Windows 2000. As diferenças não param por aí: Os programas desenvolvidos para rodar sobre um determinado sistema operacional quase sempre são incompatíveis com outros. Uma versão do Corel Draw! desenvolvida para rodar sobre o Windows 98, jamais rodaria sobre o Linux por exemplo, seria preciso reescrever todo o programa, criando uma nova versão.

    A interface dos vários sistemas operacionais também é diferente. No MS-DOS, por exemplo, temos apenas um prompt de comando baseado em texto, enquanto no Windows temos uma interface gráfica baseada em janelas.

    Esta divisão visa facilitar o trabalho dos programadores, que podem se concentrar em desenvolver aplicativos cada vez mais complexos, num espaço de tempo cada vez menor.

    Fazer um programinha simples de controle de caixa em uma linguagem de baixo nível, como o Assembler, por exemplo, tomaria pelo menos um dia inteiro de trabalho de um programador. Um programa com as mesmas funções, feito em uma linguagem visual (ou de alto nível) como o Visual Basic ou Delphi, tomaria bem menos tempo, e ainda por cima teria uma interface gráfica muito mais bonita e amigável, já que muitas das funções usadas no programa já estariam prontas.


    Arquiteturas
     
    Nos primórdios da informática, nas décadas de 50, 60 e 70, vários fabricantes diferentes disputavam o mercado. Cada um desenvolvia seus próprios computadores, que eram incompatíveis entre sí, tanto a nível de hardware, quanto a nível de software.

    Apesar de executarem as mesmas operações básicas, praticamente tudo era diferente: Os componentes de um não serviam em outro, os programas eram incompatíveis e, até mesmo as linguagens de programação, eram diferentes.

    Porém, com a popularização dos microcomputadores era inevitável uma padronização. No início da década de 80, tínhamos basicamente apenas duas arquiteturas, ou "famílias" de computadores pessoais diferentes: O PC, desenvolvido pela IBM, e o Macintosh, desenvolvido pela Apple.

    Como era mais barato, o PC tornou-se mais popular, ficando o uso dos Macintoshs restrito a nichos onde suas características peculiares o tornam mais atraente, como a edição de imagens ou sons e editoração eletrônica.

    Durante muito tempo, a própria Apple pareceu se conformar com a posição, lançando micros voltados principalmente para o seguimento profissional. Atualmente, vemos uma aceitação maior dos Macs, principalmente devido ao lançamento do iMac, mas os PCs ainda são a grande maioria.

    Como os micros PC possuem uma arquitetura aberta, ou seja, a possibilidade de vários fabricantes diferentes desenvolverem seus próprios componentes, baseados em padrões já definidos, temos uma lista enorme de componentes compatíveis entre sí. Podemos escolher entre várias marcas e modelos os componentes que melhor atendam nossas necessidades e montar nossa própria configuração, assim como podemos escolher os materiais que serão usados para construir uma casa. Também é possível melhorar posteriormente o micro montado através de upgrades, trocando alguns componentes para melhorar seu desempenho.

    Mesmo micros de grife, como os IBM, Compaq, Itautec, Dell, etc. também são micros montados, já que quase todos os seus componentes são comprados de outros fabricantes. Temos, por exemplo, um processador da Intel, um disco rígido da Quantum, uma placa mãe da Asus, memórias da Kingstone, CD-ROM e drive de disquetes da Mitsumi, um monitor da LG, e por aí vai :-) A diferença principal entre os micros montados e os micros de grife é que os últimos são montados por grandes empresas e temos todo o suporte e garantia. Porém, adquirindo um micro de grife, quase sempre pagamos mais caro e ao mesmo tempo não temos tanta liberdade para configurar o micro a gosto.

    Entretanto, o simples fato de comprar um micro de grife não é garantia de qualidade. Muitas vezes eles possuem uma qualidade superior à dos micros montados por lojas de informática por exemplo. Porém, a necessidade de lançar micros de baixo custo, muitas vezes leva os grandes fabricantes a lançarem verdadeiras bombas no mercado, usando componentes de baixíssima qualidade. A lista é enorme, já tivemos casos de micros de grife que não traziam sequer memória cache L2 (na época em que este ainda fazia parte da placa mãe). Pesquisando por aí, você irá encontrar vários PCs de marcas conceituadas, usando placas PC-Chips, pouca memória RAM, etc. "economias" que aumentam o lucro do integrador, deixando a bomba na mão do infeliz que compra-los.


    Os Componentes
     
    Agora que você já entendeu o que se passa dentro do gabinete de um PC, que tal se estudássemos a função dos seus principais componentes?

    Você já deve estar familiarizado com a função do processador. Atualmente encontramos no mercado vários processadores diferentes. Em ordem de evolução, podemos citar o 486, o Pentium, o Pentium MMX, o K6, o K6-2, o Pentium II e o Celeron, o Pentium III, Duron e o Athlon.

    Definimos o processador como o cérebro do micro. Pois bem, todo o cérebro precisa de um corpo, que é justamente a placa mãe. Ela traz todos os componentes que permitem ao processador comunicar-se com os demais periféricos, como discos rígidos, placas de vídeo, etc. Outra função da placa mãe é acomodar e alimentar elétricamente o processador.

    Cada processador precisa de uma placa mãe desenvolvida especialmente para ele pois, devido à diferenças de arquitetura, os processadores possuem "necessidades" diferentes. Cada processador possui um número diferente de contatos, ou terminais, opera usando uma voltagem diferente e precisa de um conjunto de circuitos de apoio desenvolvidos especialmente para ele. O próprio encaixe do processador muda de família para família. Você jamais poderá instalar um Athlon numa placa mãe para Pentium III por exemplo.

    Apesar das diferenças, normalmente as placas mãe são desenvolvidas para serem compatíveis com mais de um processador. Uma placa mãe soquete 7 mais moderna, por exemplo, quase sempre suportará desde um Pentium de 75 MHz até um K6-2 de 550 MHz, passando por processadores Pentium MMX, K6 e Cyrix 6x86. Uma placa soquete 370 moderna por sua vez, suporta processadores Celeron e Pentium III. Placas soquete A são compatíveis com os processadores Athlon e Duron da AMD.

    Mas a importância da placa mãe não para por aí. Ela determina quais componentes poderão ser usados no micro (e consequentemente as possibilidades de upgrade) e influencia diretamente na performance geral do equipamento. Com certeza, você não gostaria de gastar 200 ou 300 dólares numa placa de vídeo de última geração, só para descobrir logo depois que não poderá instalá-la, pois a placa mãe do seu micro não possui um slot AGP.



    Para poder trabalhar, o processador precisa também de memória RAM, que é vendida na forma de pequenas placas, chamadas de módulos de memória, que são encaixadas na placa mãe. Você também ouvirá muito o termo "pente de memória" uma espécie de apelido, que surgiu por que os contatos metálicos dos módulos lembram um pouco os dentes de um pente.

    Todos os programas e arquivos são armazenados no disco rígido, também chamado de HD (Hard Disk) ou Winchester. A capacidade do disco rígido, medida em Gigabytes, determina a quantidade de arquivos e programas que será possível armazenar. O disco rígido também exerce uma grande influência sobre a performance global do equipamento. O disco rígido é acomodado no gabinete e ligado à placa mãe através de um cabo.

    Outro componente essencial é o gabinete, a caixa de metal que acomoda e protege os frágeis componentes internos do micro. O gabinete traz também a fonte de alimentação, responsável por converter a corrente alternada da tomada (AC) em corrente contínua (DC) usada pelos componentes eletrônicos. A fonte também serve para atenuar pequenas variações de tensão, protegendo o equipamento.

    A placa mãe, o processador, os módulos de memória e o disco rígido, são os quatro componentes básicos do micro. Porém, por enquanto temos um equipamento "autista", incapaz de receber ou transmitir informações. Precisamos agora adicionar "sentidos" na forma de mais componentes. Os essenciais são a placa de vídeo, que permite que o micro possa gerar imagens a serem mostradas no monitor, teclado e mouse, que permitem ao usuário operar o micro.

    Outros componentes permitem ampliar os recursos do micro, mas podem ser definidos como opcionais, já que o computador pode funcionar sem eles:

    O CD-ROM permite que o micro leia CDs com jogos ou programas. Caso o micro possua também uma placa de som, você poderá ouvir também CDs de música. Existem também os drives de DVD, que além de lerem CDs normais, lêem DVDs de programas ou filmes.

    A placa de som permite que o micro gere sons, tocados por um par de caixas acústicas. A placa de som também traz entrada para um microfone e para um joystick. Junto com um drive de CD-ROM, a placa de som forma o chamado kit-multimídia (termo fora de moda hoje em dia, mas que já foi bastante usado).

    O Fax-Modem permite a comunicação entre dois computadores usando um linha telefônica. Ele permite a recepção e transmissão de faxes e o acesso à Internet. Hoje em dia, o Fax-Modem é um componente praticamente obrigatório; afinal, um micro que não pode ser conectado à Internet tem uma utilidade muito limitada.

    Temos também o drive de disquetes, que apesar de ser um componente de baixa tecnologia, ainda é necessário, pois os disquetes ainda são muito usados para transportar dados.

    Além destes, temos uma gama enorme de acessórios: Impressoras, Scanners (que permitem digitalizar imagens), câmeras fotográficas digitais (que ao invés de usarem negativos geram imagens digitais), câmeras de vídeo conferência, placas de captura de vídeo e muitos outros.


    Desktops, Notebooks, Handhelds e Palmtops
     
    Durante a década de 70, os computadores eram classificados como computadores, mini-computadores ou micro-computadores, de acordo com seu tamanho. Naquela época, "mini-computador" era qualquer coisa do tamanho de um armário e os grandes computadores ocupavam facilmente uma sala inteira.

    Atualmente, os termos da moda são outros. Os computadores de mesa são chamados de desktops. Os notebooks possuem os mesmos recursos dos micros de mesa, porém são mais leves e consomem menos energia, visando aumentar a autonomia das baterias. Comparados com os desktops, a vantagem dos notebooks é sua portabilidade e as desvantagens são os fatos de serem mais caros, mais frágeis e menos confortáveis de usar. Os primeiros computadores portáteis, lançados no início da década de 80 pesavam em média 12 quilos, enquanto os atuais não costumam pesar mais do que 3 kg. Para quem precisa de portabilidade, mas ao mesmo tempo não abre mão de um micro com todos os recursos de um micro de mesa, os notebooks são a solução mais acertada.



    Porém, para quem precisa apenas de recursos mais básicos, como processamento de textos, planilhas, agenda eletrônica ou apenas armazenar informações, os notebooks acabam sendo uma solução cara e antiquada. Além do peso, temos uma autonomia relativamente baixa das baterias, em geral 2 ou 3 horas, sem falar no tempo gasto para dar o boot e carregar o Windows toda vez que o equipamento é ligado.

    Apartir dos anos 90, tivemos a popularização de mais duas classes de computadores portáteis, os handhelds e os palmtops. A idéia principal é criar aparelhos pequenos o suficiente para levar no bolso, que sejam leves e consumam pouca energia, mas, ao mesmo tempo, capazes de executar todas as funções básicas, como processamento de textos, planilhas, coleta de dados, acesso à Internet, jogos, etc.

    Os dois tipos de aparelho possuem conceitos bem diferentes. Os handhelds são uma espécie de notebook em miniatura, com o mesmo desenho básico, com o teclado de um lado e a tela do outro. Exemplos de handhelds são o Cassiopéia, HP 620, Psion Series 5 e Sharp HC-4600. Com exceção do Psion, estes aparelhos utilizam o Windows CE, que é uma versão simplificada do Windows 98, que apesar de não rodar os mesmos programas que temos nos micros de mesa, possui versões compactas do Word, Excel e Power Point, além de permitir a instalação de programas ou jogos desenvolvidos para ele.

    Os palmtops por sua vez, são ainda mais compactos e não possuem teclado. O texto é ou digitado sobre um teclado gráfico formado em parte da tela, ou então escrito à mão em um espaço reservado. O exemplo mais famoso e bem sucedido de palmtop é o Palm Pilot da 3com, que utiliza o PalmOS, um sistema operacional proprietário. O sucesso do Palm Pilot estimulou os desenvolvedores a criar milhares de programas para ele, englobando praticamente todo o tipo de aplicações, de cálculos científicos a jogos. Estima-se que em Dezembro de 2001 já existissem mais de 75.000 programas, uma boa parte aplicativos freeware.

    A Microsoft concorre com os Palms através do Pocket PC, uma versão reduzida do Windows que roda em PCs de mesa. Em versões anteriores, este sistema era chamado de Windows CE. O nome mudou apenas por questões de marketing.

    Os Palmtops com o Pocket PC quase sempre trazem telas coloridas, processadores Arm de até 220 MHz, de 16 a 64 MB de memória, suporte a MP3, etc. configurações bem superiores às dos Palms que trazem 2 ou 8 MB de memória, processadores DragonBall de 32 MHz e telas monocromáticas na maioria dos modelos. Por outro lado, o Pocket PC também é um sistema muito mais pesado, o que nivela o desempenho das duas classes.

    Em todos os casos, é possível fazer a conexão com um micro de mesa para fazer backup das informações gravadas, trocar arquivos e instalar novos programas.



    Conforme os processadores e outros componentes evoluem, não é apenas a velocidade que aumenta. Os componentes são cada vez mais miniaturizados, o que traz como conseqüência um ganho essencial no ramo dos portáteis: um consumo elétrico cada vez mais baixo.

    Um 486 de 100 MHz processa 100 milhões de instruções por segundo e consome aproximadamente 5 Watts de eletricidade. Um Mobile Pentium III de 500 MHz (a versão especial, com um consumo elétrico ultra baixo) processa 1.5 bilhão de instruções, com apenas 3 watts. A mesma proporção se mantém nos chips destinados a aparelhos portáteis.

    Isto significa que os aparelhos portáteis são capazes de executar cada vez mais funções e rodar aplicativos cada vez mais complexos. E esta é uma tendência que veio pra ficar.


    Escolhendo a melhor configuração
     
    Todos os componentes de um PC, influenciam diretamente no desempenho global da máquina. Como num carro, onde um único componente de baixo desempenho afeta negativamente todo o conjunto.

    Apesar do desejo de todos ser um micro equipado com um processador topo de linha, muita memória RAM, vários Gigabytes de espaço no disco rígido, placa de vídeo 3D, DVD, etc. Nem todos estamos dispostos a gastar 2.000 ou 3.000 dólares numa configuração assim. Entra em cena então o fator custo-beneficio: determinar qual configuração seria melhor dentro do que se pode gastar. O objetivo deste trecho é justamente este, ajudá-lo a escolher a melhor configuração em termos de custo-beneficio em cada caso. Para isto, estudaremos no que cada componente afeta o desempenho e em quais aplicações cada um é mais importante.

    A primeira coisa que deve ser levada em conta é a aplicação a que o micro será destinado, ou seja: quais programas serão utilizados nele.

    Um PC usado em um escritório, onde são usados o Word, Excel e Internet por exemplo, não precisa de um processador muito poderoso, mas é indispensável uma quantidade pelo menos razoável de memória RAM, e um disco rígido razoavelmente rápido. Enquanto que, num micro destinado a jogos, o principal seria um processador rápido, combinado com uma boa placa de vídeo 3D.


    Escolhendo a placa mãe
     
    A placa mãe é o componente que deve ser escolhido com mais cuidado. Uma placa mãe de baixa qualidade colocará em risco tanto o desempenho quanto a confiabilidade do equipamento.

    Ao comprar uma placa mãe, verifique quais processadores ela suporta, se possui um slot AGP e se a quantidade de slots ISA e PCI é suficiente para a quantidade de periféricos que você pretende instalar.

    A questão mais importante é a qualidade da placa. Além dos recursos, este é o principal diferencial entre as várias que você encontrará no mercado. Placas de baixa qualidade além de prejudicarem o desempenho, podem tornar o micro instável, causando travamentos constantes no Windows. Travamentos que freqüentemente são causados por falhas de hardware, e não por bugs do programa.

    Procure comprar placas de boas marcas. As placas da Intel também são excelentes, mas preste atenção se a placa realmente foi fabricada pela Intel: muitos vendedores vendem placas com chipsets Intel como "placas da Intel". Muitos fabricantes usam chipsets Intel em suas placas, mas isto não e garantia de qualidade. Não adianta uma placa de segunda linha possuir um bom chipset.

    Evite ao máximo comprar placas TX-Pro, VX-Pro, BX-Pro, SX-Pro, PC-100, Viagra, PC-Chips e placas que não trazem especificado o nome do fabricante. Apesar de serem muito mais baratas, e quase sempre trazerem placas de som, vídeo, modems e até placas de rede onboard, estas placas invariavelmente são de baixa qualidade, fabricadas geralmente pela PC-Chips, especializada em fabricar placas de baixíssimo custo mas de qualidade duvidosa.

    Você pode perguntar por que estas placas são inferiores, já que muitas vezes usam o mesmo chipset de placas de boas marcas. O diferencial é a qualidade da placa de circuito. Uma placa mãe é confeccionada usando-se uma técnica chamada MPCB (multiple layer contact board) que consiste em várias placas empilhadas como se fossem uma só. Acontece que uma placa de circuitos deste tipo tem que ser projetada e fabricada minuciosamente, pois qualquer erro mínimo na posição das trilhas, fará com que surjam interferências, que tornarão a placa instável. Isto também prejudica o desempenho, impedindo que a comunicação entre os componentes seja feita na velocidade normal. A diferença de desempenho de um micro montado com uma boa placa mãe, para outro de configuração parecida, mas usando uma placa mãe de baixa qualidade pode chegar a 20%. Equivaleria a trocar um Pentium II 800 por outro de 600 MHz!

    A fim de cortar custos, diminui-se o tempo de desenvolvimento e se apela para técnicas mais baratas e menos precisas de produção, criando os problemas que descrevi.

    Certamente é tentador ver o anúncio de uma placa mãe que já vem com placa de som, placa de vídeo e modem por 100 ou 120 dólares, enquanto uma placa de uma boa marca custa 150, 180 ou mesmo 200 dólares e muitas vezes não traz nenhum destes acessórios. Mas, lembre-se que esta economia pode lhe trazer muita dor de cabeça, na forma de instabilidade, travamentos e incompatibilidades. Estas placas podem até ser usadas em micros mais baratos, destinados a aplicações leves, onde a economia é mais importante, mas não pense em usar uma em um micro mais parrudo, pois não valerá à pena. Se o problema é dinheiro, prefira comprar um processador mais simples e barato, mas colocá-lo em uma boa placa mãe.


    Escolhendo os outros periféricos
     
    Existem basicamente 4 determinantes de desempenho num micro: o processador, a quantidade de memória RAM, a velocidade do disco rígido e a placa de vídeo. A importância de cada um varia de acordo com a aplicação do micro.

    Memória RAM: Se o micro possui pouca memória RAM, o processador terá que usar o disco rígido para guardar os dados que deveriam ser armazenados na memória, tornando o sistema extremamente lento. Por outro lado, instalar mais memória do que o necessário será apenas um desperdício, pois não tornará o sistema mais rápido.

    Você notará que é preciso instalar mais memória quando o micro começar a ficar lento e a acessar intermitentemente o disco rígido em momentos de atividade mais intensa.

    Se o usuário trabalha apenas com aplicativos mais leves, como Word, Excel, Internet e não costuma abrir mais de um aplicativo ao mesmo tempo, 64 MB podem ser suficientes, apesar de 128 ser o ideal.

    Se, por outro lado, são usados programas mais pesados ou se são abertos vários programas ao mesmo tempo, então o mínimo seria 128 e o ideal 256 MB. 128 MB também são suficientes se o micro se destina principalmente a jogos.

    Caso o micro se destine ao processamento de imagens, vídeo ou editoração, então devem ser usados pelo menos 192 MB. Dependendo do tamanho dos arquivos a serem processados, o ideal pode subir para 256 ou mesmo 512 MB.

    Hoje em dia os módulos de memória estão muito baratos, por isso não vale mais à pena economizar em memória RAM. Mesmo que o PC se destine a aplicativos leves, instale logo 256 ou mesmo 512 MB. É melhor pecar pelo excesso do que pela falta.

    Com mais memória o PC se manterá rápido por mais tempo. Não se esqueça que os programas ficarão cada vez mais pesados com o passar do tempo. O que hoje pode até ser um desperdício, amanhã será requisito mínimo para muitos sistemas.

    A instalação de mais memória pode dar um novo ânimo a um micro mais antigo, principalmente se o micro possui apenas 8 ou 16 MB. Mas não exagere, pois mesmo com muita memória será difícil rodar aplicativos mais pesados devido à fragilidade do conjunto. O ideal seriam 16 megas em micros 486 e de 32 a 64 MB em micros Pentium ou K6 de 100 a 166 MHz.

    Processador: Nem sempre a instalação de um processador mais moderno torna o micro mais rápido. Muitas vezes, aumentar a quantidade de memória ou trocar o disco rígido faz mais efeito. Como sempre, depende da aplicação.

    Caso o micro se destine principalmente a jogos, então vale à pena investir em um processador topo de linha, como um Athlon ou um Pentium 4. Caso o micro de destine ao processamento de imagens ou editoração, um processador topo de linha irá ajudar, mas apenas se o micro possuir bastante memória RAM. Se o dinheiro estiver curto, é preferível comprar um processador médio, como um Duron e investir em mais memória.

    Finalmente, caso o micro se destine a aplicações leves, então o ideal será adquirir um processador mais simples e investir a economia em um pouco mais de memória, um disco rígido melhor, ou numa placa mãe de melhor qualidade.

    Disco Rígido: O desempenho do disco rígido determina a velocidade em que serão abertos programas e arquivos. Um disco rígido rápido, também ajuda caso o micro tenha pouca memória. Mesmo com um processador parrudo e muita memória, tudo ficará lento caso o disco rígido não acompanhe.

    Quase sempre, os discos rígidos de maior capacidade são mais rápidos, mas como sempre existem exceções. Procure saber o tempo de acesso, a velocidade de rotação e a densidade do disco.

    O tempo de acesso do disco varia geralmente entre 8 e 12 milessegundos, dependendo do HD. O tempo de acesso determina quanto tempo a cabeça de leitura demorará para achar o dado a ser lido. Um valor mais baixo corresponde a um melhor desempenho.

    A velocidade de rotação é medida em RPMs, ou rotações por minuto. Quanto mais rápido o disco girar, mais rápido um dado será encontrado. A densidade, ou quantos dados caberão em cada disco também determina o desempenho, pois como os dados estarão mais próximos, serão localizados mais rapidamente. Você saberá a densidade dividindo a capacidade total do disco rígido pela quantidade de cabeças de leitura que ele possui (pois o disco possuirá um platter para cada cabeça de leitura). Um disco de 6 GB, com 4 cabeças de leitura, por exemplo, possui densidade de 1,5 GB por disco. Quanto maior a densidade melhor.

    Placa de Vídeo: Como vimos, existem tanto placas de vídeo 2D, quanto placas de vídeo 3D. Caso o micro se destine a jogos, ou processamento de imagens 3D (usando o 3D Studio por exemplo), é indispensável o uso de uma placa de vídeo 3D, caso contrário o micro simplesmente não será capaz de rodar o aplicativo ou ficará extremamente lento.

    Se forem ser usados apenas aplicativos de escritório ou forem ser processadas imagens em 2D, então uma placa de vídeo 3D offboard não é necessária.

    Existem tanto aceleradoras 3D, que devem ser usadas em conjunto com uma placa 2D comum (Monster 1 e Monster 2 por exemplo), quanto placas Combo (as mais comuns), que desempenham tanto as funções 3D quanto 2D (todas as placas atuais). Atualmente até mesmo as placas de vídeo onboard estão vindo com recursos 3D, apesar do desempenho não se comparar com uma placa mais parruda.

    Modem: Você só encontrará à venda modems de 56K, porém, encontrará tanto hardmodems quanto softmodems. Os softmodems são os modems mais baratos, que costumam custar entre 20 e 40 dólares, porém tornam o micro mais lento (quanto mais potente for o processador menor será a perda) e não se dão muito bem como jogos multiplayer jogados via modem ou com linhas ruidosas. Os hardmodems, por sua vez, são os modems mais caros, que custam apartir de 80 dólares, mas executam eles mesmos todas as funções.

    Placa de Som: A placa de som não influencia em nada o desempenho do micro, apenas determina a qualidade do áudio. Para uso normal, uma placa de som simples como uma Sound Blaster 32, ou mesmo uma daquelas placas "genéricas", geralmente equipadas com chipsets Yamaha, dão conta do recado. Placas mais caras farão diferença caso você pretenda trabalhar com edição musical, ou faça questão de ouvir músicas em MIDI com o máximo de qualidade.

    Existem também placas de som 3D, como a Turtle Beath Montego e a Sound Blaster Live, que geram sons que parecem vir de todas as direções, mesmo usando caixas acústicas comuns. Este efeito é muito interessante em jogos, pois oferece uma sensação de realidade muito maior. Imagine ouvir o som de um tiro como se ele tivesse sido disparado por alguém que está bem atrás de você.


    A Evolução dos Computadores
     
    Hoje em dia, quando ouvimos falar em processadores de 1 GHz dá até sono, de tão comuns que eles já se tornaram. Pouca gente já ouviu falar no 8088, que foi o processador usado no PC XT, a quase 20 anos atrás, e muito menos no Intel 4004, o primeiro microprocessador, lançado em 71.

    Nas próximas páginas falarei sobre os processadores e computadores que fizeram parte da história, começando não apartir da década de 70 ou 80, mas no século XIX. Sim, na época dos nossos bisavós os computadores já existiam, apesar de extremamente rudimentares. Eram os computadores mecânicos, que realizavam cálculos através de um sistema de engrenagens, acionado por uma manivela ou outro sistema mecânico qualquer. Este tipo de sistema, comum na forma de caixas registradoras era bastante utilizado naquela época.

    No final do século XIX surgiu o relê, um dispositivo eletromecânico, formado por um magneto móvel, que se deslocava unindo dois contatos metálicos. O Relê foi muito usado no sistema telefônico, aliás algumas centrais analógicas ainda utilizam estes dispositivos até hoje. Os relês podem ser considerados uma espécie de antepassados dos transístores. Suas limitações eram o fato de serem relativamente caros, grandes demais e ao mesmo tempo muito lentos: um relê demora mais de um milésimo de segundo para fechar um circuito.

    Também no final do século XIX, surgiram as primeiras válvulas. As válvulas foram usadas para criar os primeiros computadores eletrônicos, na década de 40.

    As válvulas tem seu funcionamento baseado no fluxo de elétrons no vácuo. Tudo começou numa certa tarde quando Thomas Edison, inventor da lâmpada elétrica estava brincando com a sua invenção. Ele percebeu que ao ligar a lâmpada ao polo positivo de uma bateria e uma placa metálica ao polo negativo, era possível medir uma certa corrente fluindo do filamento da lâmpada à chapa metálica, mesmo que os dois estivessem isolados. Havia sido descoberto o efeito termoiônico, o princípio de funcionamento das válvulas.

    As válvulas já eram bem mais rápidas que os relês, atingiam frequências de alguns Megahertz, o problema é que esquentavam demais, consumiam muita eletricidade e se queimavam com facilidade. Era fácil usar válvulas em rádios, que usavam poucas, mas construir um computador, que usava milhares delas era extremamente complicado, e caro.

    Apesar de tudo isso, os primeiros computadores começaram a surgir durante a década de 40, naturalmente com propósitos militares. Os principais usos eram a codificação e decodificação de mensagens e cálculos de artilharia.

    Sem dúvida, o computador mais famoso daquela época foi o ENIAC (Electronic Numerical Integrator Analyzer and Computer), construído em 1945. O ENIAC era composto por nada menos do que 17,468 válvulas, ocupando um galpão imenso. Porém, apesar do tamanho, o poder de processamento do ENIAC é ridículo para os padrões atuais, suficiente para processar apenas 5.000 adições, 357 multiplicações e 38 divisões por segundo, bem menos até do que uma calculadora de bolso atual, das mais simples.

    A idéia era construir um computador para realizar vários tipos de cálculos de artilharia para ajudar as tropas aliadas durante a segunda Guerra mundial. Porém, o ENIAC acabou sendo terminado exatos 3 meses depois do final da Guerra e acabou sendo usado durante a guerra fria, contribuindo por exemplo no projeto da bomba de Hidrogênio.

    Se você acha que programar em C ou em Assembly é complicado, imagine como era a vida dos programadores daquela época. A programação do ENIAC era feita através de 6.000 chaves manuais. A cada novo cálculo, era preciso reprogramar várias destas chaves. Isso sem falar no resultado, que era dado de forma binária através de um conjunto de luzes. Não é à toa que a maior parte dos programadores da época eram mulheres, só mesmo elas para ter a paciência necessária para programar e reprogramar esse emaranhado de chaves várias vezes ao dia.

    Vendo essa foto é fácil imaginar por que as válvulas eram tão problemáticas e caras: elas eram simplesmente complexas demais.

    Mesmo assim, na época a maior parte da indústria continuou trabalhando no aperfeiçoamento das válvulas, obtendo modelos menores e mais confiáveis. Porém, vários pesquisadores, começaram a procurar alternativas menos problemáticas.

    Várias destas pesquisas tinha como objetivo a pesquisa de novos materiais, tanto condutores, quanto isolantes. Os pesquisadores começaram então a descobrir que alguns materiais não se enquadravam nem em um grupo nem no outro, pois de acordo com a circunstância, podiam atuar tanto quando isolantes quanto como condutores, formando uma espécie de grupo intermediário que foi logo apelidado de grupo dos semicondutores.

    Haviam encontrado a chave para desenvolver o transístor. O primeiro projeto surgiu em 16 de Dezembro de 47, onde era usado um pequeno bloco de germânio (que na época era junto com o silício o semicondutor mais pesquisado) e três filamentos de ouro. Um filamento era o polo positivo, o outro o polo negativo, enquanto o terceiro tinha a função de controle. Tendo apenas uma carga elétrica no polo positivo, nada acontecia, o germânio atuava como um isolante, bloqueando a corrente. Porém, quando uma certa tensão elétrica era aplicada usando o filamento de controle, uma fenômeno acontecia e a carga elétrica passava a fluir para o polo negativo. Haviam criado um dispositivo que substituía a válvula, sem possuir partes móveis, gastando uma fração da eletricidade gasta por uma e, ao mesmo tempo, muito mais rápido.

    Este primeiro transístor era relativamente grande, mas não demorou muito para que este modelo inicial fosse aperfeiçoado. Durante a década de 50, o transístor foi gradualmente dominando a indústria, substituindo rapidamente as problemáticas válvulas. Os modelos foram diminuindo de tamanho, caindo de preço e tornando-se mais rápidos. Alguns transístores da época podiam operar a até 100 MHz. Claro que esta era a freqüência que podia ser alcançada por um transístor sozinho, nos computadores da época, a freqüência de operação era muito menor, já que em cada ciclo de processamento o sinal precisa passar por vários transístores.

    Mas, o grande salto foi a substituição do germânio pelo silício. Isto permitiu miniaturizar ainda mais os transístores e baixar seu custo de produção. Os primeiros transístores de junção comerciais foram produzidos partir de 1960 pela Crystalonics.

    A idéia do uso do silício para construir transístores é que adicionando certas substâncias em pequenas quantidades é possível alterar as propriedades elétricas do silício. As primeiras experiências usavam fósforo e boro, que transformavam o silício em condutor por cargas negativas ou condutor por cargas positivas, dependendo de qual dos dois materiais fosse usado. Estas substâncias adicionadas ao silício são chamadas de impurezas, e o silício "contaminado" por elas é chamado de silício dopado.

    O funcionamento e um transístor é bastante simples, quase elementar. É como naquele velho ditado "as melhores invenções são as mais simples". As válvulas eram muito mais complexas que os transístores e mesmo assim foram rapidamente substituídas por eles.

    Um transístor é composto basicamente de três filamentos, chamados de base, emissor e coletor. O emissor é o polo positivo, o coletor o polo negativo, enquanto a base é quem controla o estado do transístor, que como vimos, pode estar ligado ou desligado. Veja como estes três componentes são agrupados num transístor moderno:



    Quando o transístor está desligado, não existe carga elétrica na base, por isso, não existe corrente elétrica entre o emissor e o coletor. Quanto é aplicada uma certa tensão na base, o circuito é fechado e é estabelecida a corrente entre o emissor e o receptor.

    Outro grande salto veio quando os fabricantes deram-se conta que era possível construir vários transístores sobre o mesmo waffer de silício. Havia surgido então o circuito integrado, vários transístores dentro do mesmo encapsulamento. Não demorou muito para surgirem os primeiros microchips.


    O microchip
     
    Até mudarem o mundo como o conhecemos, os chips passaram por um longo processo evolutivo. Tudo começou com as válvulas, que evoluíram para os transístores, considerados a maior invenção do século.

    Fora o preço, os primeiros transístores não foram lá nenhuma revolução sobre as antigas válvulas, tanto que elas sobreviveram durante vários anos depois que os transístores começaram a ser produzidos em escala comercial.

    O grande salto veio quando descobriu-se que era possível construir vários transístores sobre o mesmo waffer de silício. Isso permitiu diminuir de forma gritante o custo e tamanho dos computadores. Entramos então na era do microchip.

    O primeiro microchip comercial foi lançado pela Intel em 1971 e chamava-se 4004. Como o nome sugere, ela era um processador de apenas 4 bits que era composto por pouco mais de 2000 transístores. Veja uma foto dele abaixo:



    De lá pra cá, foi um longo caminho. Enormes investimentos foram feitos e muitos dos maiores gênios do planeta trabalharam em busca de soluções para questões cada vez mais complexas. Veremos agora como os computadores evoluíram, das válvulas ao Athlon e Pentium 4.


    Os transístores
     
    Cada transístor funciona como uma espécie de interruptor, que pode estar ligado ou desligado, como uma torneira que pode estar aberta ou fechada, ou mesmo como uma válvula. A diferença é que o transístor não tem partes móveis como uma torneira e é muito menor, mais barato, mais durável e muito mais rápido que uma válvula.

    A mudança de estado de um transístor é feito através de uma corrente elétrica. Esta mudança de estado por sua vez pode comandar a mudança de estado de vários outros transístores ligados ao primeiro, permitindo processador dados. Num transístor esta mudança de estado pode ser feita bilhões de vezes por segundo, porém, a cada mudança de estado é gerada uma certa quantidade de calor e é consumida uma certa quantidade de eletricidade. É por isso que quanto mais rápidos tornam-se os processadores, mais eles se aquecem e mais energia consomem.

    Um 386 por exemplo consumia pouco mais de 1 Watt de energia e podia funcionar sem nenhum tipo de resfriamento. Um 486DX-4 100 consumia cerca de 5 Watts e precisava de um cooler simples, enquanto Athlon chega a consumir 80 Watts de energia e precisa de no mínimo um bom cooler para funcionar bem. Em compensação o 386 operava a 30 ou 40 MHz enquanto o Athlon opera a até 1.5 GHz.


    O surgimento dos computadores pessoais
     
    Até aqui, falei sobre os supercomputadores e sobre a evolução dos processadores, que evoluíram das válvulas para o transístor e depois para o circuito integrado. No restante deste capítulo, falarei sobre os primeiros computadores pessoais, que começaram a fazer sua história apartir da década de 70.

    Como disse a pouco, o primeiro microchip, o 4004, foi lançado pela Intel em 71. Era um projeto bastante rudimentar, que processava apenas 4 bits por vez e operava a menos de 1 MHz. Na verdade, o 4004 era tão lento que demorava 10 ciclos para processar cada instrução, ou seja, ele processava apenas 100.000 instruções por segundo. Hoje em dia esses números perecem piada, mas na época era a última palavra em tecnologia. O 4004 foi usado em vários modelos de calculadoras.

    Pouco tempo depois, a Intel lançou um novo processador, que fez sucesso durante muitos anos, o 8080. Este já era um processador de 8 bits, e operava a incríveis 2 MHz: "Ele é capaz de endereçar até 64 KB de memória e é rápido, muito rápido!" como dito num anúncio publicitário do Altair 8800, que é considerado por muitos o primeiro computador pessoal da história. Você já deve ter ouvido falar dele.

    O Altair era baseado no 8080 da Intel e vinha com apenas 256 bytes de memória, realmente bem pouco. Estava disponível também uma placa de expansão para 4 KB.

    No modelo básico, o Altair custava apenas 439 dólares na forma de Kit, isso em 1975, em valores de hoje isso equivale a quase 4.000 dólares, parece bastante, mas na época esse valor foi considerado uma pechincha, tanto que foram vendidas 4.000 unidades em 3 meses, depois de uma matéria da revista Popular Eletronics. Esse "modelo básico" consistia nas placas, luzes, chips, gabinete, chaves e a fonte de alimentação, junto claro com um manual que ensinava como montar o aparelho. Existia a opção de compra-lo já montado, mas custava 182 dólares a mais.

    Pouco tempo depois, começaram a surgir vários acessórios para o Altair: um teclado que substituía o conjunto de chaves que serviam para programar o aparelho, um terminal de vídeo (bem melhor que ver os resultados na forma de luzes :-), um drive de disquetes (naquela época ainda se usavam disquetes de 8 polegadas), placas de expansão de memória e até uma impressora, para quem tivesse muito dinheiro, claro. Até mesmo Bill Gates ajudou, desenvolvendo uma versão do Basic para o Altair, imortalizado na foto abaixo:



    O Altair era realmente um sistema muito simples, que não tinha muita aplicação prática, mas serviu para demonstrar a grande paixão que a informática podia exercer e que, ao contrário do que diziam muitos analistas da época, existia sim um grande mercado para computadores pessoais.

    A Apple foi fundada em 1976, depois que o projeto do Apple I foi recusado pela Atari e pela HP. Uma frase de Steve Jobs descreve bem a história: "Então fomos à Atari e dissemos "Ei, nós desenvolvemos essa coisa incrível, pode ser construído com alguns dos seus componentes, o que acham de nos financiar?" Podemos até mesmo dar a vocês, nós só queremos ter a oportunidade de desenvolvê-lo, paguem-nos um salário e podemos trabalhar para vocês. Eles disseram não, fomos então à Hewlett-Packard e eles disseram "Nós não precisamos de vocês, vocês ainda nem terminaram a faculdade ainda".

    O Apple I não foi lá um grande sucesso de vendas, vendeu pouco mais de 200 unidades, mas abriu caminho para o lançamento de versões mais poderosas.



    Ele usava um processador da Motorola, o 6502, que operava a apenas 1 MHz. Em termos de poder de processamento ele perdia para o i8080, mas tinha algumas vantagens a nível de flexibilidade. O Apple I vinha com 4 KB de memória e saídas para teclado, terminal de vídeo e para uma unidade de fita. Existia também um conector reservado para expansões futuras. Este é um anuncio publicado na época:



    Naquela época, as fitas K7 eram o meio mais usado para guardar dados e programas. Os disquetes já existiam, mas eram muito caros. O grande problema das fitas K7 era a lentidão, tanto para ler quanto para gravar e a baixíssima confiabilidade. Isso fora o fato das fitas se desgastarem com o tempo... realmente eram tempos difíceis.

    Este primeiro modelo foi logo aperfeiçoado, surgindo então o Apple II. Este sim fez um certo sucesso, apesar do preço salgado para a época, US$ 1298, que equivalem a quase 9.000 dólares em valores corrigidos.

    O Apple II vinha com 4 KB de memória, como o primeiro modelo, a novidade foi uma ROM de 12 KB, que armazenava uma versão da Basic. A memória RAM podia ser expandida até 52 KB, pois o processador Motorola 6502 era capaz de endereçar apenas 64 KB de memória, e 12 KB já correspondiam à ROM embutida. Um dos "macetes" naquela época era uma placa de expansão, fabricada pela Microsoft (eles de novo? :-), que permitia desabilitar a ROM e usar 64 KB completos de memória.

    O Apple II já era bem mais parecido com um computador atual, já vinha com teclado e usava uma televisão como monitor. O aparelho já vinha com uma unidade de fita K7, mas era possível adquirir separadamente uma unidade de disquetes.

    Uma variação do Apple II, o Apple IIc, lançado em 79, é considerado por muitos o primeiro computador portátil da história, pois tinha até um monitor de LCD como opcional.



    Em 1979 surgiu um outro modelo interessante, desta vez da Sinclair, o ZX-80. Este não era tão poderoso quanto o Apple II, mas tinha a vantagem de custar apenas 99 dólares (pouco mais de 400 em valores corrigidos) Foi provavelmente o primeiro computador popular da história. O processador era um Z80, da Zilog, que operava a apenas 1 MHz. A memória RAM também era algo minúsculo, apenas 1 KB, combinados com 4 KB de memória ROM que armazenavam o Basic, usado pelo aparelho. Como em qualquer sistema popular da época, os programas eram armazenados em fitas K7.



    Considerando preço, o Z80 foi uma máquina surpreendente, mas claro, tinha pesadas limitações, mesmo se comparado com outras máquinas da época. Apesar dele já vir com uma saída de vídeo, a resolução gráfica era de apenas 64x48, mesmo em modo monocromático, já que o adaptador de vídeo tinha apenas 386 bytes de memória. Existia também um modo texto, com 32 x 24 caracteres.


    Os primeiros PCs
     
    Como profetizado por Gordon Moore, os processadores vem dobrando de desempenho a cada 18 meses desde o início da década de 70. Uma década é uma verdadeira eternidade dentro do mercado de informática, o suficiente para revoluções acontecerem e serem esquecidas.

    Depois dos dinossauros da década de 70, os computadores pessoais finalmente começaram a atingir um nível de desenvolvimento suficiente para permitir o uso de aplicativos sérios. Surgiram então os primeiros aplicativos de processamento de texto, planilhas, e até mesmo programas de editoração e desenho.

    O primeiro PC foi lançado pela IBM em 1981 e tinha uma configuração bastante modesta, com apenas 64 KB de memória, dois drives de disquetes de 5¼, um monitor MDA somente texto (existia a opção de comprar um monitor CGA) e sem disco rígido. O preço também era salgado, 4000 dólares da época.

    Esta configuração era suficiente para rodar o DOS 1.0 e a maioria da programas da época, que por serem muito pequenos, cabiam em apelas um disquete e ocupavam pouca memória RAM. Mas, uma vantagem que existe desde este primeiro PC é a arquitetura aberta, que permite que vários fabricantes lancem acessórios e placas de expansão para ele. Foi questão de meses para que começassem a ser vendidos discos rígidos, placas de expansão de memória, placas de vídeo, etc. de vários fabricantes.

    A Apple havia lançado o Apple III poucos meses antes do PC. Os dois equipamentos bateram de frente, pois disputavam o mesmo mercado e Apple III acabou levando a pior, apesar da sua configuração não ficar devendo à do PC e o preço dos dois ser quase o mesmo. O Apple III vinha com 128 ou 256 KB de memória, dependendo da versão, um processador Synertek 6502A de 2 MHz e drive de disquetes de 5¼. O grande pecado foi o uso de um barramento de expansão proprietário, o que limitou as possibilidades de upgrade aos acessórios oferecidos pela própria Apple, uma característica que acabou sendo a grande responsável pela supremacia do PC.

    Em 1983 a Apple apareceu com uma grande novidade, o Lisa. Em sua configuração original, o Lisa vinha equipado com um processador Motorola 68000 de 5 MHz, 1 MB de memória RAM, dois drives de disquete de 5.25" de 871 KB, HD de 5 MB e um monitor de 12 polegadas, com resolução de 720 x 360. Era uma configuração muito melhor do que os PCs da época, sem falar que o Lisa já usava uma interface gráfica bastante elaborada e já contava com uma suíte de aplicativos de escritório à lá Office. O problema era o preço, 10.000 dólares. Isso em valores da época, em valores corrigidos seria quase o dobro.



    O Lisa era muito caro, por isso novamente não fez muito sucesso, mas o projeto serviu de base para o Macintosh lançado em 1984. Este sim fez um grande sucesso, chegando a ameaçar o império dos PCs. A configuração era compatível com os PCs da época, com um processador de 8 MHz, 128 KB de memória e um monitor de 9 polegadas. A grande arma do Macintosh era o MacOS 1.0, um sistema inovador de vários pontos de vista.

    Ao contrário do MS-DOS ele já utiliza interface gráfica e mouse, o que o tornava muito mais fácil de ser operado. O MacOS continuou evoluindo e incorporando novos recursos, mas sempre mantendo a mesma idéia de interface "user friendly". Por sinal, já estamos na décima versão do MacOS, o MacOS X. Atualmente, é possível rodar as versões antigas do MacOS mesmo num PC, usando emuladores como o vMac ([]) e o SoftMac ([]).



    Em 1984 já existia também a primeira versão do Windows, que era uma opção para os usuários de PCs interessados em rodar uma interface gráfica.

    O Windows 1.0 rodava sobre o MS-DOS e podia executar tanto aplicativos for Windows quanto os programas para MS-DOS. O problema era a memória.

    Os PCs da época vinham com quantidades muito pequenas de memória RAM e na época ainda não existia a possibilidade de usar memória virtual (que viria a ser suportada apenas apartir do 386).

    Para rodar o Windows, era preciso primeiro carregar o MS-DOS. Os dois juntos já consumiam praticamente toda a memória de um PC básico da época. Mesmo nos PCs mais parrudos não era possível rodar muitos aplicativos ao mesmo tempo, novamente por falta de memória.

    Como os aplicativos for Windows eram muito raros na época, poucos usuários viram necessidade de utilizar o Windows para rodar os mesmos aplicativos que rodavam (com muito mais memória disponível...) no MS-DOS. Sem contar que a versão inicial do Windows era bastante lenta e tinha vários bugs.

    O Windows começou a fazer algum sucesso na versão 2.1, quando os PCS 286 com 1 MB ou mais de memória já eram comuns. Com uma configuração mais poderosa, mais memória RAM e mais aplicativos, finalmente começava a fazer sentido rodar o Windows. O sistema ainda tinha vários bugs e travava com frequência, mas alguns usuários começaram a migrar para ele.



    O Windows emplacou mesmo apartir da versão 3.1, que muitos de nós chegou a utilizar. O Windows 3.1 era relativamente leve, mesmo para os PCs da época e já suportava o uso de memória virtual, que permitia abrir vários programas, mesmo que a memória RAM se esgotasse. Já existiam também vários aplicativos for Windows e os usuários tinham a opção de voltar para o MS-DOS quando desejassem.

    Foi nesta época que os PCs começaram a recuperar o terreno perdido para os Macintoshs da Apple. Convenhamos, o Windows 3.1 travava com muita frequência, mas tinha muitos aplicativos e os PCs eram mais baratos que os Macs.

    Na época começaram a surgir os primeiros concorrentes para o Windows, como o OS/2 da IBM.

    Desde o início da era PC, a Microsoft e a IBM vinham trabalhando juntas no desenvolvimento do MS-DOS e outros programas para a plataforma PC. Mas, em 1990 a IBM e a Microsoft se desentenderam e cada uma ficou com uma parte do trabalho feito, com o qual tentaram tomar a liderança do mercado de sistemas operacionais.

    Alguns brincam que a IBM ficou com a parte que funciona e a Microsoft com o resto, mas a verdade é que apesar do OS/2 da IBM ser tecnicamente muito superior ao Windows 95 da Microsoft, foi o sistema das janelas quem levou a melhor, pois era mais fácil de usar e contava com a familiaridade dos usuários com o Windows 3.1.

    O OS/2 ainda é utilizado por alguns entusiastas e existem até mesmo movimentos para continuar o desenvolvimento do sistema, mas faltam programas e drivers.

    Um sistema muito mais bem sucedido, que começou a ser desenvolvido no início da década de 90 é o Linux, que todos já conhecemos. O Linux tem a vantagem de ser um sistema aberto, que atualmente conta com a colaboração de centenas de milhares de desenvolvedores voluntários espalhados pelo globo, além do apoio de empresas de peso, como a IBM. Mas, no começo o sistema era muito mais complicado que as distribuições atuais e não contava com as interfaces gráficas exuberantes que temos hoje em dia.

    O desenvolvimento do Linux foi gradual, até que houve a explosão do acesso à Internet em 95, quando o sistema começou a ser usado em um número cada vez maior de servidores Web, pois era estável e gratuíto. Hoje o IIS da Microsoft consegue brigar de igual para igual (pelo menos em número de usuários), mas no início Linux era sinónimo de servidor Web.

    A Microsoft continuou melhorando seu sistema. Foram lançados o Windows 95, depois o 98 e finalmente ME, com todos os problemas que conhecemos mas com a boa e velha interface fácil de usar e uma grande safra de aplicativos que garantiram a popularização destes sistemas.

    Paralelamente, a Microsoft desenvolvia uma família de sistemas Windows destinadas a servidores, o Windows NT, que chegou até a versão 4, antes de ser transformado no Windows 2000.

    Atualmente, as duas famílias Windows fundiram-se no Windows XP, um sistema destinada tanto ao uso doméstico quanto em estações de trabalho e servidores, e que pode ser considerado um sistema estável (ao contrário do Windows 98 e ME) pois é baseado no Windows 2000.

    Enquanto isso, o Linux continua avançando. Por enquanto o sistema é usado apenas em 2% dos micros de mesa (fora usuários casuais e os que mantém Windows e Linux em dual-boot), mas tem a chance de crescer bastante no futuro, como a ajuda de aplicativos com o Gimp e o StarOffice, que substituem o Photoshop e o Office, mas isso tudo já é uma outra história :-)


    Supercomputadores e clusters
     
    Na década de 40, todos os computadores do mundo eram gigantescos e caros, custando vários milhões de dólares, mas agregando tudo o que havia mais avançado em termos de conhecimento humano. Pois bem, vendo de hoje, pode parecer ridículo que qualquer calculadora de mão de 3 reas possa ter um poder de processamento superior ao de um Eniac, que só de manutenção custava quase 200.000 dólares por dia, mas os supercomputadores continuam existindo, tão grandes e caros quanto um Eniac, porém incomparavelmente mais rápidos do que os micros de mesa, como o que você está usando neste exato momento.

    Este trecho final é dedicado a eles, os mastodontes que estão por trás de muitos dos avanços da humanidade, que apesar de estarem escondidos em grandes salas refrigeradas são alvo de grande curiosidade.

    Apesar de mesmo um "PC de baixo custo" atualmente possuir um poder de processamento superior ao de um supercomputador que a 15 anos atrás custava 5 milhões de dólares, a demanda por sistemas casa vez mais rápidos continua.

    As aplicações são várias, englobando principalmente pesquisas científicas, aplicações militares diversas, e vários tipos de aplicativos financeiros e relacionados à Internet, aplicativos que envolvem uma quantidade absurda de processamento, e claro, envolvem instituições que podem pagar muito mais do que 5 ou 10 mil dólares por um computador o mais rápido possível. Existindo demanda... aparecem os fornecedores.

    Atualmente, todos os supercomputadores são construídos com base em praticamente os mesmos componentes que temos em micros de mesa, memória, HDs, e processadores, Intel, IBM e em alguns casos também chips Athlon. A diferença é que vários processadores, HDs e módulos de memória são combinados para criar um sistema incrivelmente rápido.

    Ao invés de usar apenas um disco rígido IDE, como num micro de mesa, um supercomputador utiliza um array de centenas de HDs, sistemas semelhantes ao RAID, mas numa escala maior, que permitem gravar dados de forma fragmentada em vários discos e ler os pedaços simultaneamente apartir de vários HDs, obtendo taxas de transferência muito altas. A capacidade total de armazenamento de um supercomputador já é medida na casa dos Terabytes, o IBM ASCI White, que é considerado o supercomputador mais poderoso atualmente (final de 2001) tem 160 Terabytes de armazenamento em disco.

    Processadores e memória RAM geralmente são agrupados em nós, cada nó engloba de um a quatro processadores e uma certa quantidade de memória RAM e cache. Isso garante que os processadores tenham um acesso à memória tão rápido quanto um PC de mesa. Os nós por sua vez são interligados através de algum tipo de barramento ultra-rápido, o que os torna partes do mesmo sistema de processamento. Como neurônios interligados para formar um cérebro. Um nó sozinho não tem uma capacidade de processamento tão surpreendente assim, mas ao interligar algumas centenas, ou milhares de nós a coisa muda de figura.

    Os processadores mais utilizados atualmente são processadores Pentium III ou chips IBM Power 3, (produzidos especialmente para esta tarefa), entre algumas outras opções. Os processadores Athlon não são os preferidos da indústria neste segmento, pois apresentam uma dissipação de calor bem mais alta que os chips Intel e IBM, o que torna-se um problema grave ao usar vários chips dentro do mesmo gabinete. Se num micro doméstico já é preciso um bom cooler e uma boa ventilação do gabinete para usar apenas um chip Athlon, imagine o problemão que é juntar 200 ou 500 destes chips.

    Algumas empresas vem cogitando o uso de chips Crusoé, o que faz sentido, já que apesar do baixo desempenho, estes chips consomem pouca eletricidade e geram pouco calor, um Crusoé sozinho tem um desempenho muito abaixo do de um Pentium III, mas se for possível usar mais chips Crusoé na mesma máquina, a maior quantidade pode compensar o menor desempenho por cabeça.

    Como disse a pouco, o supercomputador mais poderoso da atualidade (2001) é o IBM ASCI White. Ele possui nada menos que 8192 processadores IBM Power 3 de 375 MHz com filamentos de cobre. A baixa freqüência de operação dos processadores é justificada pela necessidade de uma estabilidade irretocável e baixa dissipação de calor. O supercomputador tem um poder de processamento estimado em 12.3 teraflops, uma potência mais de mil vezes superior à de qualquer PC topo de linha atual. Completando, temos 6 Terabytes de memória RAM e um total de 160 Terabytes de armazenamento em disco. Em compensação o sistema é simplesmente gigantesco, ocupando uma área equivalente à de duas quadras de basquete.

    Outro sistema bastante poderoso é o ASCI Blue-Pacific, formado por 1296 nós, de 4 processadores cada, totalizando 5856 processadores PowerPC604e de 332 MHz em paralelo. 423 dos nós tem 2.5 GB de memória RAM cada, e os demais tem 1.5 GB cada, totalizando 2.6 Terabytes no total.

    A capacidade de armazenamento em disco fica em 62.3 Terabytes. A velocidade total de acesso a disco chega a 10.5 GB/s, quase mil vezes o que temos num micro de mesa. Esse aparato todo é dividido em 162 gabinetes ligados entre sí, que também ocupam a área de duas quadras de basquete.

    Sistemas como estes são extremamente poderosos, o problema é que são incrivelmente caros, custando dezenas de milhões de dólares. Tanto o ASCI White, quanto o ASCI Blue-Pacific são únicos e existem no mundo apenas mais alguns poucos supercomputadores com uma potência próxima à mostrada por eles.

    Uma opção mais barata para uma companhia que precisa de um supercomputador, mas não tem tanto dinheiro assim disponível é usar um sistema de processamento distribuído, ou cluster. Um cluster formado por vários PCs comuns ligados em rede. Em muitos casos sequer é preciso que os PCs tenham uma configuração idêntica, e a conexão pode ser feita através de uma rede Ethernet 10/100, ou mesmo através da Internet.

    O exemplo mais famoso de processamento distribuído foi o projeto Seti@Home, onde cada voluntário instalava um pequeno programa que utilizava os ciclos de processamento ociosos da máquina para processar as informações relacionadas ao projeto. Os pacotes de dados de 300 KB cada chegavam pela Internet e demoravam várias horas para serem processados. Isso permitiu que mais de 2 milhões de pessoas, muitas com conexão via modem participassem do projeto. O sistema montado pela Seti@Home é considerado por muitos o supercomputador mais poderoso do mundo.

    Este tipo de sistema pode ser construído usando por exemplo a rede interna de uma empresa. Rodando o software adequado, todos os micros podem fazer parte do sistema, alcançando juntos um poder de processamento equivalente ao de um supercomputador. O mais interessante é que estes PCs poderiam ser usados normalmente pelos funcionários, já que o programa rodaria utilizando apenas os ciclos ociosos do processador.

    A tecnologia de cluster mais usada atualmente são clusters Beowulf, formados por vários computadores interligados em rede. Não é necessário nenhum hardware sofisticado, um grupo de PCs de configuração mediana ligados através de uma rede Ethernet de 100 megabits já são o suficiente para montar um cluster beowulf capaz de rivalizar com muitos supercomputadores em poder de processamento. A idéia é criar um sistema de baixo custo, que possa ser utilizado por universidades e pesquisadores com poucos recursos.

    O primeiro cluster beowulf foi criado em 1994 na CESDIS, uma subsidiária da NASA e era formado por 16 PCs 486 DX-100 ligados em rede. Para manter a independência do sistema e baixar os custos, os desenvolvedores optaram por utilizar o Linux.

    Estes clusters não servem para processar dados em tempo real (um game qualquer por exemplo), mas apenas para processar grandes quantidades de dados, que podem ser quebrados em pequenas partes e divididos entre os vários computadores. Uma área onde são populares é na aplicação de efeitos especiais e renderização de imagens para filmes de cinema. Há inclusive casos de filmes como Shrek e Final Fantasy que foram feitos inteiramente em clusters beowulf.

    Os primeiros supercomputadores começaram a surgir na década de 60, alias uma década de muitos avanços, já que no final da década de 50 foi feita a transição das válvulas para os transístores. Cada transístor era centenas de vezes menor que uma válvula, era muito mais durável e tinha a vantagem de gerar pouco calor.

    Todos os computadores da década de 60 já utilizavam transístores, o que permitiu o desenvolvimento dos primeiros minicomputadores. Naquela época, minicomputador era qualquer coisa do tamanho de um armário, com uma capacidade de processamento inferior ao de uma agenda eletrônica atual, e das mais baratinhas.

    Os computadores de grande porte, porém, continuaram a ser desenvolvidos, passando a ser chamados de supercomputadores. O primeiro supercomputador para fins comerciais foi o CDC 6600, que foi seguido pelos IBM 360/95 e 370/195.

    Na década de 70 surgiu uma nova revolução, os microchips, formados por alguns milhares de transístores. Um microchip sozinho oferecia uma capacidade de processamento equivalente à de um minicomputador, mas em compensação era escandalosamente menor e mais barato. Surgiram então os primeiros microcomputadores.

    Os supercomputadores da década de 70 já eram centenas de vezes mais poderosos do que os produzidos uma década antes, os principais modelos foram o CDC 7600, o BSP, produzido pela Burroughs e o ASC da Texas Instruments.

    Estes sistemas atingiram a marca de 100 megaflops, ou seja, 100 milhões de cálculos de ponto flutuante por segundo. Esta é a mesma capacidade de processamento de um Pentium 60, a diferença é que o Pentium surgiu quase 20 anos mais tarde.

    No final da década de 70 sugiram os supercomputadores Cray, produzidos pela Seymour. O primeiro da linha, chamado de Cray 1 processava 100 megaflops, porém o Cray-XMP atingiu a incrível marca de 1 Gigaflop, no início da década de 80. Esta é uma capacidade de processamento próxima à de um Pentium II 350.

    Os supercomputadores desta época foram usados principalmente na corrida espacial, aliás eles foram os principais responsáveis pelo sucesso do programa espacial Americano sobre o Russo. Uma viagem espacial demanda um número absurdo de cálculos. Os Americanos tinham computadores melhores que os Russos, o que antecipava seus lançamentos.



    Espero que tenham gostados, bom agora so espera os comentarios, Obrigada!


    Creditos:Hardware



    Última edição por Juliana~*; 19-08-2011 às 08:51 PM.

  2. Os seguintes 2 Usuários disseram Obrigado Juliana~* por essa útil mensagem:


  3. #2
    SURPRESA , EU VOLTEI !!
    Data de Ingresso
    Feb 2011
    Localização
    Brasil
    Posts
    6.297
    Agradecer
    838
    Agradecido
    515 vezes
    WC Coins
    4 (0 Banked)

    Padrão

    Muito bom esse artigo , muitas pessoas nao sabem muitas coisas sobre Hardware e com esse topico pode ajudar um poucos varios membros
    Muito obrigado por compartilhar

    PowerB
           

  4. #3
    Membro Avançado
    Data de Ingresso
    May 2011
    Localização
    Desapareci, mais estou de volta, com muito mais...
    Posts
    1.251
    Agradecer
    311
    Agradecido
    80 vezes
    WC Coins
    27 (0 Banked)

    Padrão

    @KidT sim, muitas pessoas ainda teem duvidas, obrigada aos elogios, obrigada mesmo, espero ter ajudado ^^

  5. #4
    Webcheatshack2011
    Data de Ingresso
    Jul 2010
    Localização
    Na Webcheats ^^
    Posts
    4.363
    Agradecer
    105
    Agradecido
    2.103 vezes
    WC Coins
    0 (0 Banked)

    Padrão

    Topico organizado, com cores spoiler na hora certa,
    ira ajudar muitos membros que nao sabem sobre hardware , principalmente os novatos,obrigado por compartilha. abraços!

  6. #5
    Membro Novo
    Data de Ingresso
    Aug 2011
    Posts
    26
    Agradecer
    0
    Agradecido
    4 vezes
    WC Coins
    0 (0 Banked)

    Padrão

    Otimo tutorial , gostei ;'
    Muito organizado , centralizado , e deu para entender tudo ;'
    Paraben's ^^


    Abraazz~*

  7. #6
    再開
    Data de Ingresso
    Jul 2011
    Localização
    Rede
    Posts
    456
    Agradecer
    31
    Agradecido
    122 vezes
    WC Coins
    2 (0 Banked)

    Padrão

    kkk
    topico muito bom Juliana
    parabéns
    não sabia mesmo o que era hardware
    enfim thanks

  8. #7
    Membro Avançado
    Data de Ingresso
    May 2011
    Localização
    Desapareci, mais estou de volta, com muito mais...
    Posts
    1.251
    Agradecer
    311
    Agradecido
    80 vezes
    WC Coins
    27 (0 Banked)

    Padrão

    @webcheatshack2010 usar os spoilers achei que seria a melhor opção para não ficar aquele tópico grande.. Obrigada.
    @' Microondas - muito obrigada , fico feliz que tenha gostado do conteudo e da formtação, obrigada
    @Explosion Art bom agora você sabe neah, obrigada a todos...

 

 

Tópicos Similares

  1. [Mega-Tutorial] tudo sobre o famoso hardware [manuntenção geral]
    Por [E]minen no fórum Hardware - Tutoriais
    Respostas: 9
    Último Post: 24-03-2011, 09:00 PM
  2. [Artigo]]Verdades e Mentiras sobre o PC INTERESSANTE
    Por vmgd1997 no fórum Hardware - Tutoriais
    Respostas: 3
    Último Post: 31-12-2010, 09:46 AM
  3. Guia completo sobre Hardware
    Por ' Extasy no fórum Hardware - Tutoriais
    Respostas: 5
    Último Post: 27-10-2010, 06:37 PM
  4. Melhores apostilas sobre Hardware
    Por madake no fórum Hardware - Tutoriais
    Respostas: 0
    Último Post: 16-03-2009, 02:15 PM

Permissões de Postagem

  • Você não pode iniciar novos tópicos
  • Você não pode enviar respostas
  • Você não pode enviar anexos
  • Você não pode editar suas mensagens
  •