domingo, 25 de maio de 2014

REDES WIRELESS

DESCOBRINDO REDES WIRELESS


Descobrir as redes wireless, é o primeiro passo para poder explorar possíveis vulnerabilidades e ate mesmo se conectar utilizando uma dessas redes, existem para esse fim duas ferramentas, as quais você com certeza já deve ter ouvido falar:

Network Stumbler a.k.a NetStumbler – Esta ferramenta pode ser utilizada no Windows para facilmente encontrar o sinal wireless difundido das redondezas, atualmente é um dos mais simples aplicativos utilizados e que tem um excelente desempenho. Você pode utilizá-la para que em caso de dificuldade de captação do sinal determinar a força e o ruído existentes no sinal enviado em um determinado local.




Licença Freeware | Download: Kismet 2007-01-R1b [ 4.58 MB ]



LIGANDO-SE AS REDES DESCOBERTAS



Agora que já descobriu as redes wireless vamos para o próximo passo estabelecer contato com essas redes ou conectar-se a elas.

Se a rede não esta usando nem um método de segurança é simples basta você se conectar a rede (SSID), Caso o sinal  não esteja difundido você pode criar um perfil com o nome do SSID, pois com este nome o sinal será difundido a você, e com certeza você já sabe o SSID pois utilizou o kismet para isso certo ? Mas e se a rede solicitar autenticação ? Então neste casso teremos que passar para o próximo nível.

Airsnort – Bem essa é a ferramenta que ira rastrear e quebrar a proteção das chaves WEP que normalmente utilizamos para “proteger” a nossa rede wireless. A ferramenta é muito simples de se utilizar, caso não consiga busque referencias em sites de busca como o google, lembramos que as chaves WEP, são muito fracas com esse tipo de aplicação, então muitas vezes utilizar uma chave WEP é o mesmo que não utilizar nada.

Ao pesquisar sobre esta ferramenta você ira descobrir formas e novas ferramentas utilizadas para quebrar senhas WEP, ferramentas adicionais podem ajudar e muito nesse processo, todo esse processo de quebra de senha não é muito rápido, serão necessárias varias tentativas para encontrar os pacotes certos para encontrar a chave certa, por isso deve-se ter paciência e um pouco de pesquisa sobre como utilizar a ferramenta de que estamos falando.


Licença Freeware | Download:AirSnort 0.2.7e [ 4,81 MB]

Ate agora mostramos um método para quebrar as chaves WEP mas e se caso o tipo de segurança for WPA e agora ? Não se apavorem pois temos a solução:

CowPatty – Esta ferramenta é utilizada para descobrir chaves WPA utilizando a tão conhecida força bruta, o que acontece é que esta ferramenta utiliza varias combinações alfanuméricas de um ficheiro (dicionário),  esperando que uma utilizada seja aceita e permita a autenticação, lembrando mais uma vez que a maioria dos métodos utilizados para quebra de senhas wireless se baseiam nesse principio por isso é muito importante ter paciência pois pode ser que demore um pouco a quebrar uma senha.





Licença Freeware | Download: CowPatty 2.0 [ 921 KB ]
O link é para um SO Linux, busque uma versão para Windows



CAPTURANDO DADOS TRANSMITIDOS DE UMA REDE PARA OUTRA


Caso você esteja diretamente ligado a uma rede wireless ou não, existem dados sendo transmitidos de uma rede para oura, e se você esta ao alcance desta rede você poderá capturar esse tipo de dados se utilizar as ferramentas adequadas.

Wireshark (Formerly Ethereal) – Com um sniffer, podemos monitorar o acesso a determinados tipos de dados, como por exemplo: e-mail, acesso remoto (telnet rlogin), transferência de arquivos FTP, etc. Isso também nos permite verificar a presença de trafego anormal em nossa rede casso alguém esteja tentando captar alguns de nossos dados sem nossa autorização.

Para o sistema operacional linux existem varias dessas ferramentas, para o Windows podemos citar os principais sendo: ethereal ou Wireshark. Realizem pesquisas no google sobre ferramentas sniffer, pois essas são as ferramentas utilizadas para capturar os dados transmitidos.


Licença Freeware | Download: Wireshark 0.99.6a [ 17.47MB ]


CONCLUSÃO

Depois de ler esse pequeno tutorial fica a critério de cada um qual decisão tomar a respeito de sua rede wireless, pois acredito que tenha ficado bem claro que existem pessoas mal intencionadas que podem estar nesse exato momento fazendo downloads de filmes e musicas e navegando tranqüilamente utilizando seu sinal de internet wireless sem que você nem mesmo saiba disso, e conseqüentemente sua internet ira se tornar lenta e insegura.

Esperamos que tenham gostado do material apresentado e esperamos que voltem a visitar o site:

www.ProgMaster.tk

quarta-feira, 14 de maio de 2014

Configuração de redes

Configuração de redes(resumo)

Carlos E. Morimoto criou 17/mar/2008 às 16h35
1

Introdução

Hoje em dia, praticamente todas as placas-mãe e notebooks trazem placas de rede onboard, o que torna a tarefa de montar a rede bastante simples. Existe a opção de montar a rede usando um switch, ou simplesmente usar um cabo cross-over para ligar diretamente os dois micros. Um cabo cross-over é um cabo de rede crimpado com uma sequência diferente nas duas pontas, que permite a comunicação direta entre os dois micros.
O switch ou o cabo cross-over resolvem o problema da ligação física entre os micros, o que equivale aos níveis 1 e 2 do modelo OSI. Falta agora configurar o TCP (níveis 3 e 4), de forma que eles possam efetivamente se comunicar.
Falando assim pode parecer difícil, mas na prática tudo o que você precisa fazer é usar dois endereços sequenciais (ou simplesmente escolher dois endereços diferentes dentro da mesma faixa de endereços) como "192.168.1.1" e "192.168.1.2" ou "10.0.0.1" e "10.0.0.2" e usar a mesma máscara de sub-rede em ambos:

index_html_m3731e1
index_html_34e59dbe
Pense nas placas, hubs e cabos como o sistema telefônico e no TCP/IP como a língua falada, que você realmente usa para se comunicar. Não adianta ligar para alguém na China que não saiba falar português. Sua voz vai chegar até lá, mas a pessoa do outro lado não vai entender nada. Além da língua em si, existe a necessidade de ter assuntos em comum para poder manter a conversa.
Ligar os cabos e ver se os leds do switch e das placas estão acesos é o primeiro passo. O segundo é configurar os endereços da rede para que os micros possam conversar entre si e o terceiro é finalmente compartilhar a conexão, arquivos, impressoras e o que mais você quer que os outros micros da rede local tenham acesso, ou mesmo configurar seu próprio servidor e disponibilizar serviços diversos para a Internet.
Graças ao TCP/IP, tanto o Linux quanto o Windows e outros sistemas operacionais em uso são intercompatíveis. Não existe problema para as máquinas com o Windows acessarem a Internet através da conexão compartilhada no Linux, por exemplo. O TCP/IP é a língua mãe que permite que todos se comuniquem.
Atualmente, o TPC/IP é suportado por todos os principais sistemas operacionais, não apenas os destinados a PCs, mas a praticamente todas as arquiteturas, incluindo até mesmo celulares e handhelds. Qualquer sistema com um mínimo de poder de processamento pode conectar-se à Internet, desde que alguém desenvolva uma implementação do TCP/IP para ele, juntamente com alguns aplicativos.
Até mesmo o MSX já ganhou um sistema operacional com suporte a TCP/IP e um navegador que, embora de forma bastante limitada, permite que um jurássico MSX com 128k de memória (ligado na TV e equipado com um modem serial) acesse a web. Se duvida, veja com seus próprios olhos no: http://uzix.sourceforge.net/uzix2.0/.
index_html_m8bfcc93
index_html_m6fc47edf

Endereços, máscaras e DHCP

Independentemente do sistema operacional usado, os parâmetros necessários para configurar a rede e acessar a web através de uma conexão compartilhada são os mesmos, muda apenas a ferramenta de configuração usada. Vamos então a uma explicação básica dos parâmetros de configuração da rede:

Endereço IP

Os endereços IP identificam cada host (ou seja, cada estação) na rede. A regra básica é que cada host deve ter um endereço IP diferente e devem ser utilizados endereços dentro da mesma faixa.
Um endereço IP é composto de uma seqüência de 32 bits, divididos em 4 grupos de 8 bits cada, chamados de octetos e cada octeto permite o uso de 256 combinações diferentes (dois elevado à oitava potência).
Para facilitar a configuração dos endereços, usamos números de 0 a 255 para representar cada octeto, formando endereços como 220.45.100.222 ou 131.175.34.7. Isso torna a tarefa de configurar e memorizar os endereços bem mais fácil do que seria se precisássemos decorar seqüências de números binários.
O endereço IP é dividido em duas partes. A primeira identifica a rede à qual o host está conectado (necessário, pois, em uma rede TCP/IP, podemos ter várias redes conectadas entre si, como no caso da Internet) e a segunda identifica o host propriamente dito dentro da rede.
Obrigatoriamente, os primeiros bits do endereço servirão para identificar a rede e os últimos servirão para identificar o computador em si. Como temos apenas 4 octetos, qualquer divisão fixa limitaria bastante o número de endereços possíveis, o que seria uma grande limitação no caso da Internet, onde existe um número muito grande de redes diferentes, muitas delas com um número muito grande de micros conectados, como no caso dos grandes provedores de acesso.
Se fosse reservado apenas o primeiro octeto do endereço, teríamos um grande número de hosts (micros conectados a cada rede), mas em compensação poderíamos ter apenas 256 redes diferentes, o que seria muito complicado, considerando o tamanho do mundo.
Mesmo se reservássemos dois octetos para a identificação da rede e dois para a identificação do host, os endereços possíveis seriam insuficientes, pois existem muito mais de 65 mil redes diferentes no mundo, conectadas entre si através da Internet, e existem muitas redes com mais de 65 mil hosts.
A primeira solução para o impasse foi a divisão dos endereços em três classes, onde cada classe reserva um número diferente de octetos para o endereçamento da rede. Atualmente, esta designação não é inteiramente válida, pois é cada vez mais usado o sistema CIDR, onde são usadas máscaras variáveis para criar faixas de endereços de diversos tamanhos (como você pode ver no meu tutorial sobre o CIDR: http://www.hardware.com.br/tutoriais/endereco-ip-cidr/). Mas, como este é um tutorial introdutório, vamos entender a divisão tradicional:
Na classe A, apenas o primeiro octeto identifica a rede, na classe B são usados os dois primeiros octetos e na classe C (a mais comum) temos os três primeiros octetos reservados para a rede e apenas o último reservado para a identificação dos hosts.
O que diferencia uma classe de endereços da outra é o valor do primeiro octeto. Se for um número entre 1 e 126 (como em 113.221.34.57), temos um endereço de classe A. Se o valor do primeiro octeto for um número entre 128 e 191, então temos um endereço de classe B(como em 167.27.135.203) e, finalmente, caso o primeiro octeto seja um número entre 192 e 223, teremos um endereço de classe C, como em 212.23.187.98.
Isso permite que existam ao mesmo tempo redes pequenas, com até 254 micros, usadas, por exemplo, por pequenas empresas e provedores de acesso, e redes muito grandes, usadas por grandes empresas, datacenters ou grandes provedores de acesso.
Todos os endereços IP válidos na Internet possuem dono. Seja alguma empresa ou alguma entidade certificadora que os fornece junto com novos links. Por isso, não podemos utilizar nenhum deles a esmo. Quando você se conecta na Internet, você recebe um único endereço IP válido, emprestado pelo provedor de acesso como, por exemplo, "200.220.231.34". É através dele que outros hosts na Internet podem enviar informações e arquivos para o seu.
Ao configurar uma rede local, você deve usar uma das faixas de endereços reservados, endereços que não existem na Internet e que, por isso, podem ser usados livremente em redes particulares. As faixas reservadas de endereços são:
10.x.x.x, com máscara de sub-rede 255.0.0.0
172.16.x.x até 172.31.x.x, com máscara de sub-rede 255.255.0.0
192.168.0.x até 192.168.255.x, com máscara de sub-rede 255.255.255.0
Você pode usar qualquer uma dessas faixas de endereços na sua rede. Uma das faixas de endereços mais usadas é a 192.168.0.x, onde o "192.168.0." vai ser igual em todos os micros da rede e muda apenas o último número, que pode ser de 1 até 254 (o 0 e o 255 são reservados para o endereço da rede e o sinal de broadcast). Se você tiver 4 micros na rede, os endereços deles podem ser, por exemplo, 192.168.0.1, 192.168.0.2, 192.168.0.3 e 192.168.0.4.
Micros configurados para usar faixas de endereços diferentes entendem que fazem parte de redes diferentes e não conseguem se enxergar mutuamente. Uma configuração muito comum em grandes redes é dividir os micros em diversas faixas de IPs diferentes, como 192.168.0.x, 192.168.1.x e 192.168.2.x, e usar um roteador (que pode ser um servidor com várias placas de rede) para interligá-las.

Máscara de sub-rede

A máscara de sub-rede indica qual parte do endereço é usada para endereçar a rede e qual parte é usada para endereçar o host dentro dela.
Na designação tradicional, com as três classes de endereços, a máscara acompanha a classe do endereço IP. Em um endereço de classe A, a máscara será 255.0.0.0, indicando que o primeiro octeto se refere à rede e os três últimos ao host; em um endereço classe B, a máscara padrão será 255.255.0.0, onde os dois primeiros octetos referem-se à rede e os dois últimos ao host, enquanto em um endereço classe C, a máscara padrão será 255.255.255.0, onde apenas o último octeto refere-se ao host.
Se converter o número "255" para binário, você verá que ele corresponde ao binário "11111111", enquanto o número 0 corresponde ao binário "00000000". Eles são usados na composição das máscaras justamente porque indicam que todos, ou que nenhum dos bits do octeto correspondente são usados para endereçar a rede.
Se as máscaras simplesmente acompanham a classe do endereço, você poderia se perguntar qual é a real necessidade delas. A resposta é que apesar das máscaras padrão acompanharem a classe do endereço IP, é possível "mascarar" um endereço IP, mudando as faixas do endereço que serão usadas para endereçar a rede e o host.
Veja, por exemplo, o endereço "192.168.0.1". Por ser um endereço de classe C, sua máscara padrão seria 255.255.255.0, indicando que o último octeto se refere ao host, e os demais à rede. Porém, se mantivéssemos o mesmo endereço, mas alterássemos a máscara para 255.255.0.0, apenas os dois primeiros octetos (192.168) continuariam representando a rede, enquanto o host passaria a ser representado pelos dois últimos (e não apenas pelo último).
O endereço "192.168.0.1" com máscara 255.255.255.0 é diferente de "192.168.0.1" com máscara 255.255.0.0. Enquanto no primeiro caso temos o host "1" dentro da rede "192.168.0", no segundo caso temos o host "0.1" dentro da rede "192.168".
A moral da história é que dentro da rede você deve configurar sempre todos os micros para usarem a mesma máscara de sub-rede, seguindo a faixa de endereços escolhida. Se você está usando a faixa 192.168.0.x, então a máscara de sub-rede vai ser 255.255.255.0 para todos os micros.

Default gateway

O default gateway, ou gateway padrão é a porta de entrada e de saída da rede. Ele é o roteador que possui o link de Internet e é o responsável por roteador o tráfego dos demais hosts da rede para a Internet e vice-versa. A menos que exista outra rota definida manualmente, todo o tráfego destinado a endereços fora da rede serão encaminhados ao default gateway.
Quando você compartilha a conexão entre vários micros, apenas o servidor que está compartilhando a conexão possui um endereço IP válido, só ele "existe" na Internet. Todos os demais acessam através dele, encaminhando para ele os pacotes destinados à Internet.
Se o endereço de rede local do servidor que está compartilhando a conexão é "192.168.1.1", então este é o endereço que todos os demais usarão como gateway padrão.

DNS

O DNS (domain name system) permite usar nomes amigáveis em vez de endereços IP para acessar servidores. Quando você se conecta à Internet e acessa o endereçohttp://www.hardware.com.br/, é um servidor DNS que converte o "nome fantasia" no endereço IP real do servidor, permitindo que seu micro possa acessá-lo.
Para tanto, o servidor DNS mantém uma tabela com todos os nomes fantasia, relacionados com os respectivos endereços IP. A maior dificuldade em manter um servidor DNS é justamente manter esta tabela atualizada, pois o serviço precisa ser feito manualmente.
Faz parte da configuração da rede informar os endereços DNS do provedor (ou qualquer outro servidor que você tenha acesso), que é para quem seu micro irá perguntar sempre que você tentar acessar qualquer coisa usando um nome de domínio e não um endereço IP. Servidores DNS também são muito usados em intranets, para tornar os endereços mais amigáveis e fáceis de guardar.
Por padrão são usados dois endereços. Assim, se o primeiro estiver fora do ar, o sistema envia a solicitação para o segundo. Também funciona com um endereço só, mas você perde a redundância.
Tipicamente, acessamos usando os endereços de DNS fornecidos pelo provedor de acesso, mas é possível também instalar um servidor DNS dentro da sua rede local, usando o pacote "bind" em um servidor Linux, ou utilizar um servidor de DNS público, como os servidores dohttp://opendns.com, que respondem pelos endereços 208.67.222.222 e 208.67.220.220.
Apesar de não parecer, a resolução de um domínio, ou seja o processo de descobrir qual é o endereço IP do servidor relacionado a ele é um processo relativamente demorado, que exige consultas a diversos servidores diferentes. Isso faz com que muitas vezes você fique vendo a célebre mensagem "localizando ..." durante vários segundos ao tentar acessar um endereço.
index_html_m5ddd66aa
Na Internet, os servidores DNS formam uma gigantesca base de dados distribuída, que possui uma função crítica no funcionamento da rede. No topo da cadeia, temos os root servers, 14 servidores espalhados pelo mundo que têm como função responder a todas as requisições de resolução de domínio. Na verdade, eles não respondem nada, apenas delegam o trabalho para servidores menores, responsáveis individuais dos domínios.
Um nome de domínio é lido da direita para a esquerda. Temos os domínios primários, como .com, .net, .info, .cc, .biz, etc., e em seguida os domínios secundários, que recebem o prefixo de cada país, como .com.br ou .net.br. Nesse caso, o "com" é um subdomínio do domínio "br".
Dentro da Internet, temos várias instituições que cuidam desta tarefa. No Brasil, por exemplo, temos o registro.br, responsável pelos domínios ".br". Para registrar um domínio, é preciso fornecer dois endereços de DNS, que podem ser obtidos usando dois servidores dedicados, ou um único servidor com dois endereços IPs válidos. Depois que o domínio é ativado, é necessário pagar uma taxa de manutenção anual.
Quando você acessa o domínio "gdhn.com.br", por exemplo, seu PC envia a requisição para o servidor DNS especificado na configuração da rede. Ele repassa a requisição para um dos 14 root servers da Internet. Como trata-se de um domínio "br", a requisição é encaminhada para um dos servidores primários do registro.br, que encaminha a requisição para um dos servidores secundários, responsáveis pelo "com", que por sua vez encaminha a requisição para o servidor responsável pelo domínio (que é geralmente uma instância do bind, rodando na própria máquina que hospeda o site), que finalmente responde a requisição. Só depois de tudo isso é que a resposta chega à sua máquina.
Como o processo é demorado, os servidores DNS mantém um cache dos endereços conhecidos, que passam a ser checados apenas esporadicamente. Com isso, servidores DNS compartilhados entre vários usuários, como no caso dos servidores DNS dos grandes provedores são geralmente mais rápidos do que servidores DNS locais, que são usados apenas pelos usuários da rede local, embora sempre existam exceções.

DHCP

O DHCP ("Dynamic Host Configuration Protocol" ou "protocolo de configuração dinâmica de endereços de rede") permite que todos os micros da rede recebam suas configurações de rede automaticamente a partir de um servidor central, sem que você precise ficar configurando os endereços manualmente em cada um.
O protocolo DHCP trabalha de uma forma bastante interessante. Inicialmente, a estação não sabe quem é, não possui um endereço IP e não sabe sequer qual é o endereço do servidor DHCP da rede. Ela manda, então, um pacote de broadcast endereçado ao IP "255.255.255.255", que é transmitido pelo switch para todos os micros da rede. O servidor DHCP recebe este pacote e responde com um pacote endereçado ao endereço IP "0.0.0.0", que também é transmitido para todas as estações.
Apesar disso, apenas a estação que enviou a solicitação lerá o pacote, pois ele é endereçado ao endereço MAC da placa de rede. Quando uma estação recebe um pacote destinado a um endereço MAC diferente do seu, ela ignora a transmissão.
Dentro do pacote enviado pelo servidor DHCP estão especificados o endereço IP, máscara, gateway e servidores DNS que serão usados pela estação. Este endereço é temporário, não é da estação, simplesmente é "emprestado" pelo servidor DHCP para que seja usado durante um certo tempo (lease time), definido na configuração do servidor.
Depois de decorrido metade do tempo de empréstimo, a estação tentará contatar o servidor DHCP para renovar o empréstimo. Se o servidor DHCP estiver fora do ar, ou não puder ser contatado por qualquer outro motivo, a estação esperará até que tenha se passado 87.5% do tempo total, tentando várias vezes em seguida. Se, terminado o tempo do empréstimo, o servidor DHCP ainda não estiver disponível, a estação abandonará o endereço e ficará tentando contatar qualquer servidor DHCP disponível, repetindo a tentativa a cada 5 minutos. Porém, por não ter mais um endereço IP, a estação ficará fora da rede até que o servidor DHPC volte a responder.
Veja que uma vez instalado, o servidor DHCP passa a ser essencial para o funcionamento da rede. Se ele estiver travado ou desligado, as estações não terão como obter seus endereços IP e não conseguirão entrar na rede.
Além de serem usados dentro da rede local, os servidores DHCP são utilizados pelas operadores e pelos provedores de acesso para fornecer endereços aos clientes. Além de facilitar a configuração, isso permite que o provedor tenha um volume de assinantes maior do que o número de IPs válidos, jogando com a perspectiva de que nem todos acessarão ao mesmo tempo.
Não é necessário ter um servidor DHCP dedicado. Muito pelo contrário, o DHCP é um serviço que consome poucos recursos do sistema, por isso o mais comum é deixá-lo ativo no próprio servidor (ou modem ADSL) que compartilha a conexão. Freqüentemente, o mesmo servidor incorpora também recursos extras, como um firewall e um proxy transparente. Embora não ofereçam os mesmos recursos que um servidor Linux, os modems ADSL que podem ser configurados como roteadores quase sempre incluem a opção de ativar o servidor DHCP.
Uma observação é que na maioria dos sistemas operacionais atuais, o sistema utiliza o APIPA(Automatic Private IP Address) para configurar um endereço IP temporário caso tudo mais falhe, ou seja, se não existe configuração de rede manual e não foi possível obter a configuração via DHCP.
Com o APIPA, o host utiliza um endereço aleatório dentro da faixa 169.254.x.x (com máscara 255.255.0.0), que é uma nova faixa de endereços reservada e não roteável, que foi atribuída pela IANA em 2001.
Este endereço temporário permite que ele converse com outros micros da rede configurados da mesma forma, mas naturalmente não permite que ele acesse a web ou participe da rede local até que a rede seja realmente configurada.
Sempre que você instalar o sistema em um novo micro e ele se configurar com um endereço nessa faixa, muito provavelmente (presumindo que você tenha um servidor DHCP na rede) o sistema não conseguiu detectar corretamente a placa de rede, ou existe algum problema com o cabeamento (ou com a configuração da rede wireless, se for o caso) que está impedindo que ele acesse a rede e receba a resposta do servidor DHCP.

NAT

O NAT é uma técnica avançada de roteamento que permite que vários micros acessem a Internet usando uma única conexão e um único endereço IP válido. Não importa se você acessa via ADSL, cabo, wireless, GPRS, satélite, acesso discado ou via sinais de fumaça; usando o NAT você pode compartilhar a conexão entre os diversos micros da rede local, permitindo que todos compartilhem o link de acesso. A sigla NAT é abreviação de "Network Address Translation" (tradução de endereços de rede), o que dá uma boa dica de como o sistema funciona.
Ao receber um pacote de um dos micros da rede local endereçado à Internet, o servidor substitui o endereço da estação (192.168.0.2, por exemplo) pelo seu endereço de Internet e o envia ao destinatário. Ao receber resposta, o servidor novamente troca o endereço de Internet do destinatário pelo seu (do servidor) IP de rede local. A estação acha que está conversando diretamente com o servidor e não enxerga os demais hosts da Internet, enquanto eles (os demais hosts) enxergam apenas o servidor e não os demais micros da rede local, que permanecem invisíveis.
Este processo de tradução é feito em tempo real, sem adicionar um volume considerável de latência na conexão (ou seja, sem aumentar o ping de forma perceptível) nem reduzir a velocidade da conexão, de forma que ele se tornou largamente utilizado.
Usando o NAT, o link não é dividido entre os micros, mas sim compartilhado entre eles. Desde que um único PC esteja baixando arquivos em um dado momento, ele dispõe de toda a banda da conexão, como se estivesse acessando diretamente. Se dois PCs baixam arquivos simultaneamente, cada um fica com metade da banda e assim por diante. Desde que nem todos os usuários da rede resolvam baixar arquivos simultaneamente, você pode compartilhar uma conexão ADSL de 1 ou 2 megabits entre 10 ou 20 micros tranquilamente.
O exemplo mais comum de roteador NAT é um servidor com duas placas de rede, uma para a rede local e outra para a Internet. Depois de configuradas ambas as conexões e ativado o compartilhamento, falta apenas configurar os demais micros da rede local para utilizarem endereços dentro da mesma faixa do servidor e utilizarem seu endereço de rede local como gateway padrão.
Um exemplo de configuração de rede completa para um dos micros da rede, que vai acessar a Internet através do servidor seria:
IP: 192.168.0.2
Máscara: 255.255.255.0
Gateway: 192.168.0.1 (o endereço do servidor)
DNS: 208.67.222.222 e 208.67.220.220
Neste exemplo, estou usando dois endereços de servidores DNS externos na configuração do cliente, mas é possível também instalar um servidor DNS local no servidor. Em uma máquina Linux você só precisaria instalar o pacote "bind", como em:
# apt-get install bind
Com isso, as máquinas da rede local poderiam usar o endereço do gateway também como DNS. Usar um DNS local não é uma grande vantagem do ponto de vista da velocidade já que um servidor de DNS compartilhado entre vários usuários pode responder a uma percentagem maior das requisições a partir do cache, mas ter um DNS local é a garantia de que você nunca ficará sem acesso por causa de problemas nos servidores DNS do provedor.
Temos aqui um exemplo de como ficaria a configuração dos endereços em uma pequena rede, com 2 micros. Note que, neste caso, os micros da rede local utilizam uma faixa de endereços privada (192.168.0.x no exemplo), uma faixa de endereços que não existe na Internet. O único que possui um endereço IP válido na Internet é o servidor, que por isso é o único que pode ser acessado diretamente de fora. Ele fica responsável por interligar as duas redes, permitindo que o outro PC acesse a Internet:
index_html_m1a298c59
Hoje em dia, o compartilhamento via NAT é oferecido por diversos dispositivos, entre eles modems ADSL e roteadores wireless, o que permite que você compartilhe a conexão entre os diversos micros da rede usando apenas o modem e o switch da rede.
É possível ainda "recompartilhar" uma conexão já compartilhada via NAT, o que pode ser usado para adicionar serviços adicionais, como um proxy transparente ou filtros de conteúdo. Você poderia ter então o modem ADSL compartilhando a conexão e um servidor Linux com duas placas de rede instalado entre ele e a rede local.

quinta-feira, 7 de março de 2013

técnica de instalação de rede

* Conceitos para instalações lógicas - Componentes básicos 4
* Cabo utilizado nas instalações: par trançado 5
* Definições 5
* Utilidades e vantagens 5
* Taxa de transmissão 6
* Tipos de Cabo Par Trançado 7
* Categoria dos cabos 8
* Características físicas 8
* Montagem da rede – componentes 9

RJ 45 9
Crossover 12
RJ-45 Fêmea (jack) 13
Tomadas e Espelhos 14
Tomadas 15
Espelhos 16
Patch Panels 17
Painel de conexão reduzido (mini patch panel) 19
Blocos com Saída RJ-45 20
Blocos de Conexão 110 21
Patch Cables e Adapter Cables 23
Marcação de cabos 25
Aparelhos e instrumentos utilizados nas instalações 25
Gabinete 25
Racks 26
Brackets 29
Prateleiras 30
Painel de Fechamento 30



Organizador horizontal para cabos 31
Régua de Tomadas 31
Dispositivos de distribuição de dados 32
Hub 32
Switch 3
Roteadores 3
Redes sem fio(wireless) 35
Ferramentas para instalações e testes de redes 38
Punch Down 38
Alicate crimpador 39


4 Introdução

Tão importante quanto cabos de rede elétrica, as redes de internet espalham e ligam todo mundo, seja conectando pessoas, movendo dinheiro, expandindo idéias, etc. É no caminho dessa troca de informações que envolve o conceito de instalações lógicas.

Apresentarei conceitos sobre como instalar uma rede feita por cabos de par trançado, bem como instalação de seus componentes, desde um switch, hub ou roteador, até o usuário, mostrando as dimensões de componentes, tipos de materiais usados, entre outros.

Conceitos para instalações lógicas

Componentes básicos

Os componentes básicos da rede são uma placa de rede para cada micro, os cabos e o hub ou switch que serve como um ponto de encontro, permitindo que todos os micros se enxerguem e conversem entre sí.

As placas de rede já foram componentes caros, mas como elas são dispositivos relativamente simples e o funcionamento é baseado em padrões abertos, qualquer um pode abrir uma fábrica de placas de rede o que faz com que exista uma concorrência acirrada que obriga os fabricantes a produzirem placas cada vez mais baratas e trabalhem com margens de lucro cada vez mais estreitas. As placas de rede mais baratas chegam a ser vendidas no atacado por menos de três dólares. O preço final é um pouco mais alto naturalmente, mas não é difícil achar placas por 20 reais ou até menos.

Placa de rede


Os cabos de rede mais usados atualmente são os cabos Cat 5 ou Cat 5e. O número indica a qualidade dos cabos. Existem cabos Cat 1 até Cat 7, mas como os cabos Cat 5 são suficientes tanto para redes de 100 quanto de 1000 megabits (chamadas de Gigabit Ethernet) eles são os mais comuns e mais baratos. Geralmente custam em torno de 70 centavos o metro.

O cabo normalmente vem em uma caixa padrão com 300m, pesando cerca de 10kg.

Entre as fabricantes, encontem-se a Furukawa, Alcatel, Nexans e outros.


Cabo utilizado nas instalações: par trançado Definições

O cabeamento por par trançado (Twisted pair) é um tipo de fiação na qual dois condutores são trançados um ao redor do outro para cancelar interferências eletromagnéticas de fontes externas e interferências mútuas (linha cruzada ou, em inglês, crosstalk) entre cabos vizinhos. A taxa de giro (normalmente definida em termos de giros por metro) é parte da especificação do tipo de cabo.


Quanto maior o número de giros, mais o ruído é cancelado. Foi um sistema originalmente produzido para transmissão telefônica analógica, que utilizou o sistema de transmissão por par de fios. Aproveita-se esta tecnologia que já é tradicional por causa do seu tempo de uso e do grande número de linhas instaladas.

Utilidades e vantagens

A rede feita com cabo de par trançado está substituindo as redes de cabo coaxial de 50 Ohms devido à facilidade de manutenção, pois neste último é muito trabalhoso achar um defeito devido a um mau contato ou qualquer problema com as conexões em algum ponto da rede, que acaba por refletir em todas as máquinas da rede, o que não acontece em uma rede de par trançado.

Outro motivo para adoção do cabo de par trançado foi à vantagem em atingir maiores taxas de transferência. Com cabos convencionais haveria comunicação, mas com ruídos prejudicariam em muito a qualidade. As taxas usuais são: 10 Mbps; 100 Mbps (Fast Ethernet); ou 1000 Mbps (Gigabit Ethernet). As placas são intercompatíveis, mas ao usar placas de velocidades diferentes, as duas vão conversar na velocidade da placa mais lenta.

Quando existem várias máquinas envolvidas, os dados só podem ser recebidos ou enviados por uma máquina de cada vez, enquanto isso, as outras máquinas esperam para enviar os seus dados. Se o pacote de dados chegar corrompido, a máquina que os recebeu requer que eles sejam enviados novamente e isto custará mais tempo de espera das outras máquinas, então quanto mais perfeita a linha de dados, mais rápida será a rede, utilizando-se placas Fast Ethernet e cabos CAT 5 obtém-se taxas de 100 Mbs.

Com a popularização das conexões rápidas (ADSL, Cabo etc.) as placas de 100

Mbps e os Hubs tornaram-se acessíveis no seu preço, portanto são ideais para uma pequena rede ou rede doméstica, e também utilizando o cabo UTP CAT 5.

Deve-se verificar também a ligação do cabo de acordo com os sinais envolvidos.

No conector RJ-45, para a ligação de rede convencional (10 ou 100 Mbps) somente os pinos 1,2,3 e 6 são na verdade utilizados. Dependendo da ligação ou não dos demais pares, pode ocasionar ruídos quando menos de 10 Mb/s, e não funcionar a 100 Mb/s ,podendo até travar os computadores da rede.

A vantagem principal na utilização do par de fios é seu baixo custo de instalação e manutenção, considerando o grande número de bases instaladas.

Taxa de transmissão

A taxa de transmissão varia de acordo com as condições das linhas utilizadas


Todo o meio físico de transmissão sofre influências do meio externo acarretando em perdas de desempenho nas taxas de transmissão. Essas perdas podem ser atenuadas limitando a distância entre os pontos a serem ligados.

A indução ocorre devido a alguma interferência elétrica externa ocasionada por centelhamentos, harmônicos, osciladores, motores ou geradores elétricos, mau contato ou contato acidental com outras linhas de transmissão que não estejam isoladas corretamente, ou até mesmo tempestades elétricas ou proximidades com linhas de alta tensão.

Tipos de Cabo Par Trançado

Unshielded Twisted Pair - UTP ou Par

Trançado sem Blindagem: é o mais usado atualmente tanto em redes domésticas quanto em grandes redes industriais devido ao fácil manuseio e instalação, permitindo taxas de transmissão de até 100 Mbps, e pelo fato de que o cabo CAT 5 é o mais barato. Para distâncias maiores que 150 metros; emprega-se cabos de fibra óptica, que vêm barateando os seus custos. Sua estrutura é de quatro pares de fios entrelaçados e revestidos por uma capa de PVC

Shield Twisted Pair - STP ou Par Trançado Blindado (cabo com blindagem): É semelhante ao UTP. A diferença é que possui uma blindagem feita com a malha do cabo. Sendo basicamente necessário em ambientes com grande nível de interferência eletromagnética. É mais caro, menos usado e necessita de aterramento. Este gênero de cabo, por estar revestido, diminui as interferências eletromagnéticas externas, protegendo mais da umidade. Deve-se dar preferência a sistemas com cabos de fibra ótica em grandes distâncias ou com elevadas velocidades de transmissão, podem ser encontrados com blindagem simples ou com blindagem par a par.

Screened Twisted Pair - ScTP também referenciado como FTP (Foil Twisted


Pair), os cabos são cobertos pelo mesmo composto do UTP categoria 5 Plenum. Para este tipo de cabo, no entanto, uma película de metal é enrolada sobre todos os pares trançados, o que contribui para um maior controle de EMI, embora exija maiores cuidados quanto ao aterramento do mesmo.

Categoria dos cabos

Os cabos UTP foram padronizados pelas normas da EIA/TIA com a norma 568 e são divididos em 5 categorias, levando em conta o nível de segurança e a bitola do fio, onde os números maiores indicam fios com diâmetros menores:

Categoria do cabo 1 ( Voz): possui medida 26 AWG. São utilizados por equipamentos de telecomunicação e rádio e não devem ser usados para uma rede local (padronizado pela norma EIA/TIA-568B). (Não é mais indicado pela norma TIA/EIA)

Categoria do cabo 2 (Dados - LocalTalk)): usado antigamente nas redes token ring chegando a velocidade de 4 Mbps. (Não é mais indicado pela norma TIA/EIA)

Categoria do cabo 3: cabo padronizado foi usado para transmissão de dados até a freqüência 16 MHz e dados a 10 Mbps Ethernet em redes da mesma capacidade. (Não é mais indicado pela norma TIA/EIA)

Categoria do cabo 4: pode ser utilizado para transmissão até a freqüência de 20

MHz e dados a 20 Mbps foi usado em redes token ring a uma taxa de 16 Mbps. (Não é mais indicado pela norma TIA/EIA)

Categoria do cabo 5: usado em redes fast ethernet em freqüências de até 100

MHz com uma taxa de 100 Mbps.

Categoria do cabo 5e: é uma melhoria da categoria 5. Pode ser usado para freqüências de até 125 MHz em redes 1000BASE-T gigabit ethernet.

Categoria do cabo 6: definido pela norma ANSI TIA/EIA 568B-2.1 possui bitola 24 AWG e banda passante de até 250 MHz e pode ser usado em redes gigabit ethernet a velocidade de 1.0 Mbps.

Categoria do cabo 6a – Subcategoria dentro do CAT6. Providência acima de 500

terça-feira, 21 de agosto de 2012

Ciência da Computação; Engenharia da Computação; Sistemas de Informação. Qual escolher?


  • Ciência da Computação;
  • Engenharia da Computação;
  • Sistemas de Informação;
 

Ciência da Computação

Também chamado de Ciências da Computação por algumas instituições de ensino, este é um curso que aborda de maneira aprofundada os conceitos e teorias da computação, dando uma sólida formação em temas como estruturas de dados, algoritmos, linguagens de programação, desenvolvimento e análise de sistemas, entre outros. É uma área que trabalha essencialmente com software e que tem um forte embasamento em fundamentos matemáticos e em cálculo.
O estudante de Ciência da Computação é preparado para resolver problemas reais aplicando soluções que envolvam computação, independente de qual seja o ambiente (comercial, industrial ou científico). Quem se forma neste curso se depara com uma variedade grande de carreiras para seguir, uma vez que a computação é aplicada em diversas áreas do conhecimento.
Boa parte dos estudantes que se graduam em Ciência da Computação segue carreiras ligadas ao desenvolvimento de software, mas o curso também pode servir como base para outros segmentos, como segurança da informação ou estrutura de redes, por exemplo, mesmo que a pessoa tenha que fazer treinamentos de especialização para complementar seus conhecimentos.

Engenharia da Computação

Esta graduação possui muitas semelhanças com o curso de Ciência da Computação, tendo inclusive muitas disciplinas em comum. Por causa disso, alguns países chegam a não fazer distinção entre ambos. No entanto, nos países que a fazem, como o Brasil, a Engenharia da Computação é diferenciada por se destacar no projeto, desenvolvimento e implementação de equipamentos e dispositivos computacionais. Grossamente falando, é uma área que trabalha mais com hardware - enquanto Ciências da Computação dá prioridade ao software - , o que a torna, até certo ponto, também semelhante a cursos como Engenharia Elétrica.
Quem se forma em Engenharia da Computação se torna apto a projetar e a implementar tecnologias de hardware e software em equipamentos, aplicações industriais, redes de comunicação, sistemas embarcados em dispositivos dos mais variados portes, entre outros. Profissionais da área também podem seguir carreira em desenvolvimento, principalmente no Brasil, que tem a "cultura" de trabalhar mais com desenvolvimento de software do que em tecnologias de hardware.

Sistemas de Informação

Este é um curso focado no planejamento e desenvolvimento de sistemas de informação e automação. Também é, de certo modo, uma graduação parecida com Ciência da Computação, no entanto, o estudante de Sistemas da Informação recebe preparo para ter entrada mais "direta" no mercado, de forma que possa atuar tanto no desenvolvimento de software quanto em atividades relacionadas, como suporte, por exemplo.
Em Sistemas de Informação também são aplicados conhecimentos de administração, negócios e relações humanas, embora seja possível encontrar disciplinas destas áreas nos cursos mencionados anteriormente, dependendo da instituição de ensino.
De modo geral, o profissional de Sistemas de Informação é mais focado em aplicar recursos de computação na solução de problemas - especialmente de atividades corporativas - do que desenvolvê-los.

Graduação tecnológica

É bastante comum encontrar nas instituições de ensino brasileiras o que se conhece como graduação tecnológica. São cursos superiores, de fato, mas com tempo de duração menor - normalmente de até dois anos, podendo chegar a três - e focados em habilidades que interessam diretamente ao mercado de trabalho.
As graduações "normais" são mais amplas, dando espaço para mais áreas do conhecimento e oferecendo meios inclusive para que o estudante possa não só atuar no mercado de trabalho, mas também desenvolver pesquisas. As graduações tecnológicas, por sua vez, levam o estudante a obter conhecimentos condizentes com as necessidades mais encontradas no mercado.
Como as graduações tecnológicas são superiores, o estudante de um curso do tipo também pode realizar pós-graduação. De qualquer forma, trata-se de uma modalidade mais limitada e que, portanto, pode tornar mais difícil a obtenção de determinados cargos.
Em TI, os cursos tecnológicos mais comum tratam de banco de dados, jogos digitais, gestão de TI, redes, segurança da informação, sistemas para a internet, entre outros.

Certificações

As certificações não substituem um curso superior, mas podem ser uma excelente forma de incrementar o currículo, especialmente para quem já é formado ou já está inserido no mercado de trabalho e quer obter melhor colocação. Isso porque as certificações atestam que a pessoa tem conhecimentos específicos em determinada tecnologia ou área.
Normalmente, os treinamentos e as provas para obtenção da certificação são desenvolvidos e aplicados pelas empresas (ou parceiras destas) que estão por trás da tecnologia em questão, assim como por instituições capacitadas em determinadas áreas.
É comum encontrar no mercado certificações de empresas como Microsoft, Oracle, Cisco, IBM e várias outras.

Cursos técnicos

Uma alternativa para quem está procurando menos complexidade ou inserção mais rápida no mercado de trabalho são os cursos técnicos em TI, que normalmente duram até um ano e meio.
Os salários costumam ser maiores para quem possui um curso superior, mesmo porque as chances de se obter um cargo melhor renumerado aumentam com uma graduação, mas cursos técnicos também abrem espaço para boas oportunidades.
Os cursos técnicos são voltados para determinadas atividades, possuem carga horária menor e custam menos que uma graduação (no que se refere a instituições de ensino privadas). Esta pode ser uma opção interessante para quem deseja entrar no mercado para adquirir experiência e estar mais preparado para cursar uma graduação.
Há cursos que se focam em montagem e manutenção de computadores, redes, web design, entre outros. Note, no entanto, que cursos técnicos não são superiores, tampouco são equivalentes às certificações.

Finalizando

Estes são os cursos mais comuns da computação. Se você se interessou por algum deles, procure por mais detalhes para ter certeza de que a escolha feita realmente condiz com as suas expectativas. Para isso, uma boa dica é conversar com quem já fez (ou está fazendo) o curso de seu interesse e também visitar universidades ou faculdades que oferecem o curso em questão. Muitas delas oferecem inclusive visitas monitoradas e até dão ao interessado a possibilidade de conversar com professores e coordenadores de curso.
É bom frisar que todos os cursos mencionados acima permitem que o estudante direcione sua carreira para determinados nichos, especialmente se complementar sua formação com cursos de pós-graduação ou mesmo com ja já mencionadas certificações.
Independente de sua escolha, prepare-se para estudar bastante. Cursos de graduação, em qualquer área, exigem disciplina e muita dedicação. Na área da computação, as possibilidades de carreira são vastas, porém, o mercado é criterioso e absorve somente quem é bem preparado para atuar na área que escolheu.
Lembre-se também que é importante manter-se atualizado: as tecnologias computacionais beneficiam a sociedade como um todo e, por causa disso, estão em constante evolução. Não parar de estudar e acompanhar as mudanças, portanto, são as únicas maneira de não ficar ultrapassado no mercado de trabalho.
Como estes cursos - especialmente Ciência da Computação e Engenharia da Computação - estimulam o estudante a criar e desenvolver, quem sabe você não seja responsável por alguma destas tão necessárias mudanças? ;-)

terça-feira, 7 de agosto de 2012

Jumpers

HDs e DVD


O próximo passo é instalar os drives. Alguns gabinetes são espaçosos o suficiente para que você instale os HDs antes mesmo de prender a placa-mãe, mas na maioria dos casos eles ficam parcialmente sobre a placa, de forma que você precisa deixar para instalá-los depois.

Ao usar drives IDE, você precisa se preocupar também com a configuração de master/slave. No caso do drive óptico (vou adotar este termo daqui em diante, já que você pode usar tanto um drive de CD quanto de DVD ou Blu-ray), o jumper está disponível bem ao lado do conector IDE. Colocá-lo na posição central configura o drive como slave, enquanto colocá-lo à direita configura o drive como master. Para o HD, a configuração do jumper varia de acordo com o fabricante, mas você encontra o esquema de configuração na etiqueta de informação do drive. Quase sempre o HD vem configurado de fábrica como master e, ao retirar o jumper, ele é configurado como slave.
HDs SATA não utilizam jumpers de configuração de master/slave, pois cada porta permite a instalação de um único HD. Apesar disso, a maioria dos drives incluem um jumper que permite forçar o HD a operar em modo SATA/150 (evitando problemas de compatibilidade com algumas placas antigas). Em muitos HDs (como em diversos modelos da Seagate) ele vem ativado por padrão, fazendo com que o drive opere em modo SATA/150 por default. Ao usar uma placa equipada com portas SATA/300, não se esqueça de verificar a posição do jumper, para que a taxa de transferência da interface não seja artificialmente limitada.
Jumpers em um HD IDE, HD SATA e drive de DVD IDE
Jumpers em um HD IDE, HD SATA e drive de DVD IDE
Ao instalar o HD e o drive óptico em portas separadas, você pode configurar ambos como master. Atualmente é cada vez mais comum que placas novas venham com apenas uma porta IDE, o que o obriga a instalar um como master e o outro como slave. É comum também que o drive óptico seja instalado como slave mesmo ao ficar sozinho na segunda porta, já deixando o caminho pronto para instalar um segundo HD como master futuramente.
Ao usar dois (ou mais) HDs SATA, é importante que o HD de boot, onde você pretende instalar o sistema operacional, seja instalado na porta SATA 1. É possível mudar a configuração de boot através do setup, dando boot através dos outros HDs, mas o default é que o primeiro seja usado.
A identificação de cada porta vem decalcada sobre a própria placa-mãe. Na foto temos "SATA1" e "SATA2" indicando as duas portas SATA e "SEC_IDE", indicando a porta IDE secundária. Ao lado dela estaria a "PRI_IDE", a porta primária:
Nas placas e cabos atuais, é usada uma guia e um pino de controle, que impedem que você inverta a posição dos cabos IDE. Em placas e cabos antigos, por outro lado, é comum que estas proteções não estejam presentes. Nesses casos, procure um número "1" decalcado em um dos lados do conector. A posição do "1" deve coincidir com a tarja vermelha no cabo e, do lado do drive, a tarja vermelha fica sempre virada na direção do conector de força:
Os cabos IDE possuem três conectores. Normalmente dois estão próximos e o terceiro mais afastado. O conector mais distante é o que deve ser ligado na placa-mãe, enquanto os dois mais próximos são destinados a serem encaixados nos drives. Ao instalar apenas um drive no cabo, você deve usar sempre as duas pontas do conector, deixando o conector do meio vago (nunca o contrário).
Você deve utilizar sempre cabos de 80 vias em conjunto com os HDs IDE atuais, pois eles oferecem suporte aos modos ATA-66. ATA-100 e ATA-133. Os drives ópticos podem utilizar cabos comuns, de 40 vias, pois eles trabalham sempre em modo ATA-33.
Você deve receber os cabos IDE e SATA juntamente com a placa-mãe. Normalmente o pacote inclui também o cabo do disquete (embora hoje em dia seja cada vez mais raro usá-lo) e um adaptador para converter um conector molex da fonte no conector de força SATA. Muitas fontes genéricas oferecem um único conector de força SATA, de forma que você acaba precisando do adaptador ao instalar um segundo HD. Em placas que não possuem portas IDE, o cabo é substituído por um segundo cabo SATA.
"Kit" com cabos e manuais que acompanha a placa-mãe
"Kit" com cabos e manuais que acompanha a placa-mãe
O drive óptico acompanha um segundo cabo IDE (quase sempre um cabo de 40 vias), permitindo que, ao usar um drive óptico e HD IDE, você os instale em portas separadas.
Aqui temos os cabos IDE e SATA instalados. O cabo IDE preto está instalado na IDE primária e vai ser usado pelo HD, enquanto o cinza, instalado na IDE secundária, vai ser usado pelo drive óptico:
Ao instalar dois ou mais HDs na mesma máquina, deixe sempre que possível um espaço de uma ou duas baias entre eles, o que ajuda bastante na questão da refrigeração:
Assim como em outros componentes, a temperatura de funcionamento dos HDs tem um impacto direto sob a sua vida útil. O ideal é que a temperatura de operação do HD não ultrapasse os 45 graus (você pode monitorá-la usando o programa de monitoramento incluído no CD de drivers da placa, ou usando o lm-sensors no Linux), mas, quanto mais baixa a temperatura de funcionamento, melhor.
Caso tenha alguns trocados disponíveis, uma medida saudável é instalar um exaustor na entrada frontal do gabinete, puxando o ar para dentro. O fluxo de ar vai não apenas reduzir a temperatura de operação dos HDs (muitas vezes em 10 graus, ou mais) mas também dos demais componentes do micro, incluindo o processador. Para melhores resultados, o exaustor frontal deve ser combinado com outro na parte traseira, na abertura ao lado do processador, desta vez soprando o ar para fora.
Para instalar o exaustor frontal, você precisa remover a frente do gabinete. Em muitos dos modelos atuais, ela é apenas encaixada, de forma que basta puxar com cuidado. Em outros ela é presa com parafusos, escondidos nas laterais.
É sempre chato ficar colocando parafusos dos dois lados, tanto para os HDs quanto para o drive óptico, mas é importante que você resista à tentação de instalar os drives "nas coxas", sem usar todos os parafusos. A questão fundamental aqui é a vibração. Colocando parafusos apenas de um lado, ou colocando apenas um de cada lado, a movimentação da cabeça de leitura dos HDs e do drive óptico vai fazer com que o drive vibre dentro da baia, aumentando o nível de ruído do micro, sem falar de possíveis problemas relacionados ao desempenho (a vibração pode gerar erros de posicionamento da cabeça) ou mesmo à vida útil dos drives.
O toque final é instalar o cabo de áudio do drive de CD, usado para tocar CDs de áudio. Hoje em dia ele não é mais tão usado, pois a maioria dos programas é capaz de reproduzir CDs obtendo as faixas digitalmente, a partir do próprio cabo de dados do drive (o mesmo processo usado para ripar CDs), mas é sempre bom ter o cabo instalado, já que você nunca sabe que programas o dono do micro vai utilizar. O cabo é fornecido junto com o drive e é encaixado na entrada "CD" da placa-mãe, um conector de 4 pinos.

Configuração de jumpers do HD e do CD-ROM

Atualmente, além do disco rígido, conectamos vários outros periféricos nas interfaces IDE do micro, como CD-ROMs, Zip drives, drives LS-120, entre outros.
Encontramos no micro duas interfaces IDE, chamadas de IDE primária e IDE secundária. Cada interface permite a conexão de dois dispositivos, que devem ser configurados como Master (mestre) e Slave (escravo). O mestre da IDE primária é chamado de Primary Master, ou mestre primário, enquanto o Slave da IDE secundária é chamado de Secondary Slave, ou escravo secundário. Esta configuração é necessária para que o BIOS possa acessar os dispositivos, além de também determinar a letra dos drives.
Um disco rígido configurado como Master receberá a letra C:, enquanto outro configurado como Slave receberá a letra D:. Claro que estas letras podem mudar caso os discos estejam divididos em várias partições. Estudaremos a fundo o particionamento do disco rígido no próximo capítulo
A configuração em Master ou Slave é feita através de jumpers localizados no disco rígido ou CD-ROM. A posição dos jumpers para o Status desejado é mostrada no manual do disco. Caso você não tenha o manual, não se preocupe, quase sempre você encontrará uma tabela resumida impressa na parte superior do disco:

Geralmente você encontrará apenas 3 opções na tabela: Master, Slave e Cable Select. A opção de Cable Select é uma espécie de plug-and-play para discos rígidos: escolhendo esta opção, o disco que for ligado na extremidade do cabo IDE será automaticamente reconhecido como Master, enquanto o que for ligado no conector do meio será reconhecido como Slave.
O problema é que para a opção de Cable Select funcionar, é preciso um cabo flat especial, motivo pelo qual esta opção é pouco usada. Configurando seus discos como Master e Slave, não importa a posição do cabo IDE. Você poderá conectar o Master no conector do meio, por exemplo, sem problema algum, já que o que vale é a configuração dos jumpers.
Numa controladora, obrigatoriamente um dos discos deverá ser configurado como Master, e o outro como Slave, caso contrário haverá um conflito, e ambos não funcionarão.
Em alguns discos, além das opções de Master, Slave e Cable Select, você encontrará também as opções "One Drive Only" e "Drive is Master, Slave is Present". Neste caso, a opção one drive only indica que o disco será instalado como Master da controladora, e que não será usado nenhum Slave. A opção Drive is Master, Slave is Present, indica que o disco será instalado como Master da controladora mas que será instalado também um segundo disco como Slave.
Uma última dica sobre este assunto é que em praticamente todos os discos, ao retirar todos os jumpers, o HD passará a operar como Slave. Caso você não consiga descobrir o esquema dos jumpers de um disco, poderá apelar para este macete para instalá-lo como Slave de outro. Mais uma dica é que em quase todos os casos você poderá conseguir o esquema de configuração de jumpers no site do fabricante do HD, mesmo no caso de HDs muito antigos. Estes dias localizei o esquema de configuração de um Western Digital fabricado em 1995, sem maiores dificuldades.
A posição dos jumpers no HD varia de modelo para modelo, mas normalmente eles são encontrados entre os encaixes do cabo flat e do cabo de força, ou então na parte inferior do HD.

No caso dos CD-ROMs IDE, a configuração dos jumpers é ainda mais fácil, sendo feita através de um único jumper de três posições localizado na sua parte traseira, que permite configurar o drive como Master, Slave ou Cable Select. Geralmente você encontrará também uma pequena tabela, indicando a posição do jumper para cada opção. "MA" significa Master, "SL" Slave e "CS" Cable Select. É quase um padrão que o jumper no centro configure o CD como Slave, à direita como Master e à esquerda como Cable Select, sendo raras as exceções.


Ao instalar dois dispositivos numa mesma interface IDE, ambos compartilharão a interface, causando perda de desempenho. Por isso, é sempre recomendável instalar um na interface primária e outro na interface secundária. Ao instalar um HD e um CD-ROM por exemplo, a melhor configuração é o HD como Master da IDE primária e o CD-ROM como Master ou mesmo Slave da IDE secundária.