• Share
  • Email
  • Embed
  • Like
  • Save
  • Private Content
Ccna  -modulo1 conceitos basicos  de redes
 

Ccna -modulo1 conceitos basicos de redes

on

  • 1,928 views

 

Statistics

Views

Total Views
1,928
Views on SlideShare
1,882
Embed Views
46

Actions

Likes
1
Downloads
99
Comments
0

1 Embed 46

http://tecnologia.vv.si 46

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Ccna  -modulo1 conceitos basicos  de redes Ccna -modulo1 conceitos basicos de redes Document Transcript

    • Cisco CCNA 3.1 1 Capítulo 01: Introdução às Redes
    • Cisco CCNA 3.1 2 Visão geral Capítulo 01 Para entender o papel que os computadores exercem em um sistema de redes, considere a Internet. A Internet é um recurso de grande importância; estar conectado a ela é essencial no comércio, na indústria e na educação. A elaboração de uma rede que será conectada à Internet exige um planejamento cuidadoso. Para que um computador pessoal (PC) individual se conecte a Internet, é necessário algum planejamento e tomar algumas decisões. Os recursos do computador precisam ser considerados para a conexão a Internet. Isto inclui o tipo de equipamento que conecta o PC a Internet, tal como placa de rede (NIC) ou modem. Protocolos, ou regras devem ser configurados antes que um computador possa se conectar a Internet. A seleção de um navegador web apropriado também é importante. Os alunos, ao concluírem esta lição, deverão poder: • Entender a conexão física que precisa ser realizada para o computador conectar- se à Internet. • Reconhecer os componentes do computador. • Instalar e resolver problemas com placas de interface de rede e modems. • Configurar o conjunto de protocolos necessários a conexão Internet. • Usar procedimentos básicos para testar a conexão à Internet. Demonstrar um conhecimento básico da utilização de navegadores web e seus plug-ins.
    • Cisco CCNA 3.1 3 1.1 Fazendo conexão à Internet 1.1.1 Requisitos para conexão à Internet A Internet é a maior rede de dados do mundo. A Internet consiste em um grande número de redes interconectadas, incluindo redes de pequeno, médio e grande porte. Computadores individuais são as origens e destinos da informação que atravessa a Internet. A conexão à Internet pode ser dividida em conexão física, conexão lógica e aplicações. A conexão física é realizada pela conexão de uma placa de expansão, como um modem ou uma placa de rede, entre um PC e a rede. A conexão física é utilizada para transferir sinais entre PCs dentro de uma Rede local (LAN) e para dispositivos remotos na Internet. A conexão lógica utiliza padrões denominados: protocolos. Um protocolo é uma descrição formal de um conjunto de regras e convenções que governam a maneira de comunicação entre os dispositivos em uma rede. As conexões na Internet podem utilizar vários protocolos. A suíte TCP/IP (Transmission Control Protocol/Internet Protocol) é o principal conjunto de protocolos utilizados na Internet. O conjunto TCP/IP coopera entre si para transmitir e receber dados, ou informações. A última parte da conexão são os aplicativos, ou programas, que interpretam e exibem os dados de forma inteligível. Os aplicativos trabalham em conjunto com os protocolos para enviar e receber dados através da Internet. Um navegador Web exibe HTML como página Web. Exemplos de navegadores Web incluem o Internet Explorer e o Netscape. O File Transfer Protocol (FTP) é utilizado para fazer a transferência de arquivos e programas através da Internet. Os navegadores web também utilizam aplicativos plug-in proprietários para exibir tipos de dados especiais tais como filmes ou animações em flash. Esta é uma visão inicial da Internet, e poderá parecer um processo demasiadamente simples. Ao explorarmos este tópico mais profundamente, tornar-se-á aparente que o envio de dados através da Internet é uma tarefa complicada.
    • Cisco CCNA 3.1 4 1.1.2 Conceitos Básicos de PCs Já que os computadores são elementos importantes de uma rede, é necessário poder reconhecer e identificar os principais componentes de um PC. Muitos dispositivos de uma rede são em si computadores com objetivos específicos, contendo muitos dos componentes também utilizados em um PC normal. Para poder utilizar um computador como meio confiável na obtenção de informações, tal como o acesso a de confiança na obtenção de informação, tal como o acesso de um curso baseado na Web, ele precisa estar em bom estado de funcionamento. Para manter um PC em bom estado de funcionamento, será necessário ocasionalmente analisar e resolver problemas simples com o hardware e software do computador. É portanto, necessário poder reconhecer os nomes e o propósito dos seguintes componentes de um PC: Componentes Pequenos e Discretos • Transistor – Um dispositivo que amplifica um sinal ou que abre e fecha um circuito. • Circuito integrado – Um dispositivo feito de material semicondutor que contém vários transistores e realiza uma tarefa específica. • Resistor – Um componente elétrico que limita ou regula o fluxo de corrente elétrica em um circuito eletrônico. • Capacitor – Um componente eletrônico que armazena energia na forma de campo eletrostático que consiste em duas placas de metal condutor separadas por um material isolante. • Conector – A parte de um cabo que se liga a uma porta ou interface. • Diodo emissor de luz (LED-Light emitting diode) – Um dispositivo semicondutor que emite luz ao passar por ele uma corrente elétrica. Subsistemas de um Computador Pessoal • Placa de circuito impresso (PCB) – Uma placa de circuito que possui trilhas condutoras superpostas, ou impressas, em um ou nos dois lados. Também pode conter camadas internas de sinalização ou planos de terra e voltagem. Microprocessadores, chips e circuitos integrados e outros componentes eletrônicos são montados em uma PCB. • Unidade CD-ROM (Compact disk read-only memory drive) – um dispositivo que pode ler informações de um CD-ROM. • Unidade central de processamento (CPU) – A parte do computador que controla a operação de todas as outras partes. Ela obtém instruções da memória e as decodifica. Executa operações matemáticas e lógicas, e traduz e executa instruções.
    • Cisco CCNA 3.1 5 • Unidade de disco flexível – Uma unidade de disco que pode ler e gravar dados em discos plásticos cobertos de metal de 3,5 polegadas. Um disco flexível padrão pode armazenar aproximadamente 1 MB de informação. • Unidade de disco rígido – Um dispositivo de armazenagem que usa um conjunto de discos revestidos magneticamente, chamados de pratos, para armazenar dados ou programas. As unidades de disco rígido estão disponíveis em diferentes capacidades de armazenagem. • Microprocessador – Um microprocessador é um processador que consiste de um chip de silício projetado com um propósito e fisicamente muito pequeno. O microprocessador utiliza tecnologia de circuito VLSI (Very Large-Scale Integration) para integrar memória, lógica e controle do computador em um único chip. Um microprocessador contém uma CPU. • Placa-mãe – A placa impressa principal em um microcomputador. A placa-mãe contém o barramento, o microprocessador, e os circuitos integrados usados para controlar quaisquer periféricos integrados, tal como teclado, display, texto e gráficos, portas serial e paralela, interfaces de joystick e de mouse. • Barramento – Um conjunto de fios na placa-mãe através dos quais são transmitidos os dados e sinais de temporização de uma parte do computador a outra. • Memória de acesso aleatório (RAM) – Também conhecida como memória de Leitura-Gravação. Nela podem ser gravados novos dados e dela podem ser lidos dados armazenados. A RAM exige alimentação elétrica para manter os dados armazenados. Se o computador for desligado ou se falta energia, todos os dados armazenados na RAM serão perdidos. • Memória apenas de leitura (ROM) – Memória de um computador na qual foram pré-gravados dados. Uma vez que foram gravados dados no chip ROM, não podem ser removidos e só podem ser lidos. • Unidade do sistema (system unit) – A parte principal de um PC, que inclui o chassis, o microprocessador, a memória principal, o barramento e as portas. A unidade do sistema não inclui o teclado, o monitor, ou qualquer dispositivo externo ligado ao computador.
    • Cisco CCNA 3.1 6 • Slot de expansão – Um Conector na placa-mãe onde pode ser inserido uma placa de circuitos para acrescentar novas capacidades ao computador. A figura mostra slots de expansão PCI (Peripheral Component Interconnect) e AGP (Accelerated Graphics Port). PCI provê conexão rápida para placas, como NICs, modems internos, e placas de vídeo. A porta AGP provê conexão com grande largura de banda entre dispositivos gráficos e a memória do sistema. AGP provê conexão rápida para gráficos 3-D em sistemas de computador. • Fonte de alimentação – O componente que fornece energia ao computador. Componentes de backplane: • Backplane – O backplane é uma placa de circuito eletrônico que contém circuitaria e soquetes nos quais dispositivos eletrônicos em outras placas ou cartões podem ser conectados adicionalmente; em um computador, geralmente é sinônimo da ou de parte da placa-mãe. • Placa de rede(NIC) – Uma placa de expansão inserida num computador para que este possa ser conectado a uma rede. • Placa de vídeo – Uma placa que é inserida em um PC para proporcionar-lhe capacidades de exibição visual. • Placa de áudio – Uma placa de expansão que permite que o computador manipule e produza sons. • Porta paralela – Uma interface com capacidade para transferir simultaneamente mais de um bit e que é utilizada para conectar dispositivos externos tais como impressoras. • Porta serial – Uma interface que pode ser utilizada para comunicações seriais, nas quais é transmitido apenas 1 bit de cada vez. • Porta USB – Um conector Universal Serial Bus. Uma porta USB conecta dispositivos como mouse ou impressora ao computador rapidamente e facilmente. • Firewire – Um padrão de interface de barramento serial que oferece comunicação de alta velocidade, e serviços de dados em tempo-real isócrono. • Porta do mouse – Uma porta destinada à conexão de um mouse ao PC. • Cabo de alimentação – Um cabo utilizado para ligar um dispositivo elétrico a uma tomada elétrica que fornece energia ao dispositivo. Pense nos componentes internos de um PC como uma rede de dispositivos, todos ligados ao barramento do sistema. De certa maneira, um PC é uma pequena rede de computador.
    • Cisco CCNA 3.1 7 1.1.3 Placa de Rede Uma placa de rede (NIC), ou adaptador de rede, oferece capacidades de comunicações nos dois sentidos entre a rede e um computador pessoal. Em um sistema de computação desktop, é uma placa de circuito impresso que reside em um slot na placa-mãe e provê uma interface de conexão ao meio de rede. Em um sistema de computação laptop, é normalmente integrada ao laptop ou disponível em um cartão PCMCIA, que é pequeno do tamanho de um cartão de crédito. A placa de rede utilizada precisa ser compatível com o meio físico e com os protocolos utilizados na rede local. A placa de rede utiliza um pedido de interrupção (IRQ-Interrupt Request), um endereço de I/O e um espaço na memória superior para interagir com o sistema operacional. Um valor de IRQ (requisição de interrupção) é um local designado onde o computador sabe que um dispositivo em particular pode interrompê-lo, quando o dispositivo enviar ao computador sinais sobre sua operação. Por exemplo, quando a impressora termina de imprimir, ela envia um sinal de interrupção ao computador. O sinal interrompe momentaneamente o computador, de modo que ele possa decidir o que processar a seguir. Como múltiplos sinais na mesma linha de interrupção podem não ser entendidos pelo computador, um valor único deve ser especificado para cada dispositivo, assim como o seu caminho para o computador.Antes de existirem dispositivos Plug-and-Play (PnP), usuários freqüentemente tinham que configurar valores de IRQ manualmente, ou estar a par deles, ao adicionar novos dispositivos a um computador. Ao selecionar uma placa de rede, considere os seguintes fatores:
    • Cisco CCNA 3.1 8 • Protocolos – Ethernet, Token Ring, ou FDDI. • Tipos de meios – Par trançado, coaxial, wireless, ou fibra óptica. • Tipo de barramento do sistema – PCI ou ISA. 1.1.4 Instalação da placa de rede e modem A conectividade à Internet exige uma placa adaptadora, que pode ser um modem ou uma placa de rede. Um modem, ou modulador-demodulador é um dispositivo que proporciona ao computador a conectividade através de uma linha de telefone. O modem converte (modula) os dados de um sinal digital em sinal analógico compatível com uma linha de telefone padrão. O modem na extremidade receptora demodula o sinal, o qual é convertido novamente em sinal digital. Os modems podem ser instalados internamente ou ligados ao computador externamente usando uma linha telefônica. A instalação de uma placa de rede, que proporciona a interface de um computador com a rede rede, é exigida para cada dispositivo que se conecta à rede. Existem placas de rede de vários tipos conforme a configuração do dispositivo. Notebooks podem ter interfaces embutidas ou podem utilizar um cartão PCMCIA. A Figura mostra placas de rede PCMCIA com e sem fio, e um adaptador Ethernet USB. Desktops podem utilizar uma placa de rede interna chamada NIC , ou uma placa de rede externa que conecta a rede através de uma porta USB.
    • Cisco CCNA 3.1 9 Situações que requerem a instalação de uma placa de rede incluem as seguintes: • A instalação de uma placa de rede em um PC que não tem uma já instalada; • A substituição de uma placa de rede defeituosa ou danificada; • Atualização de uma placa de rede de 10-Mbps para uma placa de rede de 10/100/1000-Mbps; • A mudança para uma placa de rede diferente, como uma sem fio; • A instalação de uma placa de rede secundária, ou backup, por razões de segurança de redes; Para realizar a instalação de uma placa de rede ou modem, poderão ser necessários os seguintes recursos: • Conhecimento da configuração do adaptador, incluindo os jumpers e o software plug and play; • A disponibilidade de ferramentas de diagnóstico; • A capacidade de resolver conflitos nos recursos de hardware;
    • Cisco CCNA 3.1 10 1.1.5 Visão geral da conectividade em alta velocidade e por discagem No início da década de 60, foram introduzidos modems para proporcionar a conectividade de terminais burros com um computador central. Muitas empresas alugavam tempo nos computadores devido à grande despesa de possuir um sistema nas próprias instalações, o que era economicamente inviável. A taxa de transmissão de dados era muito lenta, 300 bits por segundo (bps), que se traduzia em aproximadamente 30 caracteres por segundo. À medida que os PCs se tornaram mais acessíveis nos anos 70, começaram a aparecer sistemas de quadro de avisos (BBS-Bulletin Board Systems). Estes BBSs permitiam que os usuários se conectassem para colocar ou ler mensagens em um quadro de avisos. A transmissão a 300 bps era aceitável, já que esta velocidade excedia a capacidade da maioria das pessoas de ler e digitar. No início da década de 80, a utilização dos quadros de avisos aumentou exponencialmente e a velocidade de 300 bps se tornou muito lenta para a transferência de grandes arquivos e gráficos. Até os anos 90, os modems já rodavam a 9600 bps e até 1998, atingiram o padrão atual de 56 kbps (56.000 bps). Inevitavelmente, os serviços de alta velocidade utilizados no ambiente corporativo, tais como Digital Subscriber Line (DSL) e acesso por cable modem, entraram no mercado consumidor. Estes serviços já não exigem equipamentos caros ou uma linha de telefone adicional. Estes serviços estão "sempre conectados" permitindo um acesso instantâneo e não exigem o estabelecimento de uma conexão para cada sessão. Isto resulta em maior confiabilidade e flexibilidade, e acabou facilitando o compartilhamento de conexões de Internet em redes de escritórios pequenos e domésticos.
    • Cisco CCNA 3.1 11 1.1.6 Descrição e configuração TCP/IP O Transmission Control Protocol/Internet Protocol (TCP/IP) é um conjunto de protocolos ou regras desenvolvidas para a cooperação entre computadores para que compartilhem recursos através de uma rede. Para ativar o TCP/IP em uma estação de trabalho, esta precisa ser configurada através das ferramentas do sistema operacional. O processo é bastante semelhante independentemente da utilização de um sistema operacional Windows ou Mac.
    • Cisco CCNA 3.1 12 1.1.7 Testando a conectividade com o ping O ping é um programa básico que verifica se um endereço IP particular existe e pode aceitar requisições. O acrônimo de computação ping significa Packet Internet or Inter- Network Groper. O nome foi concebido para ser comparável ao termo usado em submarinos para o som de um pulso de sonar retornando de um objeto submerso. O comando ping funciona enviando vários pacotes IP, chamados datagramas ICMP de Requisição de Eco, a um destino específico. Cada pacote enviado é uma solicitação de resposta. A resposta de saída de um ping contém a relação de sucesso e o tempo de ida e volta ao destino. A partir destas informações, é possível determinar se existe ou não conectividade com um destino. O comando ping é utilizado para testar a função de transmissão/recepção da placa de rede, a configuração do TCP/IP e a conectividade na rede. Os seguintes tipos de testes ping podem ser emitidos: • Ping 127.0.0.1 – Como nenhum pacote é transmitido, efetuar o ping da interface loopback testa a configuração TCP/IP básica. • Ping endereço IP do computador – Um ping para um PC host verifica a configuração do endereço TCP/IP do computador local assim como a conectividade com o computador. • Ping endereço IP do gateway padrão – Um ping para o gateway padrão verifica se o roteador que conecta a rede local a outras redes pode ser alcançado. • Ping endereço IP do destino remoto – Um ping para o destino remoto verifica a conectividade ao computador remoto.
    • Cisco CCNA 3.1 13 1.1.8 Navegador Web e plug-ins Um navegador Web realiza as seguintes funções: • Faz contato com um servidor da Web; • Solicita informações; • Recebe informações; • Exibe os resultados na tela; Um navegador Web é um software que interpreta a linguagem de marcação de hipertexto (HTML-Hypertext Markup Language), uma das linguagens utilizadas para codificar o conteúdo de páginas da Web. Outras linguagens de marcação com recursos mais avançados fazem parte de tecnologias emergentes. A HTML, a linguagem de marcação mais comum, pode exibir gráficos, tocar sons, filmes e outros arquivos de multimídia. Hiperlinks são embutidos nas páginas da Web e proporcionam um link rápido para outro local na mesma página ou em outra página da Web totalmente diferente. Dois dos navegadores Web mais utilizados são o Internet Explorer (IE) e o Netscape Communicator. Embora sejam idênticos nas tarefas que realizam, existem diferenças entre estes dois navegadores. Certos websites talvez não suportem a utilização de um ou outro, e poderá ser vantajoso contar com os dois programas instalados no computador. Netscape Navigator: • O primeiro navegador popular; • Ocupa menos espaço no disco; • Exibe arquivos HTML, realiza a transferência de e-mail e de arquivos, assim como outras funções;
    • Cisco CCNA 3.1 14 Internet Explorer (IE): • Fortemente integrado com outros produtos da Microsoft; • Ocupa mais espaço no disco; • Exibe arquivos HTML, realiza a transferência de e-mail e de arquivos, assim como outras funções; Também existem tipos de arquivos especiais, ou proprietários, que os navegadores Web normais não podem exibir. Para visualizar tais arquivos, o navegador precisa ser
    • Cisco CCNA 3.1 15 configurado para utilizar aplicativos plug-in. Estes aplicativos trabalham em conjunto com o navegador para iniciar o programa requerido para visualizar os seguintes tipos de arquivos: • Flash – toca arquivos de multimídia e foi criado pelo Macromedia Flash; • Quicktime – toca arquivos de vídeo e foi criado pela Apple; • Real Player – toca arquivos de áudio; Para instalar o plug-in do Flash, faça o seguinte: • Vá até o website da Macromedia. • Faça a transferência do arquivo .exe. (flash32.exe) • Rode-o e instale-o no Netscape ou no IE. • Verifique a instalação e correta operação, acessando o website da Cisco Academy. Além de configurar o computador para visualizar o currículo da Cisco Academy, os computadores realizam várias outras tarefas úteis. No comércio, os funcionários freqüentemente utilizam um conjunto de aplicativos que se apresentam como conjunto para escritório, por exemplo, o Microsoft Office. Os conjuntos para escritório tipicamente incluem os seguintes: • Software de planilha, contendo tabelas constituídas de colunas e linhas onde freqüentemente se utilizam fórmulas para processar e analisar dados. • Um processador de texto é um aplicativo usado para criar e editar documentos de texto. Os processadores de texto modernos permitem que o usuário crie documentos sofisticados, que incluem gráficos e texto com rica formatação. • O software de gerenciamento de banco de dados é utilizado para armazenar, manter, organizar, classificar e filtrar registros. Um registro é uma compilação de informações identificadas por algum conceito em comum, tal como nome de cliente. • O software de apresentação é utilizado para projetar e desenvolver apresentações a serem exibidas em reuniões, aulas ou apresentações de vendas. • Um gerenciador de informações pessoais inclui um utilitário de e-mail, uma lista de contatos, um calendário e uma lista de tarefas a realizar. Os aplicativos de escritório hoje fazem parte do trabalho diário, como era o caso da máquina de escrever antes do advento do computador pessoal.
    • Cisco CCNA 3.1 16 1.1.9 Resolução de problemas com conexão na Internet Neste exercício de identificação e resolução de problemas, existem problemas na configuração do hardware, do software e da rede. O objetivo, dentro de um período de tempo predeterminado, é identificar e resolver os problemas, permitindo finalmente o acesso ao currículo. Este exercício demonstrará a complexidade da configuração até dos processos mais simples de acesso à Web. Isto inclui os processos e procedimentos envolvidos na resolução de problemas no hardware do computador, no software e nos sistemas da rede. Passos do processo de identificação e resolução de problemas em pcs e redes
    • Cisco CCNA 3.1 17 1.2 A Matemática das Redes 1.2.1 Apresentação binária dos dados Os computadores funcionam e armazenam dados mediante a utilização de chaves eletrônicas que são LIGADAS ou DESLIGADAS. Os computadores só entendem e utilizam dados existentes neste formato de dois estados, ou seja, binário. Os uns e zeros são utilizados para representar os dois possíveis estados de um componente eletrônico em um computador. 1 representa um estado LIGADO, e 0 representa um estado DESLIGADO. São denominados dígitos binários ou bits. O American Standard Code for Information Interchange (ASCII) é o código mais freqüentemente utilizado para representar dados alfanuméricos em um computador. O código ASCII utiliza dígitos binários para representar os símbolos digitados no teclado. Quando os computadores enviam estados LIGADOS/DESLIGADOS através de uma rede, as ondas de rádio ou de luz são utilizadas para representar os 1s e 0s. Note que cada
    • Cisco CCNA 3.1 18 caractere possui um conjunto singular de oito dígitos binários designado para representar o caractere. Os computadores são desenhados para trabalharem com chaves LIGADAS/DESLIGADAS, e portanto, os dígitos binários e números binários são naturais para eles. Os seres humanos utilizam o sistema numérico decimal, que é relativamente simples quando comparado com as longas séries de 1s e 0s utilizados pelos computadores. Portanto, os números binários do computador precisam ser convertidos em números decimais. Às vezes os números binários precisam ser convertidos em números hexadecimais (hex), o que reduz uma longa seqüência de dígitos binários em poucos caracteres hexadecimais. Estes processos tornam os números mais fáceis de lembrar e manipular. 1.2.2 Bits e Bytes Um 0 binário pode ser representado por 0 volts de eletricidade (0 = 0 volts). Um 1 binário pode ser representado por +5 volts de eletricidade (1 = +5 volts). Os computadores foram concebidos para utilizarem grupos de oito bits. Este grupo de oito bits é denominado byte. Em um computador, um byte representa um único local de armazenamento endereçável. Estes locais de armazenamento representam um valor ou um único caractere de dados, por exemplo, um código ASCII. O número total de combinações de oito chaves ligadas ou
    • Cisco CCNA 3.1 19 desligadas é de 256. A faixa de valores de um byte é de 0 a 255. Portanto, é importante entender o conceito do byte ao trabalhar com computadores e redes. 1.2.3 Sistema Numérico Base 10 Os sistemas numéricos consistem em símbolos e regras para a utilização destes símbolos. O sistema numérico mais freqüentemente utilizado é o sistema numérico Base 10 ou decimal. Base 10 utiliza os dez símbolos 0, 1, 2, 3, 4, 5, 6, 7, 8 e 9. Estes símbolos podem ser combinados para representar todos os valores numéricos possíveis. O sistema numérico decimal é baseado em potências de 10. Cada posição colunar de um valor, da direita para a esquerda, é multiplicada pelo número 10, que é o número base, elevado a uma potência, que é o exponente. A potência à qual é elevado o valor 10 depende da sua posição à esquerda do ponto decimal. Quando um número decimal é lido da direita para a esquerda, a primeira posição, ou a mais à direita representa 100 (1), a segunda posição representa 101 (10 x 1 = 10). A terceira posição representa 102 (10 x 10 = 100). A sétima posição à esquerda representa 106 (10 x 10 x 10 x 10 x 10 x 10 = 1,000,000). Esta é a verdade independentemente de quantas colunas sejam ocupadas pelo número.
    • Cisco CCNA 3.1 20 Exemplo: 2134 = (2 x 103 ) + (1 x 102 ) + (3 x 101 ) + (4 x 100 ) Existe o número 4 na posição das unidades, 3 na posição das dezenas, 1 na posição das centenas e 2 na posição dos milhares. Este exemplo parece óbvio ao usar-se o sistema numérico decimal. É importante entender exatamente como funciona o sistema decimal porque este conhecimento é necessário para entender dois outros sistemas numéricos, Base 2 e Base 16, hexadecimal. Estes sistemas utilizam o mesmo método do sistema decimal. 1.2.4 Sistema Numérico Base 2 Os computadores reconhecem e processam dados, utilizando-se o sistema numérico binário ou Base 2. O sistema binário utiliza dois símbolos, 0 e 1, em vez dos dez símbolos utilizados no sistema numérico decimal. A posição, ou casa, de cada algarismo da direita para a
    • Cisco CCNA 3.1 21 esquerda em um número binário representa 2, o número base, elevado a uma potência ou expoente, começando com 0. Estes valores das casas são, da direita para a esquerda, 20 , 21 , 22 , 23 , 24 , 25 , 26 , e 27 , ou 1, 2, 4, 8, 16, 32, 64 e 128, respectivamente. Exemplo: 101102 = (1 x 24 = 16) + (0 x 23 = 0) + (1 x 22 = 4) + (1 x 21 = 2) + (0 x 20 = 0) = 22 (16 + 0 + 4 + 2 + 0) Se o número binário (101102) for lido da esquerda para a direita, estão os números 1 na posição dos 16, 0 na posição dos 8, 1 na posição dos 4, 1 na posição dos 2 e 0 na posição das unidades, que, quando somados, equivalem ao número decimal 22. 1.2.5 Convertendo números decimais em números binários de 8 bits Existem várias maneiras de converter números decimais em números binários. O fluxograma (Algoritmo) descreve um dos métodos. O processo tenta descobrir quais valores da potência 2 podem ser somados para obter o número decimal que está sendo convertido em número binário. Este método é um dos vários que podem ser utilizados. É melhor selecionar um método e ir praticando com ele até que sempre produza a resposta correta. Exercício de conversão Use o exemplo a seguir para converter o número decimal 168 em número binário: • 128 cabe dentro de 168. Portanto, o bit mais à esquerda do número binário é 1. 168 – 128 = 40. • 64 não cabe dentro de 40. Portanto, o segundo bit da esquerda é 0.
    • Cisco CCNA 3.1 22 • 32 cabe dentro de 40. Portanto, o terceiro bit da esquerda é 1. Subtraindo 40 – 32 = 8. • 16 não cabe dentro de 8. Portanto, o segundo bit da esquerda é 0. • 8 cabe dentro de 8. Portanto, o quinto bit da esquerda é 1. 8 – 8 = 0. Portanto todos os bits à direita são 0. Resultado: 168 decimal = 10101000 Para ter mais prática, tente converter 255 decimal em binário. A resposta deve ser 11111111. 1.2.6 Conversão de números binários de 8 bits em números decimais Existem duas maneiras básicas de converter números binários em números decimais. O fluxograma na Figura abaixo mostra um exemplo.
    • Cisco CCNA 3.1 23 Os números binários também podem ser convertidos em números decimais, multiplicando os dígitos binários pelo número base do sistema, o qual é Base 2, e elevando-os ao expoente da sua posição. Exemplo: Converta o número binário 01110000 em um número decimal. OBSERVAÇÃO: Calcule da direita para a esquerda. Lembre-se de que qualquer número elevado à potência de 0 equivale a 1. Portanto, 20 = 1 0 x 20 = 0 0 x 21 = 0
    • Cisco CCNA 3.1 24 0 x 22 = 0 0 x 23 = 0 1 x 24 = 16 1 x 2 = 325 1 x 2 = 646 0 x 2 = 07 ___________ = 112 OBSERVAÇÃO: A soma das potências de 2 que possuem o número 1 na sua posição. 1.2.7 Representação decimal pontuada em quatro octetos Atualmente, os endereços designados a computadores na Internet consistem em números binários de 32 bits. Para facilitar a utilização destes endereços, o número binário de 32 bits é convertido em uma série de números decimais. Para este fim, divida o número binário em quatro grupos de oito dígitos binários. Em seguida, converta cada grupo de oito bits, também
    • Cisco CCNA 3.1 25 denominado octeto, em seu equivalente decimal. Faça esta conversão exatamente conforme indicado no tópico de conversão de binário em decimal na página anterior. Quando escrito, o número binário completo é representado por quatro grupos de dígitos decimais separados por pontos. Esta representação é denominada notação decimal pontuada e provê uma maneira compacta e fácil de lembrar de referir-se aos endereços de 32 bits. Esta representação é usada freqüentemente mais adiante neste curso, de modo que é necessário entendê-la. Ao converter em binário de decimal pontuado, lembre- se de que cada grupo, que consiste em entre um e três dígitos decimais, representa um grupo de oito dígitos binários. Se o número decimal a ser convertido for inferior a 128, será necessário adicionar zeros à esquerda do número binário equivalente até que existam um total de oito bits. Exemplo: Converta 10000000 01011101 00001111 10101010 em seu equivalente decimal pontuado. 1.2.8 Hexadecimal Hexadecimal (hex) é freqüentemente utilizado ao trabalhar com computadores, pois pode ser usado para representar números binários em uma forma mais legível.
    • Cisco CCNA 3.1 26 O computador realiza computações em binário, mas existem várias situações em que a saída binária de um computador é expressa em hexadecimal para torná-la mais fácil de ler. A conversão de números hexadecimais em binários e números binários em hexadecimais é uma tarefa comum ao manejar os registros de configuração em roteadores da Cisco. Os roteadores da Cisco possuem um registro de configuração de 16 bits. Este número binário de 16 bits pode ser representado como número hexadecimal de quatro dígitos. Por exemplo, 0010000100000010 em binário equivale a 2102 em hex. A palavra hexadecimal é freqüentemente abreviada como 0x quando utilizada com um valor, conforme aparece com o número acima: 0x2102. Igualmente aos sistemas binário e decimal, o sistema hexadecimal baseia-se na utilização de símbolos, potências e posições. Os símbolos usados pelo sistema hex são 0 a 9, e A, B, C, D, E, e F.
    • Cisco CCNA 3.1 27 Note que todas as possíveis combinações de quatro dígitos binários são representadas por um só símbolo hexadecimal, enquanto que exigem dois no sistema decimal. O motivo pelo qual o hex é usado é que dois dígitos hexadecimais, ao contrário do decimal, que exige até quatro dígitos, podem eficientemente representar qualquer combinação de oito dígitos binários. Ao permitir que dois dígitos decimais representem quatro bits, a utilização do sistema decimal também poderia causar confusão na leitura de um valor. Por exemplo, o número binário de oito bits 01110011 seria 115 quando convertido em dígitos decimais. Isto é 11-5 ou 1-15? Se for utilizado 11-5, o número binário seria 1011 0101, que não é o número originalmente convertido. Usando o hexadecimal, a conversão seria de 1F, que sempre é reconvertido em 00011111. A conversão em hexadecimal reduz um número de oito bits para apenas dois dígitos hex. Isto reduz a confusão na leitura de longas séries de números binários assim como o espaço necessário para escrever os números binários. Lembre-se que hexadecimal é às vezes abreviado como 0x de modo que hex 5D pode ser escrito como "0x5D". Para converter de hex em binário, simplesmente expanda cada dígito hex ao seu equivalente binário de quatro bits. 1.2.9 A lógica boleana ou binária
    • Cisco CCNA 3.1 28 A lógica booleana baseia-se em circuitos digitais que aceitam uma ou duas voltagens de entrada. Com base na voltagem de entrada, é gerada uma voltagem de saída. Para os fins dos computadores, a diferença de voltagem é associada como dois estados, ligado ou desligado. Por sua vez, estes dois estados são associados como 1 ou 0, equivalentes aos dois dígitos do sistema numérico binário. A lógica booleana é uma lógica binária que permite a comparação de dois números e a geração de uma escolha baseada nos dois números. Estas escolhas são as operações lógicas AND, OR e NOT. Com a exceção do NOT, as operações booleanas têm a mesma função. Aceitam dois números, a saber, 1 ou 0, e geram um resultado baseado na regra lógica. A operação NOT examina qualquer valor apresentado, 0 ou 1, e o inverte. O um se torna zero e o zero se torna um. Lembre-se que as portas lógicas são dispositivos eletrônicos criados especificamente para este fim. A regra lógica que seguem é que qualquer que seja a entrada, a saída será o contrário.
    • Cisco CCNA 3.1 29 A operação AND aceita dois valores de entrada. Se ambos os valores forem 1, a porta lógica gera uma saída de 1. Caso contrário, gera uma saída de 0. Existem quatro combinações de valores de entrada. Três destas combinações geram 0, e uma combinação gera 1. A operação OR também aceita dois valores de entrada. Se pelo menos um dos valores de entrada for 1, o valor de saída será 1. Mais uma vez, existem quatro combinações de valores de entrada. Desta vez, três das combinações geram uma saída de 1 e a quarta gera uma saída de 0. As duas operações de redes que utilizam a lógica booleana são máscaras de sub-rede e as máscaras coringa. As operações de máscara oferecem uma maneira de filtrar endereços. Os endereços identificam os dispositivos na rede, permitindo que os endereços sejam agrupados ou controlados por outras operações da rede. Estas funções serão explicadas em maiores detalhes mais adiante no currículo.
    • Cisco CCNA 3.1 30 1.2.10 Endereços IP e máscara de rede Os endereços binários de 32 bits utilizados na Internet são denominados endereços IP (Internet Protocol). A relação entre os endereços IP e as máscaras da rede será considerada nesta seção. Quando os endereços IP são designados a computadores, alguns dos bits à esquerda do número IP de 32 bits representam uma rede. O número de bits designados depende da classe do endereço. Os bits restantes do endereço IP de 32 bits identificam um computador em particular na rede. Um computador é identificado como "host". O endereço IP de um computador consiste em uma parte para uma rede e outra parte para um host que juntos representam um computador em particular em uma rede em particular. Para informar um computador sobre como o endereço IP de 32 bits foi dividido, é utilizado um segundo número de 32 bits, denominado máscara de sub-rede. Esta máscara é um gabarito que indica como o endereço IP deve ser interpretado, identificando quantos dos bits são utilizados para identificar a rede do computador. A máscara de sub-rede preenche seqüencialmente os 1s do lado esquerdo da máscara. Uma máscara de sub- rede será totalmente constituída de 1s até que seja identificado o endereço da rede e em seguida será constituída totalmente de 0s daquele ponto até o bit mais à direita da máscara. Os bits na máscara de sub-rede com valor de 0 identificam o computador ou host naquela rede. Alguns exemplos de máscaras de sub-rede são: 11111111000000000000000000000000 escrito em decimal pontuado como 255.0.0.0 ou 11111111111111110000000000000000 escrito em decimal pontuado como 255.255.0.0 No primeiro exemplo, os primeiros oito bits da esquerda representam a porção do endereço da rede, e os últimos 24 bits representam a porção do endereço do host. No segundo exemplo, os primeiros 16 bits representam a porção do endereço da rede, e os últimos 16 bits representam a porção do endereço do host. A conversão do endereço IP 10.34.23.134 em binário resultaria em: 00001010.00100010.00010111.10000110
    • Cisco CCNA 3.1 31 A operação booleana AND sobre o endereço IP 10.34.23.134 junto com a máscara de sub-rede 255.0.0.0 produz o endereço de rede deste host: 00001010.00100010.00010111.10000110 11111111.00000000.00000000.00000000 00001010.00000000.00000000.00000000 00001010.00100010.00010111.10000110 11111111.11111111.00000000.00000000 00001010.00100010.00000000.00000000 Ao converter o resultado em decimal pontuado, 10.0.0.0 será a parte do endereço IP correspondente à rede, ao utilizar a máscara 255.0.0.0. A operação booleana AND sobre o endereço IP 10.34.23.134 junto com a máscara de sub-rede 255.255.0.0 produz o endereço de rede deste host: Ao converter o resultado em decimal pontuado, 10.34.0.0 será a parte do endereço IP correspondente à rede, ao utilizar a máscara 255.255.0.0. Esta é uma breve ilustração do efeito que tem uma máscara de rede sobre um endereço IP. A importância das máscaras se tornará muito mais óbvia ao trabalharmos mais com os endereços IP. Para o momento, é só importante que o conceito de máscaras seja entendido.
    • Cisco CCNA 3.1 32 Resumo Capítulo 01 Deve ter sido obtido um entendimento dos seguintes conceitos importantes: • A conexão física que precisa ser realizada para que um computador seja conectado à Internet • Os principais componentes de um computador • A instalação e resolução de problemas de placas de rede e/ou de modems • Os procedimentos básicos para testar a conexão à Internet • A seleção e configuração de um navegador Web • O sistema numérico Base 2 • A conversão de números binários em decimais • O sistema numérico hexadecimal • A representação binária de endereços IP e máscaras de redes • A representação decimal de endereços IP e máscaras de redes
    • Cisco CCNA 3.1 32 Capítulo 02: Conceitos Básicos de Redes
    • Cisco CCNA 3.1 33 Visão Geral Capítulo 02 A largura de banda é um componente crucial de redes. A largura de banda é uma das decisões mais importantes a serem tomadas quando da criação de uma rede. Este módulo estuda a importância da largura de banda, explica como é calculada e como é medida. As funções de rede são descritas utilizando-se modelos em camadas. Este módulo cobre os dois modelos mais importantes, que são o modelo Open System Interconnection (OSI) e o modelo Transmission Control Protocol/Internet Protocol (TCP/IP). O módulo apresenta também as diferenças e similaridades entre os dois modelos. Além disso, este módulo apresenta uma breve história sobre redes. Ele descreve também os dispositivos de rede, assim como cabeamento, e as disposições físicas e lógicas. Este módulo também define e compara LANs, MANs, WANs, SANs, e VPNs. Os alunos, ao concluírem este módulo, deverão poder: • Explicar a importância da largura de banda em redes. • Usar uma analogia a partir de sua experiência para explicar a largura de banda. • Identificar bps, Kbps, Mbps, e Gbps como sendo unidades de largura de banda. • Explicar a diferença entre largura de banda e throughput. • Calcular as taxas de transferência de dados. • Explicar por que são usados os modelos em camadas para descrever a comunicação de dados. • Explicar o desenvolvimento do modelo Open System Interconnection (OSI). • Listar as vantagens de uma abordagem de camadas. • Identificar cada uma das sete camadas do modelo OSI. • Identificar as quatro camadas do modelo TCP/IP. • Descrever as similaridades e diferenças entre os dois modelos. • Explicar rapidamente a história das redes. • Identificar os dispositivos usados nas redes. • Entender a função dos protocolos nas redes. • Definir LAN, WAN, MAN, e SAN. • Explicar VPNs e suas vantagens. Descrever as diferenças entre intranets e extranets.
    • Cisco CCNA 3.1 34 2.1 Terminologia de Redes 2.1.1 Redes de dados As redes de dados foram desenvolvidas como um resultado dos aplicativos empresariais que foram escritos para microcomputadores. Naquela época os microcomputadores não eram conectados da mesma maneira que os terminais de computadores mainframe, portanto não havia uma maneira eficiente de compartilhar dados entre vários microcomputadores. Tornou-se óbvio que o compartilhamento de dados através da utilização de disquetes não era uma maneira eficiente e econômica de se administrar empresas. Os "Sneakernets", como este compartilhamento era chamado, criavam várias cópias dos dados. Cada vez que um arquivo era modificado ele teria que ser compartilhado novamente com todas as outras pessoas que precisavam daquele arquivo. Se duas pessoas modificavam o arquivo e depois tentavam compartilhá-lo, um dos conjuntos de modificações era perdido. As empresas precisavam de uma solução que respondesse satisfatoriamente às três questões abaixo: • Como evitar a duplicação de equipamentos e recursos; • Como se comunicar eficazmente; • Como configurar e gerenciar uma rede;
    • Cisco CCNA 3.1 35 As empresas perceberam que a tecnologia de rede aumentaria a produtividade enquanto lhes economizaria dinheiro. Novas redes foram sendo criadas ou expandidas tão rapidamente quanto surgiam novos produtos e tecnologias de rede. As redes no início dos anos 80 houve uma grande expansão no uso de redes, apesar da desorganização na primeira fase de desenvolvimento. No início dos anos 80, as tecnologias de rede que surgiram tinham sido criadas usando diferentes implementações de hardware e software. Cada empresa que criava hardware e software para redes usava seus próprios padrões. Estes padrões individuais eram desenvolvidos devido à competição com outras companhias. Conseqüentemente, muitas das novas tecnologias de rede eram incompatíveis umas com as outras. Tornou-se cada vez mais difícil para as redes que usavam especificações diferentes se comunicarem entre si. Freqüentemente era necessário que o equipamento antigo de rede fosse removido para que fosse implementado o novo equipamento. Uma das primeiras soluções foi a criação de padrões de redes locais (LAN). Já que os padrões de redes locais ofereciam um conjunto aberto de diretrizes para a criação de hardware e software de rede, equipamentos de diferentes companhias poderiam então se tornar compatíveis. Isto permitiu estabilidade na implementação de redes locais. Em um sistema de rede local, cada departamento da empresa é uma espécie de ilha eletrônica. À medida que o uso do computador nas empresas cresceu, logo se percebeu que até mesmo as redes locais não eram o suficiente.
    • Cisco CCNA 3.1 36 Era necessário um modo de mover informações de maneira rápida e eficiente, não só dentro da empresa, mas também de uma empresa para outra. A solução, então, foi a criação de redes de áreas metropolitanas (MANs) e de redes de longa distância (WANs). Como as WANs podiam conectar as redes usuárias dentro de grandes áreas geográficas, elas tornaram possível a comunicação entre empresas ao longo de grandes distâncias.
    • Cisco CCNA 3.1 37 2.1.2 História das redes A história das redes de computador é complexa. Ela envolveu pessoas do mundo inteiro nos últimos 35 anos. Apresentamos aqui uma visão simplificada de como evoluiu a Internet. Os processos de invenção e comercialização são muito mais complicados, mas pode ser útil examinar o desenvolvimento fundamental. Nos anos 40, os computadores eram enormes dispositivos eletromecânicos propensos a falhas. Em 1947, a invenção de um transistor semicondutor criou várias possibilidades para a fabricação de computadores menores e mais confiáveis. Nos anos 50, os mainframes, que eram acionados por programas em cartões perfurados, começaram a ser usados por grandes instituições. No final dos anos 50, foi inventado o circuito integrado, que combinava vários, depois muitos e agora combina milhões de transistores em uma pequena peça de semicondutor. Durante os anos 60, o uso de mainframes com terminais era bastante comuns assim como os circuitos integrados eram largamente utilizados. No final dos anos 60 e 70, surgiram computadores menores, chamados de minicomputadores. No entanto, estes minicomputadores eram ainda muito grandes para os padrões modernos. Em 1977, a Apple Computer Company apresentou o microcomputador, também conhecido como computador pessoal. Em 1981 a IBM apresentou o seu primeiro computador pessoal. O Mac amigável, o IBM PC de arquitetura aberta e a maior micro-miniaturização dos circuitos integrados conduziram à difusão do uso de computadores pessoais nas casas e nos escritórios. Em meados dos anos 80, os usuários com computadores stand alone começaram a compartilhar dados usando modems para fazer conexão a outros computadores. Era conhecido como comunicação ponto-a-ponto ou dial-up. Este conceito se expandiu com a utilização de computadores que operavam como o ponto central de comunicação em uma conexão dial-up. Estes computadores eram chamados de bulletin boards (BBS). Os usuários faziam a conexão aos BBSs, onde deixavam ou pegavam mensagens, assim como faziam upload e download de arquivos. A desvantagem deste tipo de sistema era que havia pouquíssima comunicação direta entre usuários e apenas com aqueles que conheciam o BBS. Uma outra limitação era que o computador de BBS precisava de um modem para cada conexão. Se cinco pessoas quisessem se conectar simultaneamente, seria necessário ter cinco modems conectados a cinco linhas telefônicas separadas. Conforme foi crescendo o número de pessoas desejando usar o sistema, este não foi capaz de atender às exigências. Por exemplo, imagine se 500 pessoas quisessem fazer a conexão ao mesmo tempo. Tendo início nos anos 60 e continuando pelos anos 70, 80 e 90, o Departamento de Defesa americano (DoD) desenvolveu grandes e confiáveis redes de longa distância (WANs) por razões militares e científicas. Esta tecnologia era diferente da comunicação ponto-a-ponto usada nos quadros de aviso. Ela permitia que vários computadores se interconectassem usando vários caminhos diferentes. A própria rede determinaria como mover os dados de um computador para outro. Em vez de poder comunicar com apenas um outro computador de cada vez, muitos computadores podiam ser conectados usando a mesma conexão. A WAN do DoD com o tempo veio a se tornar a Internet.
    • Cisco CCNA 3.1 38 Os equipamentos que se conectam diretamente a um segmento de rede são chamados de dispositivos. Estes dispositivos são divididos em duas classificações. A primeira classificação é de dispositivos de usuário final. Os dispositivos de usuário final incluem computadores, impressoras, scanners e outros dispositivos que fornecem serviços diretamente ao usuário. A segunda classificação é de dispositivos de rede. Dispositivos de rede incluem todos os dispositivos que fazem a interconexão de todos os dispositivos do usuário final permitindo que se comuniquem. Os dispositivos de usuário final que fornecem aos usuários uma conexão à rede são também conhecidos como hosts.
    • Cisco CCNA 3.1 39 2.1.3 Dispositivos de Rede Os equipamentos que se conectam diretamente a um segmento de rede são chamados de dispositivos. Estes dispositivos são divididos em duas classificações. A primeira classificação é de dispositivos de usuário final. Os dispositivos de usuário final incluem computadores, impressoras, scanners e outros dispositivos que fornecem serviços diretamente ao usuário. A segunda classificação é de dispositivos de rede. Dispositivos de rede incluem todos os dispositivos que fazem a interconexão de todos os dispositivos do usuário final permitindo que se comuniquem. Os dispositivos de usuário final que fornecem aos usuários uma conexão à rede são também conhecidos como hosts. Estes dispositivos permitem que os usuários compartilhem, criem e obtenham informações. Os hosts podem existir sem uma rede, porém, sem a rede, suas capacidades são muito limitadas. Os hosts são fisicamente conectados aos meios de rede usando uma placa de rede (NIC). Eles usam esta conexão para realizar as tarefas de enviar de e-mails, imprimir relatórios, digitalizar imagens ou acessar bancos de dados. Uma placa de rede é uma placa de circuito impresso que cabe no slot de expansão de um barramento em uma placa-mãe do computador, ou pode ser um dispositivo periférico. É também chamada adaptador de rede. As placas de rede dos computadores laptop ou notebook geralmente são do tamanho de uma placa PCMCIA.
    • Cisco CCNA 3.1 40 Cada placa de rede individual transporta um identificador exclusivo, denominado endereço de Controle de Acesso ao Meio (MAC - Media Access Control). Este endereço é usado para controlar as comunicações de dados do host na rede. Maiores detalhes sobre endereços MAC serão fornecidos mais adiante. Como o nome sugere, a placa de rede controla o acesso do host ao meio. Não existem símbolos padronizados para representar na indústria de rede os dispositivos de usuário final. Eles apresentam uma aparência semelhante aos dispositivos verdadeiros para permitir um reconhecimento rápido. Os dispositivos de rede proporcionam transporte para os dados que precisam ser transferidos entre os dispositivos de usuário final. Os dispositivos de rede proporcionam extensão de conexões de cabos, concentração de conexões, conversão de formatos de dados, e gerenciamento de transferência de dados. Exemplos de dispositivos que realizam estas funções são: repetidores, hubs, bridges, switches e roteadores. Todos os dispositivos de rede mencionados aqui serão explicados em maiores detalhes mais adiante neste curso. Para o momento, será fornecida uma breve visão geral dos dispositivos de rede. Um repetidor é um dispositivo de rede usado para regenerar um sinal. Os repetidores regeneram os sinais analógicos e digitais que foram distorcidos por perdas na
    • Cisco CCNA 3.1 41 transmissão devido à atenuação. Um repetidor não realiza decisões inteligentes sobre o encaminhamento de pacotes como um roteador ou bridge. Os hubs concentram conexões. Em outras palavras, juntam um grupo de hosts e permitem que a rede os veja como uma única unidade. Isto é feito passivamente, sem qualquer outro efeito na transmissão dos dados. Os hubs ativos não só concentram hosts, como também regeneram sinais. As bridges, ou pontes, convertem os formatos de dados transmitidos na rede assim como realizam gerenciamento básico de transmissão de dados. As bridges, como o próprio nome indica, proporcionam conexões entre redes locais. As bridges não só fazem conexões entre redes locais, como também verificam os dados para determinar se devem ou não cruzar a bridge. Isto faz com que cada parte da rede seja mais eficiente. Os switches de grupos de trabalho (Workgroup switches) adicionam mais inteligência ao gerenciamento da transferência de dados.
    • Cisco CCNA 3.1 42 Eles não só podem determinar se os dados devem ou não permanecer em uma rede local, mas como também podem transferir os dados somente para a conexão que necessita daqueles dados. Outra diferença entre uma bridge e um switch é que um switch não converte os formatos dos dados transmitidos. Os roteadores possuem todas as capacidades listadas acima. Os roteadores podem regenerar sinais, concentrar conexões múltiplas, converter formatos dos dados transmitidos, e gerenciar as transferências de dados. Eles também podem ser conectados a uma WAN, que lhes permite conectar redes locais que estão separadas por longas distâncias. Nenhum outro dispositivo pode prover este tipo de conexão.
    • Cisco CCNA 3.1 43 2.1.4 Topologia de Redes Topologias de rede definem a estrutura da rede. Uma parte da definição de topologia é a topologia física, que é o layout efetivo dos fios ou meios físicos. A outra parte é a topologia lógica, que define como os meios físicos são acessados pelos hosts para o envio de dados. As topologias físicas que são comumente usadas são as seguintes: • Uma topologia em barramento (bus) usa um único cabo backbone que é terminado em ambas as extremidades. Todos os hosts são diretamente conectados a este backbone. • Uma topologia em anel (ring) conecta um host ao próximo e o último host ao primeiro. Isto cria um anel físico utilizando o cabo. • Uma topologia em estrela (star) conecta todos os cabos a um ponto central de concentração. • Uma topologia em estrela estendida (extended star) une estrelas individuais ao conectar os hubs ou switches. Esta topologia pode estender o escopo e a cobertura da rede. • Uma topologia hierárquica é semelhante a uma estrela estendida. Porém, ao invés de unir os hubs ou switches, o sistema é vinculado a um computador que controla o tráfego na topologia. • Uma topologia em malha (mesh) é implementada para prover a maior proteção possível contra interrupções de serviço. A utilização de uma topologia em malha nos sistemas de controle de uma usina nuclear de energia interligados em rede seria um excelente exemplo. Como é possível ver na figura, cada host tem suas próprias conexões com todos os outros hosts. Apesar da Internet ter vários caminhos para qualquer local, ela não adota a topologia em malha completa.
    • Cisco CCNA 3.1 44 A topologia lógica de uma rede é a forma como os hosts se comunicam através dos meios. Os dois tipos mais comuns de topologias lógicas são broadcast e passagem de token. A topologia de broadcast simplesmente significa que cada host envia seus dados a todos os outros hosts conectados ao meio físico da rede. Não existe uma ordem que deve ser seguida pelas estações para usar a rede. A ordem é: primeiro a chegar, primeiro a usar. A Ethernet funciona desta maneira conforme será explicado mais tarde neste curso. A segunda topologia lógica é a passagem de token. A passagem de token controla o acesso à rede, passando um token eletrônico seqüencialmente para cada host. Quando um host recebe o token, significa que esse host pode enviar dados na rede. Se o host não tiver dados a serem enviados, ele vai passar o token para o próximo host e o processo será repetido. Dois exemplos de redes que usam passagem de token são: Token Ring e Fiber Distributed Data Interface (FDDI). Uma variação do Token Ring e FDDI é Arcnet. Arcnet é passagem de token em uma topologia de barramento.
    • Cisco CCNA 3.1 45 2.1.5 Protocolos de Rede Conjuntos de protocolos (protocol suites) são coleções de protocolos que permitem a comunicação de um host para outro através da rede. Um protocolo é uma descrição formal de um conjunto de regras e convenções que governam a maneira de comunicação entre os dispositivos em uma rede. Os protocolos determinam o formato, temporização, seqüência, e controle de erros na comunicação de dados. Sem os protocolos, o computador não pode criar ou reconstruir o fluxo de bits recebido de outro computador no seu formato original. Os protocolos controlam todos os aspectos de comunicação de dados, que incluem o seguinte: • Como é construída a rede física • Como os computadores são conectados à rede • Como são formatados os dados para serem transmitidos • Como são enviados os dados • Como lidar com erros Estas regras para redes são criadas e mantidas por diferentes organizações e comitês. Incluídos nestes grupos estão: Institute of Electrical and Electronic Engineers (IEEE), American National Standards Institute (ANSI), Telecommunications Industry Association (TIA), Electronic Industries Alliance (EIA) e International Telecommunications Union (ITU), anteriormente conhecida como Comité Consultatif International Téléphonique et Télégraphique (CCITT).
    • Cisco CCNA 3.1 46 2.1.6 Redes Locais LAN As redes locais consistem nos seguintes componentes: • Computadores • Placa de Interface de Rede • Dispositivos periféricos • Meios de rede • Dispositivos de rede Redes locais possibilitam que as empresas utilizem a tecnologia para o compartilhamento eficiente de arquivos e impressoras locais, além de possibilitar a comunicação interna. Um bom exemplo desta tecnologia é o e-mail. Elas unem dados, comunicações locais e equipamento de computação. Algumas tecnologias comuns à rede local são: • Ethernet • Token Ring • FDDI
    • Cisco CCNA 3.1 47 2.1.7 Redes de longa distância WAN As WANs interconectam as redes locais, fornecendo então acesso a computadores ou servidores de arquivos em outros locais. Como as WANs conectam redes de usuários dentro de uma vasta área geográfica, elas permitem que as empresas se comuniquem ao longo de grandes distâncias. Com a utilização de WANs torna-se possível que os computadores, impressoras e outros dispositivos em uma rede local compartilhem e sejam compartilhados com locais distantes. As WANs proporcionam comunicações instantâneas através de grandes áreas geográficas. A capacidade de enviar uma mensagem instantânea (IM) para alguém em qualquer lugar do mundo proporciona as mesmas capacidades de comunicação que antigamente eram possíveis somente se as pessoas estivessem no mesmo escritório físico. O software de colaboração proporciona acesso a informações em tempo real e recursos que permitem a realização de reuniões remotamente, ao invés de pessoalmente. Redes de longa distância criaram também uma nova classe de trabalhadores conhecidos como telecomutadores, que são pessoas que nunca precisam sair de casa para ir trabalhar. As WANs são projetadas para executar as seguintes ações: • Operar em grandes áreas separadas geograficamente. • Permitir que os usuários tenham capacidades de comunicação em tempo real com outros usuários • Proporcionar que recursos remotos estejam permanentemente conectados aos serviços locais • Proporcionar serviços de e-mail, World Wide Web, transferência de arquivos e e- commerce Algumas tecnologias comuns à WAN são: • Modems • Integrated Services Digital Network (ISDN) • Digital Subscriber Line (DSL ) • Frame Relay • Hierarquias digitais T (EUA) e E (Europa): T1, E1, T3, E3 • Synchronous Optical Network (SONET)
    • Cisco CCNA 3.1 48 2.1.8 Redes de área metropolitana MANs Uma MAN é uma rede que abrange toda a área metropolitana como uma cidade ou área suburbana. Uma MAN geralmente consiste em duas ou mais redes locais em uma mesma área geográfica. Por exemplo, um banco com várias sucursais pode utilizar uma MAN. Tipicamente. um provedor de serviços está acostumado a conectar dois ou mais sites de redes locais usando linhas privadas de comunicação ou serviços óticos. É também possível criar uma MAN usando uma tecnologia de bridge sem fio (wireless) emitindo sinais através de áreas públicas.
    • Cisco CCNA 3.1 49 2.1.9 Storage-area networks SANs Uma SAN é uma rede dedicada de alto desempenho, usada para transportar dados entre servidores e recursos de armazenamento (storage). Por ser uma rede separada e dedicada, ela evita qualquer conflito de tráfego entre clientes e servidores. A tecnologia SAN permite a conectividade em alta velocidade de servidor-a-área de armazenamento, de área de armazenamento-a-área de armazenamento ou de servidor-a- servidor. Este método usa uma infra-estrutura de rede separada que alivia qualquer problema associado à conectividade da rede existente. SANs oferecem os seguintes recursos: • Desempenho: SANs permitem um acesso simultâneo de disk arrays ou tape arrays por dois ou mais servidores em alta velocidade, oferecendo um melhor desempenho do sistema. • Disponibilidade: SANs já incorporam uma tolerância contra desastres, já que permitem o espelhamento de dados usando uma SAN a distâncias de até 10 quilômetros (6,2 milhas). • Escalabilidade: Como uma LAN/WAN, ela pode usar uma variedade de tecnologias. Assim permitindo uma transferência fácil de dados de backup, operações, migração de arquivos, e replicação de dados entre sistemas.
    • Cisco CCNA 3.1 50 2.1.10 Virtual Private Network Uma VPN é uma rede particular que é construída dentro de uma infra-estrutura de rede pública como a Internet global. Ao usar uma VPN, um telecomutador pode acessar a rede da matriz da empresa através da Internet criando um túnel seguro entre o PC do telecomutador a um roteador da VPN na matriz.
    • Cisco CCNA 3.1 51 2.1.11 Vantagem das VPNs Os produtos Cisco suportam a tecnologia VPN mais moderna. Uma VPN é um serviço que oferece conectividade segura e confiável através de uma infra-estrutura de rede pública compartilhada como a Internet. As VPNs mantêm as mesmas diretivas de segurança e gerenciamento como uma rede particular. Elas apresentam o método mais econômico no estabelecimento de uma conexão ponto-a- ponto entre usuários remotos e uma rede de clientes empresariais. Seguem abaixo os três tipos principais de VPNs: • Access VPNs: Access VPNs proporcionam o acesso remoto para funcionários móveis e para pequenos escritórios/escritórios domiciliares (SOHO) à Intranet ou Extranet da matriz através de uma infra-estrutura compartilhada. Access VPNs utilizam tecnologias analógicas, de discagem (dial-up), ISDN, DSL (digital subscriber line), IP móvel e de cabo para fazerem a conexão segura dos usuários móveis, telecomutadores e filiais. • Intranet VPNs: Intranet VPNs ligam os escritórios regionais e remotos à rede interna da matriz através de uma infra-estrutura compartilhada com a utilização de conexões dedicadas. Intranet VPNs diferem das Extranet VPNs dado que só permitem o acesso aos funcionários da empresa. • Extranet VPNs: Extranet VPNs ligam os associados empresariais à rede da matriz através de uma infra-estrutura compartilhada com a utilização de conexões dedicadas. Extranet VPNs diferem das Intranet VPNs dado que só permitem o acesso aos usuários externos à empresa.
    • Cisco CCNA 3.1 52 2.1.12 Intranets e Extranets Intranet é uma configuração comum de uma rede local. Os servidores Intranet da Web diferem dos servidores públicos da Web dado que os públicos devem ter permissões e senhas corretas para acessarem a Intranet de uma organização. Intranets são projetadas para permitir o acesso somente de usuários que tenham privilégios de acesso à rede local interna da organização. Dentro de uma Intranet, servidores Web são instalados na rede. A tecnologia do navegador Web é usada como uma interface comum para acessar informações tais como dados ou gráficos financeiros armazenadas em formato texto nesses servidores. Extranets se referem aos aplicativos e serviços desenvolvidos para a Intranet, e através de acesso seguro têm seu uso estendido a usuários ou empresas externas. Geralmente este acesso é realizado através de senhas, IDs dos usuários e outros meios de segurança ao nível do aplicativo. Portanto, uma Extranet é uma extensão de duas ou mais estratégias da Intranet com uma interação segura entre empresas participantes e suas respectivas intranets.
    • Cisco CCNA 3.1 53 2.2 Largura de Banda 2.2.1 Importância da largura de banda Largura de banda é definida como a quantidade de informações que flui através da conexão de rede durante de um certo período de tempo. É extremamente importante entender o conceito de largura de banda durante o estudo de redes devido às seguintes razões: 1. A largura de banda é finita. Em outras palavras, independentemente dos meios usados para criar a rede, existem limites na capacidade daquela rede de transportar informações. A largura de banda é limitada por leis da física e pelas tecnologias usadas para colocar as informações nos meios físicos. Por exemplo, a largura de banda de um modem convencional está limitada a aproximadamente 56 Kbps pelas propriedades físicas dos fios de par trançado da rede de telefonia e pela tecnologia do modem. Entretanto, as tecnologias usadas pelo DSL também usam os mesmos fios de telefone de par trançado, e ainda assim o DSL proporciona uma largura de banda muito maior do que a disponível com modems convencionais. Assim, mesmo os limites impostos pelas leis da física são às vezes difíceis de serem definidos. A fibra óptica possui o potencial físico de fornecer largura de banda virtualmente sem limites. Mesmo assim, a largura de banda da fibra óptica não pode ser completamente entendida até que as tecnologias sejam desenvolvidas para aproveitar de todo o seu potencial. 2. Largura de banda não é grátis. É possível comprar equipamentos para uma rede local que lhe oferecerá uma largura de banda quase ilimitada durante um longo período de tempo. Para as conexões WAN (wide-area network), é quase sempre necessário comprar largura de banda de um provedor de serviços. Em qualquer caso, um entendimento de largura de banda e mudanças na demanda de largura de banda durante certo período de tempo, poderá oferecer a um indivíduo ou a uma empresa, uma grande economia de dinheiro. Um gerente de redes precisa fazer as decisões corretas na compra dos tipos de equipamentos e serviços. 3. A largura de banda é um fator importante na análise do desempenho da rede, na criação de novas redes, e no entendimento da Internet. Um profissional de rede precisa entender o grande impacto da largura de banda e do throughput no desempenho e desenho de redes. As informações fluem como uma seqüência de bits de computador a computador por todo o mundo. Esses bits representam enormes quantidades de informações que fluem de um lado a outro através do globo em segundos ou menos. De certa maneira, pode ser apropriado dizer que a Internet é largura de banda.
    • Cisco CCNA 3.1 54 4. A demanda por largura de banda está sempre crescendo. Tão logo são criadas novas tecnologias de rede e infra-estruturas para fornecer maior largura de banda, também são criados novos aplicativos para aproveitar da maior capacidade. A transmissão, através da rede, de conteúdo rico em mídia, inclusive vídeo e áudio streaming, exige quantidades enormes de largura de banda. Os sistemas de telefonia IP agora são comumente instalados em lugar dos sistemas de voz tradicionais, o que aumenta mais ainda a necessidade da largura de banda. O profissional de rede eficiente deverá antecipar a necessidade de aumentar a largura de banda e agir de acordo.
    • Cisco CCNA 3.1 55 2.2.2 O desktop Largura de banda é definida como a quantidade de informações que flui através da conexão de rede durante de um certo período de tempo. A idéia de que as informações fluem sugere duas analogias que podem facilitar a visualização de largura de banda na rede. Já que se diz que tanto a água como o tráfego fluem, considere as seguintes analogias: 1. A largura de banda é como o diâmetro de um cano. Uma rede de canos traz água potável para residências e empresas e leva embora a água do esgoto. Esta rede de água consiste em canos de vários diâmetros. Os canos principais de água de uma cidade podem ter até dois metros de diâmetro, enquanto que o cano para a torneira da cozinha pode ter apenas dois centímetros de diâmetro. O diâmetro do cano determina a capacidade do cano levar água. Portanto, a água é como os dados, e o diâmetro do cano é como a largura de banda. Muitos especialistas em rede falam que precisam colocar canos maiores quando precisam aumentar a capacidade de transmitir informações. 2. A largura de banda é como o número de pistas de uma rodovia. Uma rede de estradas que atendem todas as cidades e municípios. As grandes rodovias com muitas pistas são alimentadas por estradas menores com menos pistas. Estas estradas podem conduzir a estradas menores e mais estreitas, que mais cedo ou mais tarde chegam até a entrada da garagem das casas e das empresas. Quando pouquíssimos carros utilizam o sistema de rodovias, cada veículo estará mais livre para se locomover. Quando houver mais tráfego, os veículos se locomoverão mais lentamente. Este é o caso, especialmente em estradas com menor número de pistas para os carros se locomoverem. Mais cedo ou mais tarde, conforme o tráfego vai aumentando no sistema rodoviário, até mesmo as rodovias com várias pistas se tornam lentas e congestionadas. Uma rede de dados é bem semelhante ao sistema rodoviário. Os pacotes de dados são comparáveis a automóveis, e a largura de banda é comparável ao número de pistas na rodovia. Quando é visualizada a rede de dados como um sistema rodoviário, torna-se mais fácil ver como as conexões de largura de banda baixa podem causar um congestionamento através de toda a rede.
    • Cisco CCNA 3.1 56 2.2.3 Medição Nos sistemas digitais, a unidade básica de largura de banda é bits por segundo (bps). A largura de banda é a medida da quantidade de informação que pode ser transferida de um lugar para o outro em um determinado período de tempo, ou segundos. Apesar de que a largura de banda pode ser descrita em bits por segundo, geralmente pode-se usar algum múltiplo de bits por segundo. Em outras palavras, a largura de banda é tipicamente descrita como milhares de bits por segundo (Kbps), milhões de bits por segundo (Mbps), bilhões de bits por segundo (Gbps) e trilhões de bits per segundo (Tbps). Embora os termos largura de banda e velocidade sejam freqüentemente confundidos, não são exatamente sinônimos. Pode-se dizer, por exemplo, que uma conexão T3 a 45Mbps opera a uma velocidade mais alta que uma conexão T1 a 1,544Mbps. No entanto, se apenas uma pequena quantidade da sua capacidade de transmitir dados estiver sendo usada, cada um desses tipos de conexão transportará os dados com aproximadamente a mesma velocidade. Por exemplo, uma pequena quantidade de água fluirá à mesma taxa através de um cano fino ou através de um grosso. Portanto, é mais adequado dizer que uma conexão T3 tem uma largura de banda maior que uma conexão T1. A razão é que a conexão T3 é capaz de transmitir mais informações durante o mesmo período de tempo e não porque tem uma velocidade mais alta.
    • Cisco CCNA 3.1 57 2.2.4 Limitações A largura de banda varia dependendo do tipo dos meios físicos assim como das tecnologias de rede local e WAN utilizadas. A física dos meios explica algumas das diferenças. Os sinais são transmitidos através de fio de cobre de par trançado, de cabo coaxial, de fibra óptica e do ar. As diferenças físicas na maneira com que os sinais são transmitidos resultam em limitações fundamentais na capacidade de transporte de informações de um determinado meio. Porém, a largura de banda real de uma rede é determinada pela combinação de meios físicos e das tecnologias escolhidas para a sinalização e a detecção de sinais de rede. Por exemplo, o entendimento atual da física do cabo de cobre de par trançado não blindado (UTP) coloca o limite teórico da largura de banda acima de um gigabit por segundo (Gbps). No entanto, na realidade, a largura de banda é determinada pela utilização de Ethernet 10BASE-T, 100BASE-TX, ou 1000BASE-TX. Em outras palavras, a largura de banda real é determinada pelos métodos de sinalização, placas de rede (NICs), e outros itens de equipamento de rede escolhidos. Conseqüentemente, a largura de banda não é somente determinada pelas limitações dos meios físicos.
    • Cisco CCNA 3.1 58 2.2.5 Throughput Largura de banda é a medição da quantidade de informações que podem ser transferidas através da rede em certo período de tempo. Portanto, a quantidade de largura de banda disponível é uma parte crítica da especificação da rede. Uma rede local típica poderá ser confeccionada para fornecer 100 Mbps para cada estação de trabalho de mesa, mas isso não quer dizer que cada usuário será capaz de transmitir centenas de megabits de dados através da rede para cada segundo de uso. Isto só seria possível sob circunstâncias ideais. O conceito de throughput poderá ajudar na explicação de como isto é possível. O throughput se refere à largura de banda real medida, em uma hora do dia específica, usando específicas rotas de Internet, e durante a transmissão de um conjunto específico de dados na rede. Infelizmente, por muitas razões, o throughput é muito menor que a largura de banda digital máxima possível do meio que está sendo usado. Abaixo seguem alguns dos fatores que determinam o throughput: • Dispositivos de interconexão • Tipos de dados sendo transferidos • Topologias de rede • Número de usuários na rede • Computador do usuário • Computador servidor • Condições de energia A largura de banda teórica de uma rede é uma consideração importante na criação da rede, pois a largura de banda de rede nunca será maior que os limites impostos pelos meios e pelas tecnologias de rede escolhidas. No entanto, é também importante que o projetista e o administrador de redes considerem os fatores que podem afetar o throughput real. Com a medição constante do throughput, um administrador de redes ficará ciente das mudanças no desempenho da rede e na mudança das necessidades dos usuários da rede. A rede poderá então ser ajustada apropriadamente.
    • Cisco CCNA 3.1 59 2.2.6 Cálculo da transferência de dados Geralmente os administradores e projetistas de redes são convidados a tomar decisões relativas à largura de banda. Uma das decisões seria a de aumentar ou não o tamanho das conexões de WAN para acomodar um novo banco de dados. Outra decisão seria se o backbone atual da rede local tem ou não largura suficiente para um programa de treinamento que utilize vídeo streaming. Nem sempre é fácil encontrar as respostas aos problemas como esses, mas o melhor lugar por onde começar é com um simples cálculo de transferência de dados. Usando a fórmula tempo de transferência = tamanho do arquivo / largura de banda (T = S/BW) permite que um administrador da rede faça uma estimativa de vários dos componentes importantes do desempenho da rede. Se for conhecido o tamanho típico do arquivo para um determinado aplicativo, a divisão do tamanho do arquivo pela largura de banda da rede resulta em uma estimativa do tempo mais rápido no qual o arquivo pode ser transferido. Devem ser considerados dois pontos importantes ao fazer estes cálculos. • O resultado é apenas uma estimativa, pois o tamanho do arquivo não inclui qualquer encargo adicionado pela encapsulação. • É provável que o resultado seja um tempo de transferência na melhor das hipóteses, pois a largura de banda disponível nem sempre está a um máximo teórico para o tipo de rede utilizada. Uma estimativa mais precisa poderá ser obtida se o throughput for substituído pela largura de banda na equação. Apesar dos cálculos da transferência de dados serem bem simples, deve-se ter cuidado para usar as mesmas unidades por toda a equação. Em outras palavras, se a largura de banda for medida em megabits por segundo (Mbps), o tamanho do arquivo deverá ser em megabits (Mb), e não megabytes (MB). Já que os tamanhos de arquivos são tipicamente dados em megabytes, talvez seja necessário multiplicar por oito o número de megabytes para convertê-los em megabits. Tente responder a seguinte pergunta, usando a fórmula T=S/BW. Não se esqueça de converter as unidades de medição conforme o necessário. O que levaria menos tempo, enviar o conteúdo de um disquete (1,44 MB) cheio de dados por uma linha ISDN ou enviar o conteúdo de um disco rígido de 10 GB cheio de dados por uma linha OC-48?
    • Cisco CCNA 3.1 60 2.2.7 Digital versus analógico Até recentemente, as transmissões de rádio, televisão e telefone têm sido enviadas através do ar e através de fios usando ondas eletromagnéticas. Essas ondas são denominadas analógicas pois têm as mesmas formas das ondas de luz e de som que são produzidas pelos transmissores. Conforme as ondas de luz e de som mudam de tamanho e forma, o sinal elétrico que transporta a transmissão muda proporcionalmente. Em outras palavras, as ondas eletromagnéticas são análogas às ondas de luz e de som. A largura de banda analógica é medida de acordo com o quanto do espectro eletromagnético é ocupado por cada sinal. A unidade básica da largura de banda analógica é hertz (Hz), ou ciclos por segundo. Tipicamente, os múltiplos desta unidade básica da largura de banda são usados, da mesma maneira que a largura de banda digital. As unidades de medição mais comumente usadas são kilohertz (KHz), megahertz (MHz), e gigahertz (GHz). Estas são as unidades que se usa para descrever as freqüências de telefones sem fio, que geralmente operam a 900 MHz ou 2,4 GHz. Estas são também as unidades que se usa para descrever as freqüências de redes sem fio (wireless) de 802,11a e 802,11b, que operam a 5 GHz e 2,4 GHz. Já que os sinais analógicos são capazes de transportar uma variedade de informações, eles possuem algumas desvantagens significativas ao serem comparados às transmissões digitais. O sinal de vídeo analógico que requer uma ampla gama de freqüências para a transmissão não pode ser comprimido para caber dentro de uma banda mais estreita. Portanto, se por acaso não estiver disponível a largura de banda analógica, o sinal não poderá ser enviado. Na sinalização digital, todas as informações são transmitidas como bits, independentemente do tipo de informações. Voz, vídeo e dados todos se tornam fluxo de bits quando são preparados para a transmissão através de meios digitais. Este tipo de transmissão proporciona uma vantagem muito importante da largura de banda digital sobre a largura de banda analógica. Podem ser enviadas quantidades ilimitadas de informações através do canal digital que tenha a menor ou mais baixa largura de banda. Independentemente do tempo que a informação digital leva para chegar ao seu destino e ser reagrupada, ela pode ser vista, ouvida, lida ou processada na sua forma original. É muito importante entender as diferenças e semelhanças entre a largura de banda analógica e digital. Os dois tipos de largura de banda são fáceis de serem encontrados no campo da tecnologia da informática. Porém, em função deste curso se preocupar primariamente com redes digitais, o termo ‘largura de banda’ se refere a largura de banda digital.
    • Cisco CCNA 3.1 61 2.3 Modelo de Redes 2.3.1 Usando camadas para analisar um problema em um fluxo de materiais O conceito de camadas é usado para descrever como ocorre a comunicação de um computador para outro. A figura abaixo mostra um conjunto de questões que são relacionadas ao fluxo, que é definido como um movimento de objetos físicos ou lógicos através de um sistema. Estas questões mostram como o conceito de camadas ajuda na descrição dos detalhes do processo de fluxo. Este processo pode ser associado a qualquer tipo de fluxo, de um fluxo de tráfego em um sistema rodoviário até o fluxo de dados através de uma rede. A figura abaixo mostra vários exemplos de fluxo e maneiras em que o fluxo de informações pode ser decomposto em detalhes ou camadas. Uma conversação entre duas pessoas apresenta uma boa oportunidade para usar uma abordagem de camadas para analisar o fluxo de informações. Em uma conversação, cada pessoa que deseja comunicar-se começa por criar uma idéia. Em seguida deve-se tomar uma decisão de como comunicar a idéia de maneira correta. Por exemplo, uma pessoa poderia decidir falar, cantar ou gritar, e qual idioma usar. Finalmente a idéia seria entregue. Por exemplo, a pessoa cria o som que transporta a mensagem.
    • Cisco CCNA 3.1 62 Este processo pode ser dividido em camadas separadas que podem ser aplicadas a todas as conversações. A camada superior é a idéia que será comunicada. A camada do meio é a decisão de como será comunicada a idéia. A camada inferior é a criação do som para transportar a comunicação. O mesmo método de dividir uma tarefa em camadas explica como uma rede de computador distribui informações a partir de uma fonte até o seu destino. Quando os computadores enviam informações através de redes, todas as comunicações têm origem na fonte e depois trafegam até um destino. A informação que navega pela rede é geralmente conhecida como dados ou um pacote. Um pacote é uma unidade de informações logicamente agrupadas que se desloca entre sistemas de computadores. Conforme os dados são passados entre as camadas, cada camada acrescenta informações adicionais que possibilitam uma comunicação efetiva com a camada correspondente no outro computador. Os modelos OSI e TCP/IP possuem camadas que explicam como os dados são comunicados desde um computador para outro. Os modelos diferem no número e função das camadas. Entretanto, cada modelo pode ser usado para ajudar na descrição e fornecimento de detalhes sobre o fluxo de informação desde uma fonte até um destino.
    • Cisco CCNA 3.1 63 2.3.2 Usando camadas para descrever a comunicação de dados Para que os pacotes de dados trafeguem de uma origem até um destino, através de uma rede, é importante que todos os dispositivos da rede usem a mesma linguagem, ou protocolo. Um protocolo é um conjunto de regras que tornam mais eficiente a comunicação em uma rede. Por exemplo, ao pilotarem um avião, os pilotos obedecem a regras muito específicas de comunicação com outros aviões e com o controle de tráfego aéreo. Um protocolo de comunicações de dados é um conjunto de regras, ou um acordo, que determina o formato e a transmissão de dados. A Camada 4 no computador de origem comunica com a Camada 4 no computador de destino. As regras e convenções usadas para esta camada são conhecidas como protocolos de Camada 4. É importante lembrar-se de que os protocolos preparam dados de uma maneira linear. Um protocolo em uma camada realiza certos conjuntos de operações nos dados ao preparar os dados que serão enviados através da rede. Em seguida os dados são passados para a próxima camada onde outro protocolo realiza um conjunto diferente de operações. Uma vez enviado o pacote até o destino, os protocolos desfazem a construção do pacote que foi feito no lado da fonte. Isto é feito na ordem inversa. Os protocolos para cada camada no destino devolvem as informações na sua forma original, para que o aplicativo possa ler os dados corretamente.
    • Cisco CCNA 3.1 64 2.3.3 Modelo OSI O início do desenvolvimento de redes era desorganizado em várias maneiras. No início da década de 80 houve um grande aumento na quantidade e no tamanho das redes. À medida que as empresas percebiam as vantagens da utilização da tecnologia de redes, novas redes eram criadas ou expandidas tão rapidamente quanto eram apresentadas novas tecnologias de rede. Lá pelos meados de 1980, essas empresas começaram a sentir os problemas causados pela rápida expansão. Assim como pessoas que não falam o mesmo idioma têm dificuldade na comunicação entre si, era difícil para as redes que usavam diferentes especificações e implementações trocarem informações. O mesmo problema ocorreu com as empresas que desenvolveram tecnologias de rede proprietária ou particular. Proprietário significa que uma empresa ou um pequeno grupo de empresas controla todos os usos da tecnologia. As tecnologias de rede que seguiam estritamente as regras proprietárias não podiam comunicar-se com tecnologias que seguiam diferentes regras proprietárias. Para tratar dos problemas de incompatibilidade entre as redes, a International Organization for Standardization (ISO) realizou uma pesquisa nos modelos de redes como Digital Equipment Corporation net (DECnet), Systems Network Architecture (SNA) e TCP/IP a fim de encontrar um conjunto de regras aplicáveis a todas as redes. Com o resultado desta pesquisa, a ISO criou um modelo de rede que ajuda os fabricantes na criação de redes que são compatíveis com outras redes. O modelo de referência da Open System Interconnection (OSI) lançado em 1984 foi o modelo descritivo de rede que foi criado pela ISO. Ele proporcionou aos fabricantes um conjunto de padrões que garantiam uma maior compatibilidade e interoperabilidade entre as várias tecnologias de rede produzidas pelas companhias ao redor do mundo. O modelo de referência OSI é o modelo fundamental para comunicações em rede. Apesar de existirem outros modelos, a maioria dos fabricantes de redes relaciona seus produtos ao modelo de referência OSI. Isto é especialmente verdade quando querem educar os usuários na utilização de seus produtos. Eles o consideram a melhor ferramenta disponível para ensinar às pessoas a enviar e receber dados através de uma rede.
    • Cisco CCNA 3.1 65 2.3.4 Camadas OSI O modelo de referência OSI é uma estrutura que você pode usar para entender como as informações trafegam através de uma rede. O modelo de referência OSI explica como os pacotes trafegam através de várias camadas para outro dispositivo em uma rede, mesmo que a origem e o destino tenham diferentes tipos de meios físicos de rede. No modelo de referência OSI, existem sete camadas numeradas e cada uma ilustra uma função particular da rede. Dividir a rede nessas sete camadas oferece as seguintes vantagens: • Decompõe as comunicações de rede em partes menores e mais simples. • Padroniza os componentes de rede, permitindo o desenvolvimento e o suporte por parte de vários fabricantes. • Possibilita a comunicação entre tipos diferentes de hardware e de software de rede para que possam comunicar entre si. • Evita que as mudanças em uma camada afetem outras camadas. • Decompõe as comunicações de rede em partes menores, facilitando sua aprendizagem e compreensão.
    • Cisco CCNA 3.1 66 2.3.5 Comunicação ponto-a-ponto Para que os pacotes de dados trafeguem da origem para o destino, cada camada do modelo OSI na origem deve se comunicar com sua camada par no destino. Essa forma de comunicação é chamada ponto-a-ponto. Durante este processo, os protocolos de cada camada trocam informações, denominadas unidades de dados de protocolo (PDUs). Cada camada de comunicação no computador de origem se comunica com uma PDU específica da camada, e com a sua camada correspondente no computador de destino. Pacotes de dados em uma rede são originados em uma origem e depois trafegam até um destino. Cada camada depende da função de serviço da camada OSI abaixo dela. Para fornecer esse serviço, a camada inferior usa o encapsulamento para colocar a PDU da camada superior no seu campo de dados; depois, adiciona os cabeçalhos e trailers que a camada precisa para executar sua função. A seguir, enquanto os dados descem pelas camadas do modelo OSI, novos cabeçalhos e trailers são adicionados. Depois que as Camadas 7, 6 e 5 tiverem adicionado suas informações, a Camada 4 adiciona mais informações. Esse agrupamento de dados, a PDU da Camada 4, é chamado segmento.
    • Cisco CCNA 3.1 67 A camada de rede, fornece um serviço à camada de transporte, e a camada de transporte apresenta os dados ao subsistema da internetwork. A camada de rede tem a tarefa de mover os dados através da internetwork. Ela efetua essa tarefa encapsulando os dados e anexando um cabeçalho, criando um pacote (a PDU da Camada 3). O cabeçalho tem as informações necessárias para completar a transferência, como os endereços lógicos da origem e do destino. A camada de enlace de dados fornece um serviço à camada de rede. Ela faz o encapsulamento das informações da camada de rede em um diagrama (a PDU da Camada 2). O cabeçalho do quadro contém informações (por exemplo, endereços físicos) necessárias para completar as funções de enlace de dados. A camada de enlace fornece um serviço à camada de rede encapsulando as informações da camada de rede em um quadro. A camada física também fornece um serviço à camada de enlace. A camada física codifica o quadro de enlace de dados em um padrão de 1s e 0s (bits) para a transmissão no meio (geralmente um cabo) na Camada 1.
    • Cisco CCNA 3.1 68 2.3.6 Modelo TCP/IP O padrão histórico e técnico da Internet é o modelo TCP/IP. O Departamento de Defesa dos Estados Unidos (DoD) desenvolveu o modelo de referência TCP/IP porque queria uma rede que pudesse sobreviver a qualquer condição, mesmo a uma guerra nuclear. Em um mundo conectado por diferentes tipos de meios de comunicação como fios de cobre, microondas, fibras ópticas e links de satélite, o DoD queria a transmissão de pacotes a qualquer hora e em qualquer condição. Este problema de projeto extremamente difícil originou a criação do modelo TCP/IP. Ao contrário das tecnologias de rede proprietárias mencionadas anteriormente, o TCP/IP foi projetado como um padrão aberto. Isto queria dizer que qualquer pessoa tinha a liberdade de usar o TCP/IP. Isto ajudou muito no rápido desenvolvimento do TCP/IP como padrão. O modelo TCP/IP tem as seguintes quatro camadas: • A camada de Aplicação; • A camada de Transporte; • A camada de Internet; • A camada de acesso à rede; Embora algumas das camadas no modelo TCP/IP tenham os mesmos nomes das camadas no modelo OSI, as camadas dos dois modelos não correspondem exatamente. Mais notadamente, a camada de aplicação tem diferentes funções em cada modelo. Os projetistas do TCP/IP decidiram que os protocolos de mais alto nível deviam incluir os detalhes da camada de sessão e de apresentação do OSI. Eles simplesmente criaram uma camada de aplicação que trata de questões de representação, codificação e controle de diálogo. A camada de transporte lida com questões de qualidade de serviços de confiabilidade, controle de fluxo e correção de erros. Um de seus protocolos, o Transmission Control Protocol (TCP), fornece formas excelentes e flexíveis de se desenvolver comunicações de rede confiáveis com baixa taxa de erros e bom fluxo. O TCP é um protocolo orientado a conexões. Ele mantém um diálogo entre a origem e o destino enquanto empacota informações da camada de aplicação em unidades chamadas segmentos. O termo orientado a conexões não quer dizer que existe um circuito entre os computadores que se comunicam. Significa que segmentos da Camada 4 trafegam entre dois hosts para confirmar que a conexão existe logicamente durante um certo período.
    • Cisco CCNA 3.1 69 O propósito da camada de Internet é dividir os segmentos TCP em pacotes e enviá-los a partir de qualquer rede. Os pacotes chegam à rede de destino independente do caminho levado para chegar até lá. O protocolo específico que governa essa camada é chamado Internet Protocol (IP). A determinação do melhor caminho e a comutação de pacotes ocorrem nesta camada. É muito importante a relação entre IP e TCP. Pode-se imaginar que o IP aponta o caminho para os pacotes, enquanto que o TCP proporciona um transporte confiável. O significado do nome da camada de acesso à rede é muito amplo e um pouco confuso. É também conhecida como a camada host-para-rede. Esta camada lida com todos os componentes, tanto físico como lógico, que são necessários para fazer um link físico. Isso inclui os detalhes da tecnologia de redes, inclusive todos os detalhes nas camadas: física e de enlace do OSI. Alguns dos protocolos da camada de aplicação incluem os seguintes: • File Transfer Protocol (FTP) • Hypertext Transfer Protocol (HTTP) • Simple Mail Transfer Protocol (SMTP) • Sistema de Nomes de Domínios (DNS) • Trivial File Transfer Protocol (TFTP) Os protocolos mais comuns da camada de transporte incluem: Transport Control Protocol (TCP) e User Datagram Protocol (UDP). O principal protocolo da camada de Internet é: Internet Protocol (IP). A camada de acesso à rede se refere a qualquer tecnologia em particular usada em uma rede específica. Independentemente dos aplicativos de rede fornecidos e do protocolo de transporte utilizado, existe apenas um protocolo de Internet que é o IP. Esta é uma decisão intencional de projeto. O IP serve como um protocolo universal que permite que qualquer computador, em qualquer lugar, se comunique a qualquer momento. Uma comparação entre o modelo OSI e o modelo TCP/IP realçará algumas semelhanças e diferenças.
    • Cisco CCNA 3.1 70 Semelhanças incluem: • Ambos têm camadas. • Ambos têm camadas de aplicação, embora incluam serviços muito diferentes. • Ambos têm camadas de transporte e de rede comparáveis. • Os dois modelos precisam ser conhecidos pelos profissionais de rede. • Ambos supõem que os pacotes sejam comutados. Isto quer dizer que os pacotes individuais podem seguir caminhos diferentes para chegarem ao mesmo destino. Isto é em contraste com as redes comutadas por circuitos onde todos os pacotes seguem o mesmo caminho. As diferenças incluem: • O TCP/IP combina os aspectos das camadas de apresentação e de sessão dentro da sua camada de aplicação. • O TCP/IP combina as camadas: física e de enlace do OSI na camada de acesso à rede. • O TCP/IP parece ser mais simples por ter menos camadas. • Os protocolos TCP/IP são os padrões em torno dos quais a Internet se desenvolveu, portanto o modelo TCP/IP ganha credibilidade apenas por causa dos seus protocolos. Ao contrário, geralmente as redes não são desenvolvidas de acordo com o protocolo OSI, embora o modelo OSI seja usado somente como um guia. Embora os protocolos do TCP/IP sejam os padrões com os quais a Internet cresceu, este currículo vai usar o modelo OSI pelas seguintes razões: • É um padrão genérico independente de protocolos. • Tem mais detalhes, o que o torna de maior ajuda para o ensino e a aprendizagem. • Tem mais detalhes, o que pode ser útil na solução de problemas. Muitos profissionais da rede têm opiniões diversas sobre que modelo usar. Devido à natureza da indústria, é necessário familiarizar-se com ambos. Ambos os modelos OSI e TCP/IP serão mencionados por todo o currículo. A ênfase deve ser no seguinte: • TCP como um protocolo da Camada 4 do OSI • TCP como um protocolo da Camada 3 do OSI • Ethernet como uma tecnologia da Camada 2 e da Camada 1
    • Cisco CCNA 3.1 71 Lembre-se de que existe uma diferença entre um modelo e um protocolo real que é usado em redes. O modelo OSI será usado para descrever os protocolos TCP/IP.
    • Cisco CCNA 3.1 72 2.3.7 Processo detalhado de encapsulamento Todas as comunicações numa rede começam em uma origem e são enviadas a um destino. As informações enviadas através da rede são conhecidas como dados ou pacotes de dados. Se um computador (host A) desejar enviar dados para outro computador (host B), os dados devem primeiro ser empacotados através de um processo chamado encapsulamento. O encapsulamento empacota as informações de protocolo necessárias antes que trafeguem pela rede. Assim, à medida que o pacote de dados desce pelas camadas do modelo OSI, ele recebe cabeçalhos, trailers e outras informações. Uma vez que os dados são enviados pela origem, eles viajam através da camada de aplicação em direção às outras camadas. O empacotamento e o fluxo dos dados que são trocados passam por alterações à medida que as camadas executam seus serviços para os usuários finais. As redes devem efetuar as cinco etapas de conversão a seguir para encapsular os dados: 1. Gerar os dados. Quando um usuário envia uma mensagem de correio eletrônico, os seus caracteres alfanuméricos são convertidos em dados que podem trafegar na internetwork.
    • Cisco CCNA 3.1 73 2. Empacotar os dados para transporte fim-a-fim. Os dados são empacotados para transporte na internetwork. Usando segmentos, a função de transporte assegura que os hosts da mensagem em ambas as extremidades do sistema de correio eletrônico possam comunicar-se com confiabilidade. 3. Adicionar o endereço IP da rede ao cabeçalho. Os dados são colocados em um pacote ou datagrama que contém um cabeçalho de pacote contendo endereços lógicos de origem e destino. Esses endereços ajudam os dispositivos da rede a enviar os pacotes através da rede por um caminho escolhido. 4. Adicionar o cabeçalho e o trailer da camada de enlace de dados. Cada dispositivo da rede deve colocar o pacote dentro de um quadro. O quadro permite a conexão com o próximo dispositivo da rede diretamente conectado no link. Cada dispositivo no caminho de rede escolhido requer enquadramento de forma que possa conectar-se com o próximo dispositivo. 5. Converter em bits para transmissão. O quadro deve ser convertido em um padrão de 1s e 0s (bits) para transmissão no meio físico. Uma função de sincronização de clock permite que os dispositivos diferenciem esses bits à medida que trafegam no meio físico. O meio físico das redes interconectadas pode variar ao longo do caminho usado. Por exemplo, a mensagem de correio eletrônico pode ser originada em uma rede local, atravessar um backbone do campus e sair por um link da WAN até alcançar seu destino em outra rede local remota.
    • Cisco CCNA 3.1 74 Resumo Capítulo 02 Deve ter sido obtido um entendimento dos seguintes conceitos importantes: • Ao estudar redes é essencial ter um entendimento de largura de banda • Largura de banda é finita, custa dinheiro e a demanda aumenta diariamente • Usando a analogia como o fluxo de água e o fluxo de tráfego pode ajudar na explicação de largura de banda • A largura de banda é medida em bits por segundo, bps, Kbps, Mbps ou Gbps • As limitações da largura de banda incluem o tipo de meio usado, as tecnologias de rede local de WAN e o equipamento de rede • O throughput se refere à medida real da largura de banda, que é afetada por fatores que incluem o número de usuários na rede, dispositivos de rede, tipos de dados, o computador do usuário e o servidor • A fórmula T = S/BW (tempo de transferência = tamanho do arquivo / largura de banda) pode ser usada para calcular o tempo que leva para fazer a transferência de dados • Comparação entre larguras de banda analógica e digital • Uma abordagem de camadas é eficiente ao analisar problemas • A comunicação de rede é descrita por modelos de camadas • Os modelos OSI e TCP/IP são os dois modelos mais importantes de comunicação de rede • O International Organization for Standardization criou o modelo OSI para tratar dos problemas de incompatibilidade de redes • As sete camadas do OSI são: aplicação, apresentação, sessão, transporte, rede, enlace de dados e física • As quatro camadas do TCP/IP são: aplicação, transporte, internet e acesso à rede • Os dispositivos fundamentais de rede são: hubs, bridges, switches e roteadores • A disposição da topologia física inclui: barramento, anel, estrela, estrela estendida, hierárquica e malh • Uma WAN consiste em duas ou mais redes locais abrangendo uma área geográfica em comum • Uma SAN oferece um melhor desempenho do sistema, é escalonável, e possui incorporada uma tolerância contra desastres • Uma VPN é uma rede particular que é construída dentro de uma infra-estrutura de rede pública • Três tipos principais de VPNs são: acesso, Intranet e Extranet • As Intranets são projetadas para serem disponíveis aos usuários que têm privilégios de acesso à rede interna de uma organização, As Extranets têm a finalidade de proporcionar aplicativos e serviços baseados na Intranet, usando um acesso seguro para estendê-las para usuários ou empresas externa.
    • Cisco CCNA 3.1 75 Capítulo 03: Meios Físicos para Redes
    • Cisco CCNA 3.1 76 Visão Geral Capítulo 03 Cabos de cobre são usados em quase todas as redes locais. Estão disponíveis vários diferentes tipos de cabos de cobre, cada tipo tem suas vantagens e desvantagens. Uma seleção cuidadosa de cabeamento é a chave para uma operação eficiente de redes. Já que o cobre transporta informações usando corrente elétrica, é importante entender alguns conceitos básicos de eletricidade quando se planeja a instalação de uma rede. A fibra óptica é o meio mais freqüentemente usado para as transmissões ponto-a-ponto a grandes distâncias e com alta largura de banda necessárias para backbones das redes locais e em WANs. Usando um meio óptico, usa-se luz para transmitir dados através de uma fibra fina de vidro ou plástico. Os sinais elétricos fazem com que o trasmissor de fibra óptica gere os sinais de luz que são enviados através da fibra. O host receptor recebe os sinais de luz e os converte em sinais elétricos na extremidade mais distante da fibra. No entanto, não existe eletricidade no próprio cabo de fibra óptica. Aliás, o vidro usado no cabo de fibra ópica é um isolante muito bom. A conectividade física permitiu um aumento na produtividade tornando possível o compartilhamento de impressoras, servidores e software. Os sistemas de redes tradicionais exigem que as estações de trabalho permaneçam estacionárias permitindo movimentação apenas dentro dos limites dos meios e da área de escritórios. A apresentação de tecnologia sem fio elimina essas restrições e oferece uma portabilidade verdadeira ao mundo da computação. Atualmente, a tecnologia sem fio não fornece transferências a alta velocidade, segurança ou confiabilidade no tempo de atividade nas redes cabeadas. Portanto, a flexibilidade da tecnologia sem fio justifica o sacrifício. Os administradores freqüentemente consideram a tecnologia sem fio ao instalarem uma nova rede ou quando atualizam uma rede existente. Uma simples rede sem fio poderia funcionar dentro de apenas alguns minutos após as estações de trabalho serem ligadas. A conectividade à Internet é possível através de uma conexão em fios, roteador, cabo ou modem DSL e um ponto de acesso sem fio que age como um hub para os nós sem fio. Em um ambiente residencial ou pequeno escritório, estes dispositivos podem ser combinados em uma única unidade. Os alunos, ao concluírem esta lição, deverão poder: • Examinar as propriedades elétricas de matéria. • Definir voltagem, resistência, impedância, corrente e circuitos. • Descrever as especificações e desempenho dos diferentes tipos de cabos. • Descrever o cabo coaxial e suas vantagens e desvantagens sobre outros tipos de cabos. • Descrever cabos de par trançado blindado (STP) e suas utilizações. • Descrever cabos de par trançado não blindado (UTP) e suas utilizações. • Examinar as características dos cabos direto, cruzado e rollover e onde cada um é usado. • Explicar os conceitos básicos do cabo de fibra óptica. • Descrever como as fibras podem guiar a luz para longas distâncias. • Descrever fibra multimodo e monomodo. • Descrever como as fibras são instaladas. • Descrever o tipo de conectores e equipamento usado com cabos de fibra óptica. • Explicar como são testadas as fibras para garantir que funcionarão corretamente. • Examine as questões de segurança que tratam de fibras ópticas.
    • Cisco CCNA 3.1 77 3.1 Meios em Cobre 3.1.1 Átomos e Elétrons Toda matéria é composta de átomos. A Tabela Periódica dos Elementos lista todos os tipos conhecidos de átomos e suas propriedades. O átomo é constituído de: • Elétrons – Partículas que têm uma carga negativa e ficam em órbita em torno do núcleo; • Prótons – Partículas com uma carga positiva; • Nêutrons – Partículas sem carga (neutro); Os prótons e nêutrons são combinados em um pequeno grupo chamado núcleo. Para ajudá-lo a entender as propriedades elétricas dos elementos/materiais, localize o hélio (He) na tabela periódica. Hélio tem um número atômico de 2, o que significa que tem 2 prótons e 2 elétrons. Tem um peso atômico de 4. Subtraindo-se o número atômico (2) do peso atômico (4), você vai saber que o hélio também tem 2 nêutrons . O físico dinamarquês Niels Bohr desenvolveu um modelo simplificado para ilustrar os átomos. Esta ilustração mostra o modelo para o átomo de hélio. Se os prótons e nêutrons deste átomo tivessem o tamanho adulto de uma bola de futebol (#5), no meio de um campo de futebol, a única coisa menor que a bola seriam os elétrons. Os elétrons seriam do tamanho de cerejas e ficariam em órbita próximos aos assentos periféricos do estádio. Em outras palavras, o volume total deste átomo, inclusive o caminho do elétron, seria mais ou menos do tamanho do estádio. O núcleo do átomo onde existem os prótons e nêutrons seria do tamanho da bola de futebol.
    • Cisco CCNA 3.1 78 Uma das leis da natureza, chamada Lei da Força Elétrica de Coulomb, estabelece que cargas opostas reagem entre si com uma força que as leva a se atraírem. Cargas semelhantes reagem entre si com uma força que as leva a se repelirem. No caso de cargas opostas ou idênticas, a força aumenta na medida em que as cargas se aproximam. A força é inversamente proporcional ao quadrado da distância de separação. Quando as partículas se aproximam muito, a energia nuclear sobrepuja a força elétrica de repulsão e mantém a coesão do núcleo. Isto explica porque o núcleo não se desintegra. Examine o modelo de Bohr do átomo de hélio. Se a lei de Coulomb é verdadeira, e se o modelo de Bohr descreve os átomos de hélio como estáveis, então deve haver outras leis da natureza em ação. Como ambos podem estar certos? • Lei de Coulomb – Cargas opostas se atraem e cargas iguais se repelem. • Modelo de Bohr – Prótons são cargas positivas e elétrons são cargas negativas. Há mais de 1 próton no núcleo. Os elétrons permanecem em órbita, mesmo que os prótons atraem os elétrons. Os elétrons têm velocidade o suficiente para orbitarem e não serem atraídos para o núcleo, da mesma forma que a lua gira ao redor da Terra. Os prótons não se afastam um do outro por causa de uma energia nuclear associada aos nêutrons. A energia nuclear é uma força incrivelmente potente que age como um tipo de cola para manter os prótons juntos. Os prótons e nêutrons são ligados por uma força muito potente. No entanto, os elétrons são ligados à sua órbita ao redor do núcleo por uma força mais fraca. Os elétrons em certos átomos, tais como de metais, podem ser liberados do átomo e postos a fluir. Este mar de elétrons, levemente ligados aos átomos, é o que torna possível a eletricidade. A eletricidade é um fluxo livre de elétrons.
    • Cisco CCNA 3.1 79 Os elétrons desprendidos que permanecem em um lugar, sem movimento e com carga negativa, são chamados eletricidade estática. Se esses elétrons estáticos tiverem a oportunidade de passar para um condutor, isso pode gerar uma descarga eletrostática (ESD). O estudo de condutores virá mais adiante neste capítulo. Apesar de que o ESD é geralmente inofensivo às pessoas, ele pode criar problemas sérios aos equipamentos eletrônicos sensíveis. A descarga estática pode danificar aleatoriamente chips, dados ou ambos. O circuito lógico dos chips do computador é extremamente sensível à descarga eletrostática. Use cuidado ao trabalhar dentro de um computador, roteador, etc. Átomos, ou grupos de átomos chamados moléculas, podem ser considerados materiais. Os materiais são classificados como pertencentes a um de três grupos, dependendo de quão facilmente a eletricidade, ou elétrons livres, fluem através deles. A base para todos os dispositivos eletrônicos é o conhecimento sobre como os isolantes, condutores e semicondutores controlam o fluxo de elétrons e como trabalham conjuntamente em várias combinações.
    • Cisco CCNA 3.1 80 3.1.2 Voltagem Às vezes a voltagem é conhecida como força eletromotiva (EMF). A EMF é relacionada a uma energia elétrica, ou pressão que ocorre quando os elétros ou prótons são separados. A força criada empurra em direção à carga oposta e afasta em direção contrária da carga semelhante. Isso é o que acontece em uma bateria, onde ações químicas fazem com que os elétrons se soltem do terminal negativo da bateria. Os elétrons então passam para o terminal oposto ou positivo através de um circuito EXTERNO. Os elétrons não passam através da própria bateria. Lembre-se de que o fluxo de eletricidade é realmente o fluxo de elétrons. A voltagem também pode ser criada de três maneiras. A primeira é por fricção, ou eletricidade estática. A segunda é por magnetismo, ou gerador elétrico. E por último, a voltagem pode ser criada por luz, ou célula solar. A voltagem é representada pela letra V, e às vezes pela letra E, para energia eletromotiva. A unidade de medida para voltagem é volt (V). Volt é definido como a quantidade de trabalho, por unidade de carga, necessária para separar as cargas.
    • Cisco CCNA 3.1 81 3.1.3 Resistência e Impendância Os materiais através dos quais flui a corrente oferecem graus variáveis de oposição, ou resistência, ao movimento dos elétrons. Os materiais que oferecem pouca ou nenhuma resistência são chamados condutores. Aqueles que não permitem o fluxo da corrente, ou o restringem muito, são chamados isolantes. A quantidade de resistência depende da composição química dos materiais. Todos os materiais que conduzem eletricidade têm certa medida de resistência ao fluxo de elétrons através deles. Esses materiais têm também outros efeitos conhecidos como capacitância e indutância associados ao fluxo de elétrons. Estas três características constituem a impedância, que inclui a resistência. O termo atenuação é importante quando se estuda sobre redes. A atenuação se refere à resistência ao fluxo de elétrons e porque um sinal se torna degradado ao mover-se através do conduíte. A letra R representa resistência. A unidade de medida para resistência é o ohm (Ω). O símbolo vem da letra grega ômega. Os isolantes elétricos, ou isolantes, são materiais que permitem o fluxo de elétrons com grande dificuldade ou não permitem tal fluxo de forma alguma. Exemplos de isolantes elétricos incluem plástico, vidro, ar, madeira seca, papel, borracha e o gás hélio. Esses materiais têm estruturas químicas muito estáveis, com elétrons em órbita firmemente presos aos átomos. Condutores elétricos, geralmente conhecidos como apenas condutores, são materiais que permitem o fluxo de elétrons com grande facilidade. Eles fluem facilmente porque os elétrons nas órbitas periféricas não estão fortemente ligados ao núcleo e são liberados com facilidade. À temperatura ambiente, esses materiais têm um grande número de elétrons livres que podem oferecer condução. A introdução da voltagem faz com que os elétrons livres se desloquem, causando a passagem da corrente. A tabela periódica categoriza alguns grupos de átomos, listando-os em colunas. Os átomos em cada coluna pertencem a famílias químicas determinadas. Embora possam ter números diferentes de prótons, nêutrons e elétrons, seus elétrons da camada externa têm órbitas similares e comportam-se de maneira semelhante ao interagirem com outros átomos e moléculas. Os melhores condutores são os metais, como o cobre (Cu), a prata (Ag) e o ouro (Au), porque possuem elétrons que são liberados facilmente. Outros condutores incluem a solda, uma mistura de chumbo (Pb) e estanho (Sn)) e a água com íons. Um íon é um átomo que tem mais elétrons, ou menos elétrons, que o número de prótons no núcleo do átomo. O corpo humano é composto de aproximadamente 70% de água com íons, o que significa que ele, também, é um condutor. Semicondutores são materiais onde a quantidade de eletricidade conduzida pode ser controlada precisamente. Esses materiais estão listados juntos em uma coluna da tabela periódica. Os exemplos incluem o carbono (C), germânio (Ge) e a liga arsenieto de gálio (GaAs). O mais importante semicondutor, que faz os melhores circuitos eletrônicos microscópicos, é o silício (Si).
    • Cisco CCNA 3.1 82 O silício é muito comum e pode ser encontrado na areia, no vidro e em muitos tipos de rochas. A região de San Jose, na Califórnia, é conhecida como Vale do Silício porque a indústria de computação, que depende de microchips de silício, começou nessa área.
    • Cisco CCNA 3.1 83 3.1.4 Corrente A corrente elétrica é o fluxo de cargas criado quando os elétrons se deslocam. Em circuitos elétricos, a corrente é criada pelo fluxo de elétrons livres. Quando a voltagem, ou pressão elétrica, é aplicada e há uma passagem para a corrente, os elétrons deslocam-se do terminal negativo através da passagem até o terminal positivo. O terminal negativo repele os elétrons e o positivo os atraem. A letra "I" representa corrente. A unidade de medida para corrente é Ampere (A). Um ampère é definido como o número de cargas por segundo que passa por um ponto ao longo de um caminho. Se a amperagem ou corrente pode ser imaginada como sendo o número ou volume do tráfego de elétrons que está fluindo, então a voltagem pode ser considerada como a velocidade do tráfego de elétrons. A combinação de amperagem e voltagem equivale à wattagem. Os dispositivos elétricos como lâmpadas, motores e fontes de alimentação para computadores são classificados em termos de watts. Um watt é definido como a quantidade de energia consumida ou produzida por um dispositivo. É a corrente ou amperagem em um circuito elétrico que realmente faz o trabalho. Como um exemplo, a eletricidade estática possui uma voltagem muito alta, tanto que pode pular um espaço de 2,5 cm ou mais. No entanto, possui uma amperagem muito baixa e como resultado pode criar um choque mas não lesões permanentes. O motor de partida em um automóvel opera a uma voltagem relativamente baixa de 12 volts mas exige uma amperagem muito alta para gerar energia suficiente para dar partida no motor. Raios possuem voltagem e amperagem muito altas e podem causar danos e ferimentos gravíssimos.
    • Cisco CCNA 3.1 84 3.1.5 Circuitos As correntes fluem em loops fechados chamados circuitos. Esses circuitos devem ser compostos por materiais condutores e ter fontes de voltagem. A voltagem faz com que a corrente flua, enquanto a resistência e a impedância se opõem a isso. A corrente consiste em elétrons que se deslocam para longe dos terminais negativos e em direção aos terminais positivos. Conhecer esses fatos permite que as pessoas controlem um fluxo de corrente. Se houver um caminho, a eletricidade fluirá naturalmente para a terra. A corrente flui através de caminhos que oferecem menor resistência. Se o corpo humano fornecer um caminho de menor resistência, a corrente fluirá através dele. Quando um aparelho elétrico tem um plugue com três pinos, um deles serve como terra, ou zero volts. O pino terra fornece um caminho de condução para os elétrons fluírem para a terra, pois a resistência ao atravessar o corpo seria maior que a resistência ao fluir diretamente à terra. Terra geralmente signifca nível de zero volts, quando se faz a medição elétrica. A voltagem é criada pela separação de cargas, o que significa que as medições de voltagem devem ser realizadas entre dois pontos. A analogia com a água ajuda a explicar os conceitos da eletricidade. Quanto maior o nível de água e maior a pressão, mais a água fluirá. A corrente da água também depende do tamanho do espaço por onde deve fluir. Da mesma forma, quanto maior a voltagem e maior a pressão elétrica, mais corrente será produzida. A corrente elétrica, então, encontra resistência que, como a válvula de água, reduz o fluxo. Se ela estiver em um circuito CA, a quantidade de corrente vai depender de quanta impedância existe. Se ela estiver em um circuito CC, a quantidade de corrente vai depender de quanta resistência existe. A bomba é como uma bateria. Ela fornece pressão para manter o fluxo em movimento. A relação entre voltagem, resistência e corrente é voltagem (V) = corrente (I) multiplicada pela resistência (R). Em outras palavras, V = I*R. Esta é a lei de Ohm, designada pelo nome de um cientista que estudava estas questões.
    • Cisco CCNA 3.1 85 Os dois meios pelos quais a corrente flui são Corrente Alternada (CA) e Corrente Contínua (CC). A corrente alternada (AC) e as voltagens variam com o tempo, mudando sua polaridade ou direção. A CA flui em uma direção, depois inverte e flui na outra direção, e depois repete este processo. A voltagem CA é positiva em um terminal, e negativa no outro. E depois a voltagem CA inverte sua polaridade, para que o terminal positivo se torne negativo, e o negativo se torne positivo. Esse processo se repete continuamente. A corrente contínua (CC) flui sempre na mesma direção e as voltagens da CC têm sempre a mesma polaridade. Um terminal é sempre positivo e o outro sempre negativo. Eles não se modificam nem invertem. Um osciloscópio é um dispositivo eletrônico usado para medir sinais elétricos relativos ao tempo. Um osciloscópio representa em gráfico as ondas, os pulsos e os padrões elétricos. Ele tem um eixo x que representa o tempo e um eixo y que representa a voltagem. Geralmente, há duas entradas de voltagem no eixo y para que duas ondas possam ser observadas e medidas ao mesmo tempo. Os fios elétricos levam eletricidade na forma de CA pois pode ser entregue eficientemente a longas distâncias. A CC pode ser encontrada em pilhas de lanternas, baterias de carro e como fonte de alimentação para microchips na placa-mãe de um computador, onde só precisa ir a uma curta distância. Os elétrons fluem em circuitos fechados, ou loops completos. A Figura abaixo mostra um circuito simples.
    • Cisco CCNA 3.1 86 O processo químico na bateria provoca o acúmulo de carga. Isto proporciona uma voltagem, uma pressão elétrica que facilitam o fluxo dos elétrons através de vários dispositivos. As linhas representam um condutor, geralmente um fio de cobre. Imagine um interruptor como sendo duas extremidades de um único fio que pode ser aberto ou interrompido para impedir o fluxo de elétrons. Quando as duas extremidades estão fechadas, fixas ou em curto, os elétrons são permitidos a se deslocarem. Finalmente, a lâmpada oferece resistência ao fluxo de elétrons, fazendo com que liberem energia na forma de luz. Os circuitos envolvidos em redes usam uma versão muito mais complexa deste circuito simplíssimo. Nos sistemas elétricos DC e CA, o fluxo de elétrons é sempre da carga negativa para a carga positiva. No entanto, para que haja o controle do fluxo de elétrons, é necessário um circuito completo. A Figura abaixo mostra parte do circuito elétrico que fornece energia a uma residência ou escritório.
    • Cisco CCNA 3.1 87 3.1.6 Especificação de Cabos Os cabos possuem diferentes especificações e expectativas com relação ao seu desempenho: • Quais são as velocidades para transmissão de dados que podem ser alcançadas quando se usa um determinado tipo de cabo? A velocidade da transmissão de bits através do cabo é extremamente importante. A velocidade da transmissão depende do tipo de conduíte usado. • Qual é o tipo de transmissão sendo considerada? As transmissões serão digitais ou baseadas em tecnologia analógica? A transmissão digital ou de banda base, e a transmissão baseada na tecnologia analógica ou de banda base, são as duas escolhas. • Qual é a distância que um sinal pode percorrer através de um certo tipo de cabo antes que a atenuação desse sinal se torne um problema? Em outras palavras, o sinal se tornará tão degradado que o dispositivo receptor talvez não possa receber e interpretar corretamente o sinal ao chegar àquele dispositivo? A distância que o sinal transita no cabo afeta diretamente a atenuação do sinal. A degradação do sinal é diretamente relacionado à distância que o sinal transita e o tipo de cabo usado. Alguns exemplos de especificações Ehternet relacionadas ao tipo de cabo incluem: • 10BASE-T; • 10BASE5; • 10BASE2; A 10BASE-T se refere à velocidade de transmissão a 10 Mbps. O tipo de transmissão é banda de base, ou interpretada digitalmente. O T significa par trançado. A 10BASE5-T se refere à velocidade de transmissão a 10 Mbps. O tipo de transmissão é banda de base, ou interpretada digitalmente. O 5 representa a capacidade do cabo de permitir que o sinal transite aproximadamente 500 metros antes que a atenuação venha a interromper a capacidade do receptor de interpretar corretamente o sinal sendo recebido. A 10BASE5 é geralmente conhecida como Thicknet. A Thicknet é na realidade um tipo de rede, enquanto que a 10BASE5 é o cabeamento usado naquela rede. A 10BASE2 se refere à velocidade de transmissão a 10 Mbps. O tipo de transmissão é banda de base, ou interpretada digitalmente. O 2 em 10BASE2 refere-se ao máximo comprimento aproximado de um segmento ser 200 metros, antes que a atenuação venha a interromper a capacidade do receptor de interpretar corretamente o sinal sendo recebido. O comprimento máximo do segmento é de fato 185 metros. A 10BASE2 é geralmente conhecida como Thicknet. A Thicknet é na realidade um tipo de rede, enquanto que a 10BASE2 é o cabeamento usado naquela rede.
    • Cisco CCNA 3.1 88 3.1.7 Cabo Coaxial O cabo coaxial consiste em um condutor de cobre envolto por uma camada isolante flexível. O condutor central também pode ser feito de um fino cabo de alumínio laminado, permitindo que o cabo seja industrializado a baixo custo. Sobre o material isolante, há uma trança de lã de cobre ou uma folha metálica, que age como um segundo fio no circuito e como blindagem para o fio interior. Esta segunda camada, ou blindagem, também reduz a quantidade de interferência eletromagnética externa. A capa do cabo cobre esta blindagem. O cabo coaxial oferece muitas vantagens às redes locais. Pode cobrir maiores distâncias que o cabo de par trançado blindado (STP), cabo de par trançado não blindado (UTP), e cabo de par trançado "screened" (ScTP) sem a necessidade de repetidores. Os repetidores geram os sinais em uma rede para que eles possam cobrir distâncias maiores. O cabo coaxial é mais barato do que o cabo de fibra óptica e a tecnologia é bem conhecida. Ele tem sido usado por muitos anos em vários os tipos de comunicação de dados inclusive televisão a cabo. Ao trabalhar com cabo, é importante considerar a sua espessura. À medida que aumenta a espessura do cabo, aumenta também a dificuldade de se trabalhar com ele. Lembre-se de que o cabo tem de ser puxado através de conduítes e calhas existentes que têm espessuras limitadas. O cabo coaxial existe em diversas espessuras. O maior diâmetro foi especificado para uso como cabo de backbone Ethernet devido a sua maior extensão de transmissão e suas características de rejeição ao ruído. Esse tipo de cabo coaxial é freqüentemente chamado de thicknet. Como o seu apelido sugere, esse tipo de cabo pode ser muito rígido para ser instalado facilmente em algumas situações. Geralmente, quanto mais difícil for a instalação dos meios de rede, mais cara será a instalação. O cabo coaxial é mais caro de se instalar do que o cabo de par trançado. O cabo thicknet quase não é mais usado, exceto para fins de instalações especiais. No passado, o cabo coaxial ‘thinnet’ com um diâmetro externo de apenas 0,35 cm era usado em redes Ethernet. Ele era especialmente útil para instalações de cabo que exigiam que o cabo fizesse muitas curvas e voltas. Já que o thinnet era mais fácil de instalar, a instalação era também mais econômica. Isso fez com que algumas pessoas o chamassem de cheapernet. A malha externa de cobre ou metálica no cabo coaxial constitui metade do circuito elétrico e deve-se ter muito cuidado para garantir uma conexão elétrica sólida em ambas as extremidades, resultando em aterramento apropriado. Uma conexão de blindagem ruim é uma das maiores fontes de problemas de conexão na instalação do cabo coaxial. Problemas de conexão resultam em ruído elétrico que interfere na transmissão de sinais no meio da rede. Por esta razão o thinnet não é mais comumente usado nem suportado pelos padrões mais modernos (100 Mbps ou maior) para redes Ethernet.
    • Cisco CCNA 3.1 89 3.1.8 Cabo STP O cabo de par trançado blindado (STP) combina as técnicas de blindagem, cancelamento e trançamento de fios. Cada par de fios é envolvido por uma malha metálica. Os dois pares de fios são totalmente envolvidos por uma malha ou folha metálica. Geralmente é um cabo de 150 Ohm. Conforme especificado para utilização nas instalações de rede Token Ring, o STP reduz o ruído elétrico dentro dos cabos como ligação dos pares e diafonia. O STP reduz também ruídos eletrônicos externos dos cabos, por exemplo a interferência eletromagnética (EMI) e interferência da freqüência de rádio (RFI). O cabo de par trançado blindado compartilha muitas das vantagens e desvantagens do cabo de par trançado não blindado (UTP). O STP oferece maior proteção contra todos os tipos de interferência externa, mas é mais caro e difícil de instalar do que o UTP. Um novo híbrido do UTP como o STP tradicional é o Screened UTP (ScTP), também conhecido como Foil Twisted Pair (FTP). O ScTP é basicamente o UTP envolvido em uma blindagem de folha ou malha metálica. ScTP, como o UTP, também é um cabo de 100 Ohm. Muitos instaladores e fabricantes de cabos podem utilizar o termo STP para descrever cabeamento ScTP. É importante entender a maioria das referências feitas a STP hoje na verdade referem-se a cabeamento blindado de quatro pares. É altamente improvável que o verdadeiro cabo STP seja usado em um trabalho de instalação de cabos.
    • Cisco CCNA 3.1 90 Os materiais da blindagem metálica no STP e no ScTP precisam estar aterrados nas duas extremidades. Se o aterramento for feito incorretamente ou se houver qualquer discontinuidade no comprimento inteiro do material blindado, o STP e o ScTP podem se tornar suscetíveis a grandes problemas de ruído. Eles são suscetíveis porque permitem que a blindagem funcione como uma antena captando sinais indesejados. Entretanto, esse efeito atua nas duas direções. A blindagem não só impede que as ondas eletromagnéticas entrantes causem ruído nos fios de dados, mas também minimiza a saída das ondas eletromagnéticas irradiadas. Essas ondas poderiam causar ruídos em outros dispositivos. Os cabos STP e ScTP não podem percorrer distâncias tão longas como outros meios de rede como cabo coaxial ou fibra óptica, sem que o sinal seja repetido. Mais isolamento e blindagem se combinam para aumentar consideravelmente o tamanho, peso e custo do cabo. Os materiais de blindagem tornam as terminações mais difíceis e suscetíveis a más práticas de instalação. Entretanto, o STP e o ScTP ainda têm seu lugar, especialmente na Europa ou em instalações onde EMI e RFI são intensos próximo ao cabeamento.
    • Cisco CCNA 3.1 91 3.1.9 Cabo UTP Cabo de par trançado não blindado (UTP) é um meio de fio de quatro pares usado em uma variedade de redes. Cada um dos 8 fios individuais de cobre no cabo UTP é coberto por material isolante. Além disso, cada par de fios é trançado em volta de si. Esse tipo de cabo usa apenas o efeito de cancelamento, produzido pelos pares de fios trançados para limitar a degradação do sinal causada por EMI e RFI. Para reduzir ainda mais a diafonia entre os pares no cabo UTP, o número de trançamentos nos pares de fios varia. Como o cabo STP, o cabo UTP deve seguir especificações precisas no que se refere a quantas torcidas ou trançados são permitidos por metro de cabo. O TIA/EIA-568-B.2 contém especificações que controlam o desempenho do cabo. Ele exige que se passem dois cabos, um para voz e outro para dados, até cada tomada. Dos dois cabos, o que é para voz deve ser o UTP com quatro pares. A categoria 5 atualmente é o tipo de cabo freqüentemente recomendado e implementado em instalações de rede atuais. Contudo, previsões de analistas e pesquisas independentes indicam que o cabo de categoria 6 vai substituir o cabo de categoria 5 em instalações de rede. O fato de que os requisitos de enlace e canal em categoria 6 são compatíveis com a categoria 5e faz com que seja muito fácil para clientes escolherem categoria 6 e substituir a categoria 5e em suas redes. Aplicações que funcionam em categoria 5e irão funcionar em categoria 6. O cabo de par trançado não blindado tem muitas vantagens. Ele é fácil de ser instalado e mais barato que outros tipos de meios de rede. Aliás, o UTP custa menos por metro do que qualquer outro tipo de cabeamento de redes locais.
    • Cisco CCNA 3.1 92 Entretanto, a real vantagem é o tamanho. Como tem o diâmetro externo pequeno, o UTP não enche os dutos de cabeamento tão rapidamente quanto outros tipos de cabo. Esse pode ser um fator muito importante para se levar em conta, particularmente quando se instala uma rede em um prédio antigo. Além disso, quando o cabo UTP é instalado usando-se um conector RJ, fontes potenciais de ruído na rede são muito reduzidas e uma conexão bem sólida é praticamente garantida. Há desvantagens no uso de cabeamento de par trançado. O cabo UTP é mais propenso a ruído e a interferência elétrica do que outros tipos de meios físicos de rede, e a distância entre amplificações dos sinais é menor no UTP do que nos cabos coaxiais e de fibra óptica. O cabo de par trançado já foi considerado mais lento na transmissão de dados do que outros tipos de cabos. Isto não é mais verdade. Na realidade, hoje, o cabo de par trançado é considerado o meio baseado em cobre mais veloz. Para que ocorra comunicação, o sinal que é transmitido pela origem precisa ser entendido pelo destinatário. Isto é verdade sob o ponto de vista tanto física como de software. O sinal transmitido precisa ser recebido corretamente pela conexão do circuito projetado para receber sinais. O pino transmissor da fonte precisa estar em última instância, conectado ao pino receptor do destino. Abaixo seguem os tipos de conexões de cabos entre dispositivos de internetwork. Na Figura abaixo, um switch de rede local está conectado ao computador. O cabo que conecta da porta do switch à porta da placa de rede é denominado um cabo direto. Na Figura abaixo, dois switches são conectados juntos. O cabo que conecta de uma porta do switch a outra porta de switch é denominado um cabo cruzado.
    • Cisco CCNA 3.1 93 Na Figura abaixo, o cabo que conecta o adaptador RJ-45 na porta COM do computador à porta do console do roteador ou switch é denominado um cabo rollover. Os cabos são definidos pelo tipo de conexões, ou pinagens, desde uma extremidade à outra do cabo. Veja figuras na próxima página. Um técnico pode comparar as duas extremidades do mesmo cabo ao colocá-los um ao lado do outro, contanto que o cabo não tenha sido ainda colocado em uma parede. O técnico inspeciona as cores das duas conexões RJ-45, colocando as duas extremidades com o clipe na mão e a parte superior das duas extrmidades do cabo apontadas para fora. Um cabo reto deve ter as duas extremidades com padrões idênticos de cores. Ao comparar as extremidades de um cabo cruzado, a cor dos pinos #1 e #2 aparecerá na outra extremidade nos pinos #3 e #6, e vice versa. Isto acontece porque os pinos transmissor e receptor estão em diferentes locais. Em um cabo rollover, a combinação de cores da esquerda para a direita em uma extremidade deverá ser exatamente o oposto à combinação de cores na outra extremidade. CABO CRUZADO CABO ROLLEVERCABO DIRETO
    • Cisco CCNA 3.1 94 3.2 Meios Ópticos 3.2.1 O Espectro Eletromagnético A luz usada nas redes de fibra óptica é um tipo de energia eletromagnética. Quando uma carga elétrica se desloca para lá e para cá, ou acelera, é produzido um tipo de energia conhecida como energia eletromagnética. Esta energina na forma de ondas pode deslocar-se através de um vácuo, o ar, e através de alguns materiais como vidro. Uma propriedade importante de qualquer onda de energia é o comprimento de onda. O rádio, as microondas, o radar, luzes visíveis, raios-x e raios gama parecem ser coisas muito diferenntes. Entretanto, são todos tipos de energia eletromagnética. Se todos os tipos de ondas eletromagnéticas forem arranjadas na ordem desde o maior comprimento de ondas até o menor, será criada uma série contínua, denominada espectro eletromagnético. O comprimento da onda de uma onda eletromagnética é determinado pela freqüência com que a carga elétrica que gera a onda se desloca para lá e para cá. Se a carga se desloca lentamente, o comprimento da onda que é gerada é um longo comprimento de onda. Imagine o movimento de uma carga elétrico como sendo um pau em uma piscina. Se o pau é movimentado lentamente de um lado a outro, serão geradas ondas na água com um comprimento de onda longo entre os picos das ondas. Se o pau é movimentado de um lado a outro com maior rapidez, as ondas terão um comprimento de onda mais curta. Porque as ondas eletromagnética são todas geradas de maneira idêntica, compartilham muitas das mesmas propriedades. Todas as ondas se deslocam a uma mesma velocidade no vácuo. A taxa é de aproximadamente 300.000 quilômetros por segundo ou 186.283 milhas por segundo. Esta também é a velocidade da luz.
    • Cisco CCNA 3.1 95 Os olhos humanos só podem perceber a energia eletromagnética com comprimento de ondas entre 700 e 400 nanômetros (nm). Um nanômetro é um bilionésimo de um metro (0,000000001 metro) de comprimento. A energia eletromagnética com comprimento de onda entre 700 e 400 nm é conhecida como luz visível. Os comprimentos de onda mais longos de luz de mais ou menos 700 nm são visualizados como cor vermelha. Os comprimentos de onda mais curtos, mais ou menos 400 nm aparecem como a cor violeta. Esta parte do espectro eletromagnético é visto como as cores de um arco-iris. Estes comprimentos de onda que não são visíveis aos olhos humanos são usados para transmitir dados através de fibra óptica. Esses comprimentos de onda são levemente maiores que a luz vermelha e são chamadas luz infravermelha. A luz infravermelha é usada em controles remotos de TV. O comprimento de onda de luz na fibra óptica é 850 nm, 1310 nm ou 1550 nm. Esses comprimentos de onda foram selecionados pois se propagam pela fibra óptica melhor que outros comprimentos de onda.
    • Cisco CCNA 3.1 96 3.2.2 A Teoria de Raios de Luz Quando as ondas eletromagnética procedem de uma origem, elas se propagam em linhas retas. Estas linhas retas que se projetam a partir da fonte são denominadas raios. Imagine os raios de luz como sendo feixes de luz estreitos como aqueles produzidos por lasers. No vácuo de espaço vazio, a luz se propaga continuamente em uma linha reta a 300.000 quilômetros por segundo. Porém, a luz se propaga a diferentes velocidades mais lentas através de outros materiais como ar, água e vidro. Quando um raio de luz denominado raio incidente, cruza o limite entre um material e outro, um pouco da energia da luz no raio será refletida de volta. É por isso que você pode ver-se no vidro da janela. A luz que é refletida de volta é denominada raio refletido. A energia da luz no raio incidente que não é refletida entrará no vidro. O raio que entra será desviado a um ângulo a partir de seu caminho original. Este raio é chamado raio refratado. A quantidade de raio de luz incidente que é desviada depende do ângulo no qual o raio incidente atinge a superfície do vidro e a diferentes taxas de velocidade com que a luz se propaga através das duas substâncias. O desvio dos raios de luz nos limites de duas substâncias é a razão porque os raios de luz são capazes de propagar-se através de uma fibra óptica mesmo que a fibra se curve em círculo. A densidade óptica do vidro determina o quanto que os raios de luz se desviam no vidro. A densidade óptica se refere ao quanto que o raio de luz desacelera ao passar através de uma substância. Quanto maior a densidade óptica de um material, mais a luz desacelera da sua velocidade em um vácuo. O Índice de Refração é definido como a velocidade da luz no vácuo dividida pela velocidade da luz no no meio. Portanto, a medida da densidade óptica de um material é o índice de refração daquele material. Um material com um grande índice de refração é mais opticamente denso e desacelera mais luz que um material com menor índice de refração. Para uma substância como vidro, o Índice de Refração, ou densidade óptica, pode ser aumentada ao adicionar-se materiais químicos ao vidro. Purificando bem o vidro pode
    • Cisco CCNA 3.1 97 reduzir o índice de refração. As próximas lições apresentarão maiores informações sobre reflexão e refração, e sua relação ao design e função da fibra óptica. 3.2.3 Reflexão Quando um raio de luz (o raio incidente) atinge a superfície brilhante de um pedaço de vidro plano, um pouco da energia da luz no raio é refletida. O ângulo entre o raio incidente e uma linha perpendicular à superfície do vidro no ponto onde o raio incidente atinge o vidro é denominado ângulo de incidência. A linha perpendicular é chamada normal. Não é o raio de luz mas sim a ferramenta que permite as medições de ângulos. O ângulo entre o raio refletido e a normal é chamado ângulo de reflexão. A Lei da Reflexão declara que o ângulo de reflexão de um raio de luz é igual ao ângulo de incidência. Em outras palavras, o ângulo onde o raio de luz atinge uma superfície refletiva determina o ângulo que o raio se refletirá da superfície.
    • Cisco CCNA 3.1 98 3.2.4 Refração Quando uma luz atinge a interface entre dois materiais transparentes, a luz divide em duas partes. Uma parte do raio de luz é refletido de volta na primeira substância, com o ângulo de reflexão igual ao ângulo de incidência. A energia restante no raio de luz cruza a interface e entra na segunda substância. Se o raio incidente atinge a superfície do vidro a um ângulo exato de 90 graus, o raio entra direto no vidro. O raio não é desviado. No entanto, se o raio incidente não estiver a um ângulo exato de 90 graus com relação à superfície, então o raio transmitido que entra no vidro será desviado. O desvio do raio entrante é chamado refração. A quantidade do raio que é refratado depende do índice de refração de dois materiais transparentes. Se o raio de luz se propaga de uma substância cujo índice de refração é menor, até uma substância onde o índice de refração é maior, o raio refratado é desviado em direção ao normal. Se o raio de luz se propaga de uma substância cujo índice de refração é maio, até uma substância onde o índice de refração é menor, o raio refratado é desviado para longe do normal. Considere um raio de luz se propagando a um ângulo diferente de 90 graus através do limite entre vidro e um diamante. O vidro tem um índice de refração de aproximadamente 1,523. O diamante tem um índice de refração de aproximadamente 2,419. Portanto, o raio que continua para dentro do diamante será desviado em direção ao normal. Quando aquele raio de luz cruza os limites entre o diamante e o ar a um ângulo diferente de 90 graus, ele será desviado para longe
    • Cisco CCNA 3.1 99 do normal. A razão para isso é que o ar tem um índice de refração menor, aproximadamente 1,000 que o índice de refração do diamante. 3.2.5 Reflexão Interna Total Um raio de luz que é ligado e desligado para enviar dados (1s e 0s) a uma fibra óptica deverá permanecer dentro da fibra até que chegue à extremidade distante. O raio não deve refratar no material que envolve a fibra. A refração causaria a perda de parte da energia da luz do raio. Deve ser realizado um design para a fibra de modo que a superfície externa da fibra aja como espelho para o raio de luz que se propaga pela fibra. Se qualquer raio de luz que tenta sair pelo lado da fibra for refletido de volta na fibra a um ângulo que o envia em direção à extremidade distante da fibra, isto seria um bom "duto" ou "guia de ondas" para as ondas de luz. As leis da reflexão e da refração ilustram como desenhar uma fibra que guia as ondas de luz através da fibra com uma perda mínima de energia. As duas condições abaixo precisam ser satisfeitas para que os raios de luz em uma fibra possam ser refletidos de volta para dentro da fibra sem nenhuma perda causada pela refração. • O núcleo da fibra óptica precisa ter um índice maior de refração (n) que o material que o envolve. O material que envolve o núcleo da fibra óptica é chamado revestimento interno. • O ângulo de incidência do raio de luz é maior que o ângulo crítico para o núcleo e seu revestimento interno.
    • Cisco CCNA 3.1 100 Quando estas duas condições são satisfeitas, a inteira luz incidente na fibra será refletida de volta para dentro da fibra. Isto é conhecido como reflexão interna total, que é a fundação sobre a qual a fibra óptica é construída. A reflexão interna total faz com que os raios de luz na fibra reflitam no limite do revestimento interno do núcleo e continuem o seu percurso em direção à extremidade distante da fibra. A luz seguirá um caminho de zigzag através do núcleo da fibra. A fibra que satisfaz a primeira condição pode ser facilmente criada. Além disso, o ângulo de incidência dos raios de luz que entram no núcleo podem ser controlados. A restrinção dos seguintes fatores controlam o ângulo de incidência: • A abertura numérica da fibra – A abertura numérica de um núcleo é a faixa de ângulos de incidência de raios que entram na fibra que serão refletidos completamente. • Modos – Os caminhos que podem ser seguidos pelo raio de luz ao propagar-se através da fibra.
    • Cisco CCNA 3.1 101 Com o controle das duas condições, o lance de fibra óptica possuirá uma reflexão interna total. Isto proporciona um guia para a onda de luz que poderá ser usada para comunicações de dados. 3.2.6 Fibra Multimodo A parte de uma fibra óptica através da qual os raios de luz se propagam é camada núcleo da fibra. Os raios de luz só podem entrar no núcleo se seus ângulos estiverem dentro da abertura numérica da fibra. Da mesma maneira, uma vez que os raios tenham entrado no núcleo da fibra, existe um número limitado de caminhos ópticos que podem ser seguidos pelo raio de luz através da fibra. Estes caminhos ópticos são chamados modos. Se o diâmetro do núcleo da fibra for suficientemente grande para que hajam muitos caminhos por onde a luz pode se propagar através da fibra, a fibra é chamada fibra "multimodo". A fibra monomodo possui um núcleo muito menor que só permite que os raios de luz se propaguem em um modo dentro da fibra.
    • Cisco CCNA 3.1 102 Cada cabo de fibra óptica usado para redes consistem em duas fibras de vidro em revestimentos separados. Uma fibra transporta dados transmitidos do dispositivo A até o dispositivo B. A segunda fibra transporta dados do dispositivo B ao dispositivo A. As fibras são semelhantes a duas ruas ruas de mão única indo em direções opostas. Isso proporciona um link de comunicação full-duplex. O par trançado de cobre usa um par de fios para transmitir e um par de fios para receber. Os circuitos de fibra ótica usam uma única fibra para transmitir e uma para receber. Tipicamente, estes dois cabos de fibra estarão em um único revestimento externo até que cheguem ao ponto onde estão ligados os conectores.
    • Cisco CCNA 3.1 103 Até que os conectores sejam ligados, não existe a necessidade de blindagem, pois nenhuma luz se escapa quando está dentro de uma fibra. Isto quer dizer que não existe questões de diafonia quando se trata de fibras. É bem comum ver pares de fibras múltiplas revestidos no mesmo cabo. Isto permite que um único cabo seja lançado entre closets de dados, andares ou edifícios. Um cabo pode conter de 2 a 48 ou mais fibras separadas. Com cobre, um cabo UTP teria que ser puxado para cada circuito. A fibra pode transportar muito mais bits por segundo e transportá-los muito além do que pode o cobre. Geralmente cada cabo de fibra óptica é composto de 5 partes. As partes são: o núcleo, o revestimento interno, um buffer, um material reforçante, e uma capa externa.
    • Cisco CCNA 3.1 104 O núcleo é o elemento de transmissão de luz no centro da fibra óptica. Todos os sinais de luz se propagam através do núcleo. Tipicamente um núcleo é feito de vidro com uma combinação de dióxido de silício (sílica) e outros elementos. O multimodo usa um tipo de vidro para seu núcleo, chamado vidro de índice gradual. Este vidro tem um índice menor de refração em direção à camada externa do núcleo. Portanto, a área externa do núcleo é opticamente menos densa que o centro e a luz pode propagar-se mais rapidamente na parte externa do núcleo. Este desenho é usado porque um raio de luz que segue um modo que vai diretamente ao centro do núcleo não precisa propagar-se longe como um raio que segue um modo que repercute na fibra. Todos os raios devem chegar juntos na extremidade da fibra. Depois o receptor na extremidade da fibra recebe um forte lampejo de luz ao invés de um pulso longo e fraco. Ao redor do núcleo está o revestimento interno. O revestimento interno é também feito de sílica mas com um índice menor de refração que o núcleo. Os raios de luz que se propagam através do núcleo da fibra refletem na interface entre o núcleo e o revestimento interno ao propagar-se através da fibra pela reflexão interna total. O cabo de fibra óptica multimodo padrão é o tipo mais comum de cabo de fibra óptica usado em redes locais. Um cabo de fibra óptica multimodo padrão usa fibra óptica com um núcleo de 62,5 ou 50 microns e um revestimento interno de 125 microns de diâmetro. Esta é comumente designada como fibra óptica de 62,5/125 ou 50/125 microns. Um micron é um milionésimo de um metro (1µ). Envolvendo o revestimento interno existe um material de buffer que geralmente é plástico. O material de buffer ajuda a proteger o núcleo e o revestimento interno contra danos. Existem dois tipos básicos de desenhos de cabos. Eles são os desenhos de cabos tipo tubo solto e tight-buffered. A fibra mais usada em redes locais é o cabo multimodo tipo tight-buffered. Os cabos tight-buffered possuem o material de buffer que envolve o revestimento interno em direto contato com ele. A mais prática diferença entre os dois desenhos é as aplicações para as quais são usados. O cabo tubo solto é usado
    • Cisco CCNA 3.1 105 primariamente para instalações do lado externo dos edifícios, enquanto que o cabo tight buffered é usado dentro dos edifícios. O material reforçante envolve o buffer, impedindo que o cabo da fibra seja esticado quando os instaladores o puxem. O material freqüentemente usado é Kevlar, o mesmo material usado para produtir coletes a prova de balas. O elemento final é a capa externa. A capa externa envolve o cabo para proteger a fibra contra abrasão, solventes e outros contaminantes. A cor da capa externa da fibra multimodo é geralmente alaranjada, mas de vez em quando é de outra cor. Os Diodos Emissores de Luz (LEDs) infravermelha ou Laser de Emissão Superficial com Cavidade Vertical (VCSELs) são dois tipos de fonte de luz geralmente usados com fibra multimodo. Use um ou outro. Os LEDs são um pouco mais baratos para fabricar e não exigem tanta preocupação com a segurança quanto os lasers. Porém, os LEDs não podem transmitir a luz através dos cabos a tanta distância quanto os lasers. A fibra multimodo (62,5/125) pode transportar dados a distâncias de até 2000 metros (6.560 ft). 3.2.7 Fibra Monomodo A fibra monomodo consiste nas mesmas partes que o multímodo. A capa externa da fibra monomodo é geralmente amarela. A maior diferença entre a fibra multímodo e monomodo é que a monomodo permite que somente um modo de luz se propague através do núcleo menor da fibra óptica. O núcleo do monomodo é de oito a dez microns em diâmetro. Os núcleos mais comuns são os de nove microns. Uma marcação 9/125 no revestimento da fibra monomodo indica que a fibra do núcleo tem um diâmetro de 9 microns e o revestimento interno é de 125 microns em diâmetro. Um laser infravermelho é usado como fonte de luz em uma fibra monomodo. O raio de luz que ele gera entra no núcleo a um ângulo de 90 graus. Como resultado, os pulsos dos raios de luz que transportam dados em uma fibra monomodo são essencialmente transmitidos em linha reta direto pelo meio do núcleo.
    • Cisco CCNA 3.1 106 Isto aumenta em muito a velocidade e a distância que os dados podem ser transmitidos. Devido a este desenho, a fibra monomodo é capaz de taxas mais altas de transmissão de dados (largura de banda) e maiores distâncias de lances de cabo que a fibra multímodo. A fibra monomodo pode transportar dados de rede local até 3000 metros. Apesar de esta distância ser considerada um padrão, novas tecnologias aumentaram esta distância e serão discutidas em um módulo futuro. A multímodo é capaz de transportar só até 2000 metros. As fibras laser e monomodo são mais caras que as fibras multimodo e LEDs. Devido a essas características, a fibra monomodo é freqüentemente usada para conectividade dentro dos edifícios. ADVERTÊNCIA: A luz laser usada com monomodo possui um maior comprimento de onda que pode ser vista. O laser é tão forte que pode causar sérios danos aos olhos. Jamais olhe na extremidade próxima de uma fibra que está ligada a um dispositivo na extremidade distante. Jamais olhe na porta de transmissão na placa de rede, switch ou roteador. Lembre-se de manter capas protetoras nas extremidades da fibra e inseridas nas portas da fibra óptica dos switches e roteadores. Tenha muita cautela. A Figura abaixo compara os tamanhos relativos do núcleo e do revestimento interno para os dois tipos de fibra óptica em diferentes vistas em secção. O núcleo da fibra menor e mais refinado em uma fibra monomodo é a razão porque a monomodo possui uma largura de banda e um lance de distância do cabo maior que a fibra multímodo. entretanto, isto significa maiores custos de fabricação. 3.2.8 Outros componentes óticos Muitos dos dados enviados através de rede local são na forma de sinais elétricos. Porém, os links de fibra óptica usam luz para enviar dados. É necessária alguma coisa para converter a eletricidade em luz e na outra extremidade da fibra converter a luz de volta em eletricidade. Isto significa que são necessários um transmissor e um receptor.
    • Cisco CCNA 3.1 107 O transmissor recebe os dados a serem transmitidos a partir de switches e roteadores. Estes dados são na forma de sinais elétricos. O transmissor converte os sinais eletrônicos em pulsos de luz equivalentes. Existem dois tipos de fontes de luz usados para codificar e transmitir os dados através de cabo: • Um diodo emissor de luz (LED) produzindo luz infravermelha com comprimentos de onda de 850 nm ou 1310 nm. Estes são usados com fibras multimodo nas redes locais. As lentes são usadas para focalizar a luz infravermelha na extremidade da fibra. • Light Amplification by Stimulated Emission Radiation (LASER) é uma fonte de luz que produz um feixe fino de luz infravermelha intensa geralmente com comprimentos de ondas de 1310 nm ou 1550 nm. Os lasers são usados com fibras monomodo para longas distâncias involvidas em WANs ou backbones de campus. Deve-se ter muito cuidado para evitar ferimentos às vistas. Cada uma dessas fontes de luz podem ser iluminadas e escurecidas muito rapidamente para enviar dados (1s e 0s) a um grande número de bits por segundo. Na outra extremidade da fibra óptica do transmissor está o receptor. O receptor funciona mais ou menos como uma célula fotoelétrica em uma calculadora que usa energia solar. Quando a luz atinge o receptor, ele produz eletricidade. A primeira tarefa do receptor é detectar um pulso de luz que vem da fibra. Depois o receptor converte o pulso de luz de volta ao seu sinal elétrico original que entrou primeiro no transmissor na extremidade distante da fibra. Agora o sinal está de volta na forma de alterações de voltagem. O sinal está pronto para ser enviado através do fio de cobre a qualquer dispositivo eletrônico receptor como um computador, switch ou roteador. Os dispositivos semicondutores que são geralmente usados como receptores com links de fibra óptica são chamados diodos p-intrínseco-n (fotodiodos PIN ). Os fotodiodos PIN são fabricados para ter sensibilidade a 850, 1310 ou 1550 nm de luz que são geradas pelo transmissor na extremidade distante da fibra. Quando atingido por um pulso de luz ao comprimento de onda correto, o fotodiodo PIN produz rapidamente uma corrente elétrica da voltagem correta para a rede. Ele imediatamente pára de produzir a voltagem assim que a luz atinge o fotodiodo PIN. Assim é gerada uma alteração de voltagem que representa os dados 1s e 0s no cabo de cobre.
    • Cisco CCNA 3.1 108 Os conectores são ligados às extremidades da fibra para que as fibras possam ser conectadas às portas no transmissor e receptor. O tipo de conector mais comumente usado com a fibra monomodo é o SC (Conector de Assinante). Na fibra monomodo, o conector ST (Straight Tip) é usado freqüentemente. Além de transmissores, receptores, conectores e fibras que são sempre necessárias em uma rede óptica, repetidores e fibras patch panel são vistas com freqüência. Os repetidores são amplificadores ópticos que recebem pulsos de luz atenuados que são propagados a longas distâncias e que os restauram às suas formas, intensidades e temporizações originais. Os sinais restaurados podem então ser enviados até o receptor na extremidade distante da fibra. As fibras patch panels são semelhantes aos patch panels usados com o cabo de cobre. Esses painéis aumentam a flexibilidade de uma rede óptica ao permitir alterações rápidas na conexão dos dispositivos como switches ou roteadores com vários lances de fibra disponíveis, ou links de cabos. 3.2.9 Sinais e ruídos em fibras óticas O cabo de fibra óptica não é afetado pela fonte de ruído externo que causa problemas nos meios de cobre porque a luz externa não pode entrar na fibra exceto na extremidade do transmissor. O revestimento interno é coberto por um buffer e um revestimento externo, que impedem que a luz entre ou saia do cabo.
    • Cisco CCNA 3.1 109 Além disso, a transmissão da luz em uma fibra em um cabo não gera interferência que afeta a transmissão em qualquer outra fibra. Isto quer dizer que a fibra não tem problema com diafonia o que ocorre com meios de cobre. Aliás, a qualidade dos links de fibra óptica é tão boa que os padrões recentes para gigabit e dez gigabit Ethernet especificam a distância de transmissão que ultrapassa o alcance tradicional de dois quilômetros da Ethernet original. A transmissão de fibra óptica permite que o protocolo Ethernet possa ser usado nas Redes de Áreas Metropolitanas (MANs) e Redes de Longa Distância (WANs). Apesar de que a fibra é a melhor de todos os meios de transmissão no transporte de grandes quantidades de dados por longas distâncias, a fibra não está isenta de problemas. Quando a luz se propaga através da fibra, alguma da energia da luz é perdida. Quanto mais longe o sinal de luz se propaga através da fibra, mais é perdida a intensidade do sinal. Esta atenuação do sinal ocorre devido a vários fatores relacionados à natureza da fibra propriamente dita. O fator mais importante é a dispersão. A dispersão da luz na fibra é causada pela falta de uniformidade microscópica (distorções) na fibra que reflete e dispersa um pouco da energia da luz. A absorção é outra casa da perda de energia da luz. Quando um raio de luz atinge algum tipo de impureza química em uma fibra, as impurezas absorvem parte da energia. Esta energia da luz é convertida em pequenas quantidades de energia térmica. A absorção faz com que o sinal da luz perca um pouco da sua intensidade. Outro fator que causa a atenuação do sinal da luz são irregularidades de fabricação ou aspereza no limite entre o núcleo e o revestimento interno. Certa intensidade do sinal da luz é perdida devido à reflexão interna total imperfeita naquela área áspera da fibra. Quaisquer imperfeições microscópicas na espessura ou simetria da fibra diminuirão a reflexão interna total e o revestimento interno absorverá um pouco da energia da luz. A dispersão de um lampejo de luz também limita as distâncias de transmissão em uma fibra. Dispersão é o termo técnico para a dissipação de pulsos de luz ao se propagarem através da fibra. A fibra multímodo de índice gradual é desenhada para compensar pelas diferentes distâncias que vários modos de luz precisam se propagar no núcleo de diâmetro grande. A fibra monomodo não tem problemas de caminhos múltiplos que o sinal da luz pode seguir. Entretanto, a dispersão cromática é uma característica de ambas as fibras multímodo e monomodo. A dispersão é causada quando comprimentos de ondas de luz se propagam a velocidades um pouco diferentes de outros comprimentos de ondas
    • Cisco CCNA 3.1 110 através de vidro. Isto é porque um prisma separa os comprimentos de ondas da luz. Idealmente, uma fonte de luz LED ou Laser emitiria luz de uma só freqüência. Então a dispersão cromática não seria um problema. Infelizmente, os lasers, e especialmente os LEDs geram uma faixa de comprimentos de onda que faz com que a dispersão cromática limite a distância que pode ser transmitida em uma fibra. Se um sinal é transmitido para muito longe, o que começou como um pulso brilhante de energia da luz será espalhado, separado e diminuído ao chegar até o receptor. O receptor não será capaz de distinguir a diferença entre um e um zero. 3.2.10 Instalação, cuidados e testes de fibras óticas
    • 111 A maior causa de muita atenuação no cabo de fibra óptica é instalação incorreta. Se a fibra for esticada ou curvada demais, poderá causar pequenas rachaduras no núcleo o que fará com que os raios de luz se espalhem. O ato de dobrar a fibra em curva muito fechada poderá alterar a incidência dos raios de luz atingindo o limite entre o núcleo e o revestimento interno. Então o ângulo de incidência do raio se tornará menos que o ângulo crítico para a reflexão interna total. Em vez de refletir ao redor da curva, alguns dos raios de luz serão refratados no revestimento interno e serão perdidos. Para evitar que as curvas da fibra sejam muito fechadas, a fibra geralmente é puxada através de um 4tipo de duto instalado chamado interducting. O interducting é muito mais rígido que a fibra e não pode ser dobrado tanto que a fibra dentro dele tenha uma curva muito fechada. O interducting protege a fibra, facilita o puxamento da fibra, e garante que o raio de curvatura (limite de curva) da fibra não seja excedida. Depois de puxada a fibra, as extremidades da fibra devem ser clivadas (cortadas) e corretamente polidas para garantir que as extremidades estejam lisas. Um microscópio ou instrumento de teste com uma lente de aumento incorporada é usado para Cisco CCNA 3.1
    • Cisco CCNA 3.1 112 examinar a extremidade da fibra e verificar se está corretamente polida e formada. Depois então o conector é ligado cuidadosamente à extremidade da fibra. Os conectores incorretamente instalados, incorretamente emendados ou a emenda de dois cabos com diferentes tamanhos de núcleo reduzirá dramaticamente a luminosidade do sinal da luz. Uma vez instalados os conectores e o cabo de fibra óptica, os conectores e as extremidades das fibras devem ser mantidas impecavelmente limpas. As extremidades das fibras deverão ser cobertas com capas protetoras para evitar danos às extremidades da fibra. Quando essas capas são removidas antes da conexão da fibra a uma porta no switch ou roteador, as extremidades da fibra deverão ser limpas. Limpe as extremidades da fibra com papel de limpar lentes que não solte fiapo umedecido com álcool isopropil. As portas da fibra em um switch ou roteador deverão também ser mantida coberta quando não estiverem sendo usadas e devem ser limpas com papel de limpar lentes e álcool isopropil antes de se fazer a conexão. Extremidades sujas na fibra causarão uma grande queda na quantidade de luz que chega até o receptor. A difusão, a absorção, a dispersão, instalações incorretas e extremidades de fibra sujas diminuem a intensidade do sinal da luz e são conhecidas como ruído da fibra. Antes de usar um cabo de fibra óptica, ele deve ser testado para garantir que luz suficiente na realidade chega até o receptor para que possa detectar os zeros e uns no sinal. Quando se planeja um link de fibra óptica, deve-se calcular o nível de perda de potência do sinal que pode ser tolerado. Isto é conhecido como budget de perda de link óptico. Imagine um orçamento financeiro mensal. Depois que todas as despesas foram subtraídas da renda inicial, deve-se deixar dinheiro suficiente para se sobreviver durante o restante do mês. O decibel (dB) é a unidade usada para medir o nível de perda de potência. Ele indica qual a percentagem de potência que sai do transmissor na realidade entra no receptor.
    • Cisco CCNA 3.1 113 Fazer testes de links de fibras é extremamente importante e deve-se manter um registro dos resultados de tais testes. São utilizados vários tipos de equipamentos de teste de fibra óptica. Dois dos instrumentos mais importantes são Medidores de Perda Óptica e Reflectômetros Ópticos no Domínio do Tempo (OTDRs). Estes dois medidores testam o cabo óptico para garantir que os cabos satisfazem os padrões TIA para fibras. Eles também testam para verificar que a perda de potência não caia abaixo do budget de perda de link óptico. Os OTDRs podem oferecer maiores informações detalhadas de diagnóstico sobre um link de fibra. Quando surgirem problemas de link, eles poderão ser usados para solucioná-los.
    • Cisco CCNA 3.1 114 3.3 Meios Ópticos 3.3.1 Padrões e Organizações de Redes Locais sem Fio Um entendimento dos regulamentos e padrões que se aplicam à tecnologia sem-fio garantirá que as redes implantadas serão interoperáveis e em conformidade com padrões. Da mesma forma que em redes cabeadas, IEEE é o principal originador dos padrões para redes sem-fio. Os padrões foram criados dentro do quadro de regulamentações criadas pela Federal Communications Commission (FCC). Padrões de Redes Locais Wireless Uma tecnologia chave contida dentro do padrão 802.11 é Direct Sequence Spread Spectrum (DSSS). O DSSS se aplica aos dispositivos sem-fio operando dentro da faixa de 1 a 2 Mbps. Um sistema DSSS pode operar a até 11 Mbps mas não será considerado em cumprimento acima de 2 Mbps. O próximo padrão aprovado foi o 802.11b, que aumentou as capacidades de transmissão para 11 Mbp. Apesar de que as WLANs DSSS eram capazes de interoperar com as WLANs Frequency Hopping Spread Spectrum (FHSS), surgiram problemas que motivaram modificações no design pelos fabricantes. Neste caso, a tarefa do IEEE era simplesmente criar um padrão que coincidisse com a solução do fabricante. O 802.11b pode também ser chamado Wi-Fi™ ou sem-fio de alta velocidade e se refere aos sistemas DSSS que operam a 1, 2, 5.5 e 11 Mbps. Todos os sistemas 802.11b são retro-compatíveis, dado que também suportam 802.11 para as taxas de dados de 1 e 2 Mbps só para DSSS. Esta retro-compatibilidade é extremamente importante pois permite a atualização da rede sem-fio sem precisar repor as placas de rede ou pontos de acesso. Os dispositivos 802.11b podem alcançar uma alta taxa de throughput de dados ao usar uma técnica de codificação diferente do 802.11, permitindo que uma maior quantidade de dados seja transferida durante o mesmo período de tempo. A grande maioria dos dispositivos de 802.11b ainda não chega ao throughput de 11 Mbps e geralmente funciona na faixa de 2 a 4 Mbps. 802.11a cobre os dispositivos WLAN que operam na banda de transmissão 5 GHZ A utilização da faixa de 5 GHZ impede a interoperabilidade dos dispositivos 802.11b, dado que operam dentro de 2,4 GHZ. O 802.11a é capaz de fornecer throughput de dados de 54 Mbps e com a tecnologia proprietária conhecida como "velocidade dupla" alcançou 108 Mbps. Nas redes práticas, um regime mais padrão é de 20 a 26 Mbps. O 802.11g oferece a mesma largura de banda do 802.11a com retro-compatibilidade para os dispositivos 802.11b usando a tecnologia de modulação Othogonal Frequency Division Multiplexing (OFDM). Cisco desenvolveu um ponto de acesso que permite que os dispositivos 802.11b e 802.11a coexistam na mesma WLAN. O ponto de acesso fornece serviços de gateway permitindo que esses dispositivos, normalmente incompatíveis, se comuniquem.
    • Cisco CCNA 3.1 115 3.3.2 Topologias e Dispositivos Sem Fio Uma rede sem-fio pode consistir em um mínimo de dois dispositivos. – Os nós podem ser simplesmente estações de trabalho desktop ou computadores notebook. Com a disponibilidade de placas de rede sem-fio, uma rede improvisada poderia ser estabelecida que competisse com qualquer rede ponto-a-ponto cabeadas. Ambos os dispositivos agem como servidores e clientes neste ambiente. Embora ele proporcione conectividade, a segurança é mínima, como é o caso também do throughput. Outro problema com este tipo de rede é a compatibilidade. Muitas vezes as placas de redes de diferentes fabricantes não são compatíveis. Para resolver o problema de compatibilidade, um ponto de acesso (AP) é comumente instalado para agir como hub central para o modo de infra-estrutura da WLAN. O AP é ligado através de fios à rede local cabeada para fornecer acesso à Internet e conectividade à rede cabeada. Os APs são equipados com antenas e fornecem conectividade sem-fio através de uma determinada área conhecida como célula.
    • Cisco CCNA 3.1 116 Dependendo da composição estrutural do local onde é instalado o AP e o tamanho e o ganho da antena, o tamanho da célula poderá variar em muito. Na maioria dos casos, a faixa será entre 91,44 a 152,4 metros (300 a 500 pés). Para atender maiores áreas, podem ser instalados múltiplos pontos de acesso com um certo grau de sobreposição. A sobreposição permite roaming entre as células. Isto é bem semelhante aos serviços fornecidos pelas companhias de telefones celulares. A sobreposição, em redes AP múltiplas, é crítica para permitir o movimento dos dispositivos dentro da WLAN. Apesar de não estar mencionado nos padrões IEEE, uma sobreposição de 20 a 30% é desejável. Essa taxa de sobreposição permitirá o roaming entre as células, possibilita a atividade de desconexão e re-conexão transparente sem nenhuma interrupção nos serviços. Quando um cliente é ativado dentro da WLAN, será iniciada uma "escuta" por um dispositivo compatível com o qual se "associar". Isto é conhecido como varredura e pode ser ativo ou passivo. A varredura ativa faz com que uma solicitação de sonda seja enviada do nó sem-fio que procura ligar-se à rede. A solicitação de sonda conterá o Service Set Identifier (SSID) da rede à qual deseja ligar-se. Quando é encontrado um AP com o mesmo SSID, o AP publicará uma resposta à sonda. Estão concluídas as etapas de autenticação e associação. Os nós passivos de varredura procuram quadros de gerenciamento de beacon (beacons), os quais são transmitidos pelo AP (modo infra-estrutura) ou por nós de ponto (improvisados). Quando um nó recebe um beacon que contém o SSID da rede à qual está tentando ligar-se, é feita uma tentativa para a ligação à rede. A varredura passiva é um processo contínuo e os nós podem se associar ou desassociar com APs cnforme vai mudando a intensidade do sinal. 3.3.3 Como as redes locais sem fio se comunicam
    • Cisco CCNA 3.1 117 Depois de estabelecer a conectividade a WLAN, um nó passará quadros da mesma maneira como em qualquer outra rede 802.x. As WLANs não utilizam um quadro padrão 802.3. Desta maneira, usar o termo Ethernet sem-fio dá a impressão errada. Existem três tipos de quadros: de controle, de gerenciamento e de dados. Somente o tipo de quadro de dados é semelhante aos quadros 802.3. O payload dos quadros sem-fio e 802.3 é 1500 bytes; porém, um quadro Ethernet não pode exceder 1518 bytes enquanto que um quadro sem-fio pode chegar até 2346 bytes. Geralmente o tamanho do quadro da WLAN será limitado a 1518 bytes pois na maioria dos casos é conectado a uma rede Ethernet cabeada. Já que a radiofreqüência (RF) é um meio compartilhado, podem ocorrer colisões da mesma maneira que acontecem nos meios compartilhados cabeados. A diferença maior é que não há nenhum método pelo qual o nó da fonte seja capaz de detectar que ocorreu uma colisão. Por esta razão as WLANs usam a Detecção de Portadora para Múltiplo Acesso com Prevenção de Colisões (CSMA/CA). Isto é mais ou menos como a CSMA/CD do Ethernet. Quando um nó da fonte envia um quadro, o nó receptor retorna uma confirmação positiva (ACK). Isto pode causar um consumo de 50% da largura de banda disponível. Estes custos adicionais, quando combinados com os custos adicionais do protocolo de prevenção de colisões, reduzem o throughput efetivo de dados até um máximo de entre 5,0 e 5,5 Mbps numa rede local sem-fio 802.11b com regime de 11 Mbps. O desempenho na rede será afetado também pela intensidade do sinal e pela degradação da qualidade do sinal devido à distância ou interferência. À medida que o sinal se enfraqueça, poderá ser invocada a ARS (Adaptive Rate Selection). A unidade transmissora reduzirá a velocidade dos dados de 11 Mbps até 5,5 Mbps, de 5,5 Mbps até 2 Mbps ou de 2 Mbps até 1 Mbps. 3.3.4 Autenticação e associação
    • Cisco CCNA 3.1 118 A autenticação na WLAN ocorre na Camada 2. Este é um processo de autenticação do dispositivo e não do usuário. É crítico lembrar-se disso ao considerar a segurança, a resolução de problemas e o gerenciamento geral de uma WLAN. A autenticação pode ser até um processo nulo, como é o caso de um novo AP e placa de rede com a configuração padrão estabelecida. O cliente enviará um quadro de pedido de autenticação até o AP e o quadro será aceito ou rejeitado pelo AP. O cliente é notificado sobre a resposta por meio de um quadro de resposta de autenticação. O AP também poderá ser configurado para fazer o handoff da tarefa de autenticação a um servidor de autenticação, que realizaria um processo mais pormenorizado do credenciamento. A associação, realizada após a autenticação, é a condição que permite que um cliente use os serviços do AP para transferir dados. Tipos de Autenticação e Associação • Não autenticado e não associado • O nó está desconectado da rede e não associado a um ponto de acesso. • Autenticado e não associado • O nó foi autenticado na rede mas ainda não foi associado a um ponto de acesso. • Autenticado e associado • O nó está conectado à rede e permitido a transmitir e receber dados através de um ponto de acesso. Métodos de autenticação. IEEE 802.11 admite dois tipos de processos de autenticação O primeiro processo de autenticação é o sistema aberto. Este é um padrão de conectividade aberta no qual é só necessário que o SSID corresponda. Pode ser utilizado num ambiente seguro ou não seguro embora seja alta a capacidade dos "sniffers" de baixo nível na rede de descobrir a SSID da WLAN. O segundo processo é a chave compartilhada. Este processo exige o uso de criptografia WEP (Wireless Equivalency Protocol). A criptografia WEP é um algoritmo relativamente simples usando chaves de 64 e 128 bits. O AP é configurado com uma chave criptografada e os nós que tentam acessar a rede através do AP precisam ter uma chave correspondente. Chaves WEP estaticamente designadas providenciam um nível mais alto de segurança que os sistemas abertos mas certamente não são "imunes aos hackers". O problema da entrada não autorizada nas WLANs está sendo abordado por várias novas tecnologias de soluções de segurança. 3.3.5 Os espectros de radiofreqüência e microondas
    • Cisco CCNA 3.1 119 Os computadores enviam sinais de dados eletronicamente. As transmissoras de rádio convertem estes sinais elétricos em ondas de rádio. As alterações da corrente na antena de uma transmissora gera ondas de rádio. Estas ondas de rádio irradiam em linhas retas da antena. No entanto, as ondas de rádio são atenuadas à medida que vão se afastando da antena de transmissão. Numa WLAN, os sinais de rádio, medidos a uma distância de apenas 10 metros (30 pés) da antena de transmissão teriam somente um centésimo da sua intensidade original. Como a luz, as ondas de rádio podem ser absolvidas por certos materiais e refletidas por outros. Ao passarem de uma substância, como o ar, para outra substância, como uma parede de alvenaria, as ondas de rádio são refratadas. As ondas de rádio também são espalhadas e absorvidas por gotículas de água no ar. É importante lembrar-se destas qualidades das ondas de rádio ao planejar uma WLAN para um edifício ou cidade universitária. O processo de avaliação de um local para a instalação de uma WLAN é conhecido como Pesquisa do Local. Porque os sinais de rádio se enfraquecem à medida que se desloquem da transmissora, o receptor também precisa estar munido de antena. Quando as ondas de rádio intersectam a antena do receptor, minúsculas correntes são geradas nessa antena. Estas correntes elétricas, causadas pelas ondas de rádio recebidas, são iguais às correntes que originalmente geraram as ondas de rádio na antena da transmissora. O receptor amplifica a intensidade destes minúsculos sinais elétricos. Numa transmissora, os sinais elétricos (de dados) de um computador ou rede local não são enviados diretamente à antena da transmissora. Antes, estes sinais de dados são usados para alterar um segundo sinal mais forte, denominado sinal portador.
    • Cisco CCNA 3.1 120 O processo de alterar o sinal portador que irá entrar na antena de uma transmissora chama-se modulação. Há basicamente três maneiras em que um sinal portador pode ser modulado. Por exemplo, as estações de rádio de Amplitude Modulada (AM) modulam a altura (amplitude) do sinal portador. As estações de rádio de Freqüência Modulada (FM) modulam a freqüência do sinal portador, conforme determinado pelo sinal elétrico proveniente do microfone. Nas WLANs, um terceiro tipo de modulação, denominada fase modulada, é utilizado para sobrepor o sinal de dados no sinal portador que por sua vez é transmitido pela transmissora. Neste tipo de modulação, os bits de dados do sinal elétrico modificam a fase do sinal portador. Um receptor desmodula o sinal portador que chega da antena. O receptor interpreta as mudanças de fase do sinal portador e reconstrói dele o sinal elétrico original dos dados. 3.3.6 Sinais e ruído em uma WLan
    • Cisco CCNA 3.1 121 Em uma rede Ethernet cabeada, é normalmente um processo simples diagnosticar a causa de interferências. Ao utilizar a tecnologia de radiofreqüência, vários tipos de interferência precisam ser considerados. A interferência de banda estreita é o contrário da tecnologia de espectro espalhado. Como o nome implica, a interferência de banda estreita não afeta todo o espectro de freqüências do sinal sem-fio. Uma solução para um problema de interferência de banda estreita é simplesmente mudar de canal sendo usado pelo AP. O efetivo diagnóstico da causa de uma interferência de banda estreita pode ser uma experiência muito cara e demorada. A identificação da fonte exige um analisador de espectro e mesmo um modelo econômico é relativamente caro. A interferência em todas as bandas afeta todo o espectro. As tecnologias da Bluetooth™ pula de ponta a ponta dos 2,4 GHz muitas vezes cada segundo e pode causar um altíssimo nível de interferência em uma rede 802.11b. Não é raro ver letreiros nas instalações que usam redes sem-fio pedindo que todos os dispositivos Bluetooth™ sejam desligados antes de entrar. Nas casas e nos escritórios, um dispositivo freqüentemente esquecido como fonte de interferência é o forno de microondas comum. Um vazamento de microondas a um nível de um só watt no espectro de radiofreqüência pode causar graves problemas na rede. Os telefones sem-fio que operam no espectro de 2,4 GHz também podem causar distúrbios na rede. Geralmente, o sinal RF não será afetado mesmo pelas condições climáticas mais violentas. No entanto, a neblina ou condições de umidade muito alta pode afetar, e de fato afetam, as redes sem-fio. Os relâmpagos podem alterar a atmosfera e alterar o caminho de um sinal transmitido. A primeira e mais obvia fonte de problemas com os sinais é a estação transmissora e o tipo de antena. Uma estação com maior potência de saída transmitirá o sinal mais longe e uma antena parabólica que concentra o sinal aumentará o alcance da transmissão. Em um ambiente de escritório pequeno ou domiciliar (SOHO), a maioria dos pontos de acesso utiliza antenas onidirecionais geminadas que transmitem os sinais em todas as direções, reduzindo assim o alcance das comunicações. 3.3.7 Segurança para sem fio
    • Cisco CCNA 3.1 122 Como já foi estudada neste capítulo, a segurança pode ser difícil de conseguir em um sistema sem-fio. Onde existem redes sem-fio, há pouca segurança. Isto vem sendo um problema desde os primeiros dias das WLANs. Atualmente, muitos administradores estão falhos na implementação de práticas eficazes de segurança. Vão surgindo várias novas soluções e protocolos de segurança, tais como Virtual Private Networking (VPN) e Extensible Authorization Protocol (EAP). Com o EAP, o ponto de acesso não proporciona autenticação ao cliente, mas passa esta tarefa para um dispositivo mais sofisticado, possivelmente um servidor dedicado e projetado para esse propósito. A utilização de uma tecnologia VPN de servidor integrado cria um túnel por cima de um protocolo já existente, tal como IP. Esta é uma conexão de Camada 3 e não uma conexão de Camada 2 entre o AP e o nó emissor. • EAP-MD5-Challenge – O Extensible Authentication Protocol é o tipo mais antigo de autenticação, que é muito semelhante à proteção CHAP por senha em uma rede cabeada. • LEAP (Cisco) – O Lightweight Extensible Authentication Protocol é o tipo mais universalmente usado nos pontos de acesso WLAN da Cisco. O LEAP oferece segurança durante a troca de credenciais, criptografia com chaves WEP dinâmicas, e suporte à autenticação mútua. • Autenticação dos usuários – Este permite que só os usuários autorizados façam conexão, enviem e recebam dados sobre a rede sem-fio. • Criptografia – Esta oferece serviços de criptografia para proteger ainda mais os dados contra intrusos. • Autenticação de dados – Esta garante a integridade dos dados ao autenticar tanto o dispositivo de origem como o de destino. A tecnologia VPN efetivamente fecha a rede sem-fio já que uma WLAN irrestrita irá automaticamente encaminhar o tráfego entre nós que parecem estar na mesma rede sem-fio. As WLANs freqüentemente estendem além dos perímetros da casa ou escritório em que estão instaladas e, sem segurança, os intrusos podem infiltrar na rede com pouco esforço. Por outro lado, um mínimo de esforço por parte do administrador da rede poderá providenciar para a WLAN uma segurança de baixo nível.
    • Cisco CCNA 3.1 123 Resumo Capítulo 03 Deve ter sido obtido um entendimento dos seguintes conceitos importantes: • Toda matéria é composta de átomos, e as três partes principais dos átomos são: prótons, nêutrons e elétrons. Os prótons e nêutrons encontram-se na parte central (núcleo) do átomo. • A descarga eletrostática (ESD) pode criar graves problemas para os equipamentos eletrônicos sensíveis. • A atenuação se refere à resistência ao fluxo de elétrons e porque um sinal se torna degradado ao propagar-se. • A corrente flui em laços fechados denominados circuitos, os quais precisam ser compostos de material condutor e precisam de uma fonte de voltagem. • Um multímetro é usado para medir voltagem, corrente, resistência e outras quantidades expressas de forma numérica. • Três tipos de cabos de cobre utilizados nas redes são: direto, cruzado e rollover • O cabo coaxial consiste em um condutor cilíndrico externo, oco, que circunda um só fio condutor interno. • O cabo UTP é um meio de quatro pares de fios usado em uma variedade de redes. • O cabo STP combina as técnicas de blindagem, cancelamento e trançamento de fios. • A fibra óptica é um meio de transmissão muito bom quando corretamente instalada, testada e mantida. • A energia da luz, um tipo de onda de energia eletromagnética, é usada para transmitir grandes quantidades de dados de maneira segura a distâncias relativamente grandes. • O sinal de luz, transmitido por uma fibra, é produzida por uma transmissora que converte um sinal elétrico em sinal de luz. • A luz que chega à extremidade distante do cabo é convertida novamente pelo receptor no sinal elétrico original. • As fibras são usadas em pares para providenciar comunicações full duplex. • Os raios de luz obedecem às leis de reflexão e refração ao propagar-se através da fibra de vidro, fato que permite a fabricação de fibras com a propriedade de reflexão interna total. • A reflexão interna total faz com que os sinais de luz permaneçam dentro da fibra, mesmo que esta não esteja em linha reta. • A atenuação de um sinal de luz se torna problemática em cabos longos, especialmente se seções do cabo são conectadas em patch panels ou emendadas. • Os cabos e conectores precisam ser corretamente instalados e completamente testados com equipamentos de testes ópticos de alta qualidade antes de serem utilizados. • Os links de cabos precisam ser testados periodicamente com instrumentos de testes ópticos de alta qualidade para determinar se o link tenha de alguma maneira deteriorado.
    • Cisco CCNA 3.1 124 • Sempre se deve tomar cuidado para proteger os olhos quando da utilização de fontes de luz forte como lasers. • Um entendimento dos regulamentos e padrões que se aplicam à tecnologia sem-fio garantirá que as redes implantadas serão interoperáveis e em cumprimento dos padrões. • Problemas de compatibilidade das placas de rede são resolvidos pela instalação de um ponto de acesso (AP) para agir como hub central da WLAN. • Três tipos de quadros são usados nas comunicações sem-fio: de controle, de gerenciamento e de dados. • As WLANs usam a Detecção de Portadora para Múltiplo Acesso com Prevenção de Colisões (CSMA/CA). • A autenticação em WLAN é um processo que autentica o dispositivo e não o usuário.
    • Cisco CCNA 3.1 124 Capítulo 04: Teste de Cabos
    • Cisco CCNA 3.1 125 Visão Geral Capítulo 04 Os meios físicos de uma rede são literalmente a espinha dorsal dela. A qualidade inferior de cabeamento de rede causa falhas na rede e desempenho não confiável. Os meios físicos de uma rede de cobre, de fibra ótica e wireless exigem testes para garantir que eles estão de acordo com as orientações específicas estritas. Estes testes envolvem certos conceitos matemáticos e elétricos e termos como sinal, onda, freqüência e ruído. É útil entender este vocabulário quando estiver estudando sobre redes, cabeamento e testes de cabos. A meta desta primeira lição neste módulo é fornecer algumas definições para que os conceitos de testes de cabos sejam mais bem entendidos quando forem apresentados na segunda lição. A segunda lição deste módulo descreve as questões relacionadas aos meios de testes usados para a conectividade de camada física nas redes locais (LANs). Para que a rede local possa funcionar corretamente, o meio da camada física deve satisfazer as especificações padrão da indústria. A atenuação, que é a deteriorização do sinal, e o ruído, que é a interferência no sinal, podem causar problemas nas redes, pois os dados enviados podem ser interpretados incorretamente ou não serem reconhecidos ao serem recebidos. A terminação apropriada dos conectores de cabos e a instalação correta dos cabos são fatores importantes. Se forem seguidos os padrões durante instalações, reparos e mudanças, a atenuação e os níveis de ruído deveriam ser minimizados. Depois de terminada a instalação do cabo, um testador de certificação de cabo pode verificar se a instalação está de acordo as especificações TIA/EIA. Este módulo descreve também os vários testes importantes que são realizados. Os alunos, ao concluírem esta lição, deverão poder: • Diferenciar entre ondas senoidais e ondas quadradas. • Definir e calcular expoentes e logaritmos. • Definir e calcular decibéis. • Definir a terminologia básica com relação ao tempo, freqüência e ruído. • Diferenciar entre a largura de banda digital e a analógica. • Comparar e contrastar os níveis de ruído em vários tipos de cabeamento. • Definir e descrever os efeitos da atenuação e da diferença (mismatch) de impedância. • Definir diafonia, diafonia próxima, diafonia distante, e soma das potências da diafonia próxima (PSNEXT). • Descrever como os pares trançados ajudam na redução de ruídos. • Descrever os dez testes de cabos de cobre definidos em TIA/EIA-568-b. • Descrever as diferenças entre cabos Categoria 5 e cabos Categoria 6.
    • Cisco CCNA 3.1 126 4.1 Fundamentos para o Estudo de Testes de Cabos Baseados em Freqüência 4.1.1 Ondas Uma onda é energia que se propaga de um lugar para outro. Existem vários tipos de ondas, mas todos podem ser descritos com um vocabulário semelhante. Pode ajudar se pensamos em ondas como sendo distúrbios. Um balde de água que está completamente parado não tem ondas, porque não existem distúrbios. Por outro lado, o oceano sempre tem algumas ondas detectáveis devido a distúrbios como o vento e a maré. As ondas do oceano podem ser descritas em termos de sua altura ou amplitude, que pode ser medida em metros. Elas podem também ser descritas em termos de quão freqüentemente chegam até a praia, usando período e freqüência. O período das ondas é o período de tempo entre cada onda, medido em segundos. A freqüência é o número de ondas que chegam até a praia cada segundo, medida em Hertz. Um Hertz equivale a uma onda por Segundo, ou um ciclo por segundo. Experimente com estes conceitos ajustando a amplitude a freqüência na Figura abaixo. Os profissionais de rede estão especificamente interessados nas ondas de voltagem nos meios de cobre, ondas de luz em fibras óticas, e campos magnéticos e elétricos alternados conhecidos como ondas eletromagnéticas. A amplitude de um sinal elétrico ainda representa altura, mas é medida em volts (V) em vez de metros (M). O período é o período de tempo para completar um ciclo, medido em segundos. A freqüência é o número de ciclos completos por segundo, medidos em Hertz. Se um distúrbio é causado de propósito, e envolve uma duração prevista e fixa, é conhecido como um pulso. Os pulsos são uma parte importante dos sinais elétricos, pois eles são a base da transmissão digital. O padrão dos pulsos representam o valor dos dados sendo transmitidos.
    • Cisco CCNA 3.1 127 4.1.2 Ondas Senoidais e Ondas Quadradas As ondas senoidais, ou sinusóides são gráficos de funções matemáticas. Sinais Analógicos As ondas senoidais possuem certas características. As ondas senoidais são periódicas, o que quer dizer que repetem o mesmo padrão em intervalos regulares. As ondas variam continuamente, o que quer dizer que dois pontos adjacentes no gráfico nunca terão o mesmo valor. As ondas senoidais são representações gráficas de muitas ocorrências naturais que variam regularmente através do tempo. Alguns exemplos dessas ocorrências são à distância da terra até o sol, a distância do chão enquanto girando em uma roda gigante, e a hora do dia quando nasce o sol. Já que as ondas senoidais variam continuamente, elas são exemplos de ondas analógicas. As ondas quadradas, como as ondas senoidais, são periódicas. Sinais Digitais No entanto, os gráficos das ondas quadradas não variam continuamente com o tempo. A onda mantém um valor durante algum tempo, e depois muda repentinamente para um valor diferente. Este valor é mantido por algum tempo, e depois muda rapidamente de volta ao valor original. As ondas quadradas representam sinais digitais, ou pulsos. Da mesma maneira que todas as ondas, as ondas quadradas podem ser descritas em termos de amplitude, período e freqüência.
    • Cisco CCNA 3.1 128 4.1.3 Exponentes e Logaritmos Em redes, existem três sistemas numéricos importantes: • Base 2: binário • Base 10: decimal • Base 16: hexadecimal Lembre-se de que a base de um sistema numérico se refere ao número de símbolos diferentes que podem ocupar uma posição. Por exemplo, os números binários têm apenas dois marcadores de lugar diferentes 0 e 1. Os números decimais têm 10 marcadores de lugar diferentes, os números 0 a 9. Os números hexadecimais possuem 16 marcadores de lugar diferentes, os números 0 a 9 e as letras A a F. Lembre-se de que 10x10 pode ser escrito como 102 .102 significa dez ao quadrado ou dez elevado à segunda potência. Quando escrito desta maneira, diz-se que 10 é a base do número e 2 é o expoente do número. 10x10x10 pode ser escrito como 103 . 103 significa dez ao cubo ou dez elevado à terceira potência. A base ainda é 10, mas o expoente agora é 3. Use a Atividade de Mídia abaixo para praticar o cálculo de expoentes. Digite x, e y será calculado, ou digite y, e x será calculado. A base do sistema numérico também se refere ao valor de cada dígito. O dígito menos significante tem um valor de base0 , ou um. O próximo dígito tem um valor de base1 . Isto é igual a 2 para números binários, 10 para números decimais e 16 para números hexadecimais. Os números com expoentes são usados para representar facilmente números muito grandes ou muito pequenos. É muito mais fácil e menos susceptível a erro representar um bilhão numericamente como 109 do que como 1000000000. Muitos cálculos envolvidos em testes de cabos envolvem números que são muito grandes, por isso a utilização de expoentes é o formato de preferência. Os expoentes podem ser explorados na atividade em flash. Uma maneira de se trabalhar com números muito grandes e muito pequenos que ocorrem nas redes é transformá-los de acordo com a regra, ou função matemática, conhecida como logaritmo. Logaritmo é abreviado como "log". Qualquer número pode ser usado como base em um sistema de logaritmos. Porém a base 10 tem muitas vantagens não obtidas cálculos comuns com outras bases. A base 10 é usada quase que exclusivamente para cálculos comuns. Logaritmos com base 10 são chamados de logaritmos comuns. Não é possível obter o logaritmo de um número negativo. Para obter o "log" de um número, use uma calculadora ou a atividade em flash. Por exemplo, o log (109 ) = 9. Pode-se também obter o logaritmo de números que não são expoentes de 10, mas não se pode obter o logaritmo de um número negativo. O estudo de logaritmos esta além do escopo deste curso. Entretanto, a terminologia é usada freqüentemente no cálculo de decibéis e nas medidas de intensidade do sinal em meios de cobre, óticos e wireless.
    • Cisco CCNA 3.1 129 4.1.4 Decibéis O decibel (dB) é uma unidade de medida importante na descrição de sinais nas redes. O decibel é relacionado aos expoentes e logaritmos descritos nas seções anteriores. Existem duas fórmulas para se calcular decibéis: dB = 10 log10 (Pfinal / Pref) dB = 20 log10 (Vfinal / Vref) As variáveis representam os seguintes valores: dB mede a perda ou ganho da potência de uma onda. Os decibéis podem ser números negativos, o que representa uma perda na potência da onda ao se propagar, ou números positivos, o que representa um ganho na potência se o sinal for amplificado. log10 sugere que o número entre parênteses será transformado usando-se a regra de logaritmo de base 10. Pfinal é a potência entregue, medida em Watts. Pref é a potência original, medida em Watts. Vfinal é a voltagem entregue, medida em Volts. Vreference é a voltagem original, medida em Volts. A primeira formula descreve os decibéis em termos de potência (P), e a segunda em termos de voltagem (V). Tipicamente, as ondas de luz em fibra ótica e as ondas de rádio no ar são medidas usando-se a fórmula de potência. As ondas eletromagnéticas em cabos de cobre são medidas usando-se a fórmula de voltagem. Essas fórmulas têm várias coisas em comum. Na fórmula dB = 10 log10 (Pfinal / Pref), entre os valores para dB e Pref para descobrir a potência entregue. Esta fórmula poderia ser usada para se ver o quanto da potência resta em uma onda de rádio depois de propagar-se a uma certa distância através de diferentes materiais, e através de vários estágios de sistemas eletrônicos como um rádio. Para estudar ainda mais sobre decibéis, experimente com os seguintes exemplos usando as atividades em flash. Se Pfinal é um microWatt (1 x 10-6 Watts) e Pref é um milliWatt (1 x 10-3 Watts), qual é o ganho ou a perda em decibéis? Este valor é positivo ou negativo? O valor representa um ganho ou perda na potência? Se a perda total de um link de fibra é 84 dB, e se a potência da fonte do laser original (Pref) é um milliWatt (1 x 10-3 Watts), quanta potência é entregue?
    • Cisco CCNA 3.1 130 Se dois microVolts (2 x 10-6 Volts) são medidos na extremidade de um cabo e a voltagem da fonte era um volt, qual é o ganho ou perda em decibéis? Este valor é positivo ou negativo? O valor representa um ganho ou perda na potência?
    • Cisco CCNA 3.1 131 4.1.5 Visualizando Sinais em Tempo e Freqüência Um dos fatos mais importante da era da informação é que os caracteres que simbolizam os dados, palavras, fotografias, vídeo ou música podem ser representados eletronicamente por padrões de voltagem nos fios e em dispositivos eletrônicos. Os dados representados por esses padrões de voltagem podem ser convertidos em ondas de luz ou de rádio, e depois de volta em ondas de voltagem. Considere o exemplo de um telefone analógico. As ondas sonoras da voz do chamador entram num microfone no telefone. O microfone converte os padrões da energia sonora em padrões de voltagem de energia elétrica que representam a voz. Se os padrões de voltagem fossem colocados em um gráfico através do tempo, os padrões distintos representando a voz seriam exibidos. Osciloscópio Um osciloscópio é um dispositivo eletrônico importante usado para visualizar sinais elétricos como as ondas e pulsos de voltagem. O eixo x no gráfico representa tempo, e o eixo y representa voltagem ou corrente. Geralmente, há duas entradas no eixo y para que duas ondas possam ser observadas e medidas ao mesmo tempo. Analisar os sinais usando um osciloscópio é conhecido como análise de domínio de tempo, pois o eixo x ou domínio da função matemática representa o tempo. Os engenheiros quando estudam os sinais também usam a análise de domínio de freqüência. Na análise de domínio de freqüência, o eixo x representa freqüência. Um dispositivo eletrônico conhecido como analisador de espectro cria gráficos para análise de domínio de freqüência. Os sinais eletromagnéticos usam diferentes freqüências para a transmissão para que os diferentes sinais não interfiram uns com os outros. Os sinais de rádio de Freqüência Modulada (FM) usam freqüências que são diferentes dos sinais de televisão ou de satélite. Quando os ouvintes mudam a estação de um rádio, estão mudando a freqüência que o rádio está recebendo.
    • Cisco CCNA 3.1 132 4.1.6 Sinais Digitais e Analógicos em Tempo e Freqüência Para poder entender as complexidades dos sinais de redes e testes de cabos, examine como os sinais analógicos variam com o tempo e com a freqüência. Primeiro considere uma onda senoidal elétrica de uma só freqüência, cuja freqüência pode ser detectada pelo ouvido humano. Se este sinal for transmitido a um alto-falante, um tom poderá ser ouvido. Depois imagine a combinação de várias ondas senoidais. Síntese de Fourier de uma Onda Quadrada A onda resultante é mais complexa que a onda senoidal pura. Podem ser ouvidos vários tons. O gráfico de vários tons mostra várias linhas individuais correspondentes às freqüências de cada tom. Finalmente, imagine um sinal complexo, como uma voz ou um instrumento musical. Se estiverem presentes vários tons diferentes, um espectro contínuo de tons individuais seria representado.
    • Cisco CCNA 3.1 133 4.1.7 Ruído em Tempo e Freqüência O ruído é um conceito importante em sistemas de comunicações, inclusive redes locais. Sinal Digital e Ruído Elétrico Já que o ruído geralmente se refere aos sons indesejáveis, os ruídos relacionados às comunicações são conhecidos como sinais indesejáveis. Os ruídos podem ser originados em fontes tecnológicas e naturais, e são acrescentados aos sinais de dados nos sistemas de comunicações. Todos os sistemas de comunicações têm um certo grau de ruído. Embora o ruído não possa ser eliminado, seus efeitos podem ser minimizados se forem entendidas as fontes do ruído. Existem muitas possíveis fontes de ruídos: • Cabos nas proximidades transportam sinais de dados. • A interferência de radiofreqüência (RFI) que é o ruído vindo de outros sinais sendo transmitidos nas proximidades. • A interferência eletromagnética (EMI), que é o ruído vindo de fontes nas proximidades como motores e luzes. • O ruído laser no transmissor ou receptor de um sinal ótico. O ruído que afeta igualmente todas as freqüências de transmissão é conhecido como ruído branco. O ruído que afeta somente pequenas faixas de freqüências é conhecido como interferência de banda estreita. Ao serem detectados em um receptor de rádio, o ruído branco interferiria com todas as estações de rádio. A interferência de banda estreita afetaria somente poucas estações cujas freqüências estão próximas umas às outras. Ao ser detectado em uma rede local, o ruído branco poderia afetar todas as transmissões de dados, mas a interferência de banda estreita poderá afetar apenas certos sinais.
    • Cisco CCNA 3.1 134 4.1.8 Largura de Banda A largura de banda é um conceito extremamente importante nos sistemas de comunicações. Para o estudo das redes locais, há duas principais maneiras de considerar a largura de banda: largura de banda analógica e largura de banda digital. Tipicamente a largura de banda analógica se refere à faixa de freqüências de um sistema eletrônico. A largura de banda analógica poderia ser usada para descrever a faixa de freqüências transmitida por uma estação de rádio ou um amplificador eletrônico. A unidade de medida para a largura de banda analógica é Hertz (Hz), mesma unidade de freqüência. A largura de banda digital mede a quantidade de informação que pode ser transferida de um lugar para o outro em um determinado período de tempo. Unidades de Largura de Banda Digital A unidade fundamental de medida para a largura de banda digital é bits por segundo (bps). Já que as redes locais são capazes de sustentar velocidades de milhares ou milhões de bits por segundo, a medida é expressa em Kbps ou Mbps. Os meios físicos, as tecnologias atuais, e as leis da física limitam a largura de banda. Durante o teste de cabos, usa-se a largura de banda analógica para determinar a largura de banda digital de um cabo de cobre. As formas de onda digitais são compostas de muitas ondas senoidais (ondas analógicas). As freqüências analógicas são transmitidas de uma extremidade e recebidas na extremidade oposta. Os dois sinais são então comparados, e é calculado o nível de atenuação do sinal. Em geral, o meio que suportará maiores larguras de banda analógicas sem alto grau de atenuação suportarão também maiores larguras de banda digitais.
    • Cisco CCNA 3.1 135 4.2 Sinais e Ruído 4.2.1 Sinalização Através de Cabeamento de Cobre e de Fibra Ótica Em cabo de cobre, os sinais de dados são representados por níveis de voltagem que representam uns e zeros binários. Os níveis de voltagem são medidos com respeito a um nível de referência de zero volts tanto na transmissora quanto no receptor. Esse nível de referência é conhecido como terra do sinal. É importante que tanto o dispositivo de transmissão como de recepção se refira ao mesmo ponto de referência de zero volt. Quando este for o caso, diz-se que estão adequadamente aterrados. Para que a rede local possa operar adequadamente, o dispositivo receptor deve ser capaz de interpretar precisamente os uns e zeros binários transmitidos como níveis de voltagem. Já que a tecnologia Ethernet atual sustenta faixas de dados de bilhões de bits por segundo, cada bit precisa ser reconhecido, mesmo que a duração do bit seja bem pequena. Isto quer dizer que o máximo possível da intensidade do sinal original precisa ser retido, conforme o sinal se propaga pelo cabo e passa através dos conectores. Em antecipação de protocolos Ethernet cada vez mais rápidos, as novas instalações de cabos devem ser feitas com os melhores cabos, conectores e dispositivos de interconexão disponíveis como blocos punchdown e patch panels. Existem dois tipos básicos de cabos de cobre: blindado e não blindado. No cabo blindado, o material de blindagem protege o sinal de dados contra fontes externas de ruído e contra o ruído gerado por sinais elétricos dentro do cabo. O cabo coaxial é um tipo de cabo blindado. Ele consiste em um condutor de cobre sólido envolto por material isolante, e depois por blindagem condutiva em malha. Em aplicações de redes locais, a blindagem de malha é eletricamente aterrada para proteger a parte interna do condutor contra ruídos elétricos externos. A blindagem também ajuda na eliminação da perda de sinais e mantém os sinais transmitidos confinados ao cabo. Isto faz com que os cabos coaxiais tenham menos ruídos que outros tipos de cabeamento de cobre, mas também os torna muito mais caros. A necessidade de se aterrar a blindagem e grande tamanho dos cabos coaxiais dificultam mais a instalação do que outro cabeamento de cobre.
    • Cisco CCNA 3.1 136 Existem dois tipos de cabos de cobre de par trançado: par trançado blindado (STP) e par trançado não blindado (UTP). Par Trançado Blindado Par Trançado não Blindado O cabo STP contém uma capa externa condutiva que é eletricamente aterrada para isolar os sinais contra qualquer ruído elétrico externo. O STP também usa blindagens metálicas internas para proteger cada par de fios contra ruídos gerados pelos outros pares. O cabo STP às vezes é chamado par trançado isolado (ScTP) erradamente. ScTP geralmente refere-se ao cabeamento de par trançado Categoria 5 ou Categoria 5e, enquanto STP refere-se a um cabo específico da IBM que contém somente dois pares de condutores. O cabo ScTP é mais caro, mais difícil de instalar e menos freqüentemente usado que o UTP. O UTP não contém blindagem e é mais susceptível aos ruídos externos, mas é mais freqüentemente usado, pois é mais barato e mais fácil de se instalar. O cabo de fibra ótica é usado para transmitir sinais de dados por meio de aumentar e abaixar a intensidade da luz para representar uns e zeros binários. A intensidade de um sinal de luz não diminui tanto quanto a intensidade de um sinal elétrico transmitido através de uma distância idêntica. Os sinais óticos não são afetados pelo ruído elétrico, e a fibra ótica não precisa ser aterrada a menos que a capa contenha um metal ou um membro de resistência metálica. Portanto, as fibras óticas são freqüentemente usadas entre edifícios e entre andares dentro do edifício. Conforme vão se abaixando os custos e vai aumentando a demanda pela velocidade, as fibras óticas poderão tornar-se os meios mais usadas em redes locais.
    • Cisco CCNA 3.1 137 4.2.2 Atenuação e Perda por Inserção em Meios de Cobre A atenuação é a redução da amplitude do sinal ao longo de um link. Longos comprimentos de cabos e altas freqüências de sinais contribuem para uma maior atenuação dos sinais. Desta maneira, a atenuação em um cabo é medida por um testador de cabos usando as mais altas freqüências indicadas para o regime do cabo. A atenuação é expressa em decibéis (dB) usando números negativos. Os valores dB negativos menores indicam um desempenho melhor do link. Existem vários fatores que contribuem para a atenuação. A resistência do cabo de cobre converte em calor um pouco da energia elétrica do sinal. A energia do sinal é também perdida quando vaza pelo isolamento do cabo e pela impedância causada por conectores defeituosos. Impedância é a medição da resistência do cabo à corrente alternada (CA) e é medida em ohms. A impedância normal, ou característica, de um cabo Cat5 é de 100 ohms. Se um conector for instalado incorretamente no Cat5, ele terá um valor de impedância diferente que o do cabo. Isto se chama descontinuidade de impedância ou uma diferença (mismatch) de impedância. As descontinuidades de impedância causam a atenuação, pois uma parte de um sinal transmitido será refletida de volta ao dispositivo transmissor ao invés de continuar até o receptor, o que é bem semelhante a um eco. Este efeito é intensificado se houver várias descontinuidades causando com que porções adicionais do sinal restante sejam refletidas de volta à transmissora. Quando esta reflexão volta e atinge a primeira descontinuidade, um pouco do sinal reflete em direção ao sinal original, criando múltiplos efeitos de ecos. Os ecos atingem o receptor a diferentes intervalos tornando difícil o receptor detectar precisamente os valores dos dados no sinal. Isto é chamado atraso do sincronismo e resulta em erros nos dados. A combinação dos efeitos da atenuação do sinal e as descontinuidades de impedância em um link de comunicações são conhecidas como perda por inserção. Uma operação adequada de rede depende de uma impedância característica constante em todos os cabos e conectores, sem descontinuidades de impedância em todo o sistema de cabos. Atenuação
    • Cisco CCNA 3.1 138 4.2.3 Fontes de Ruído nos Meios de Cobre O ruído é qualquer energia elétrica no cabo de transmissão que torna difícil ao receptor a interpretação dos dados enviados pelo transmissor. A certificação TIA/EIA-568-B de um cabo agora exige testes para uma variedade de tipos de ruídos. A diafonia envolve a transmissão de sinais de um fio até outro fio nas imediações. A energia eletromagnética é gerada quando as voltagens mudam em um fio. Esta energia é irradiada para fora desde o fio transmissor como é o caso do sinal de rádio de uma transmissora. Os fios adjacentes no cabo funcionam como antenas, recebendo a energia transmitida, que interfere com os dados naqueles fios. A diafonia também pode ser causada pelos sinais em cabos separados nas imediações. Quando a diafonia é causada por um sinal em outro cabo, é conhecida como diafonia alheia. A diafonia é mais destrutiva a freqüências mais altas de transmissão. Os instrumentos de testes de cabos medem a diafonia com a aplicação de um sinal de teste a um par de fios. O testador de cabos então mede a amplitude dos sinais da diafonia não desejada induzidos nos outros pares de fios no cabo. O cabo de par trançado é desenhado para aproveitar-se dos efeitos da diafonia a fim de minimizar o ruído. Em um cabo de par trançado, um par de fios é usado para transmitir um sinal. O par de fios é trançado para que cada fio sofra diafonia similar. Já que um sinal de ruído em um fio aparenta ser idêntico ao do outro fio, o ruído poderá ser facilmente detectado e filtrado no receptor. A trança de um par de fios em um cabo também ajuda na redução da diafonia dos dados ou sinais de ruído vindos de um par adjacente de fios. As categorias mais altas de UTP exigem mais torções em cada par de fios no cabo para minimizar a diafonia a altas freqüências de transmissão. Quando se liga os conectores às extremidades do cabo UTP, o destrançamento dos pares de fios deve ser mantido ao mínimo absoluto para garantir comunicações de redes locais confiáveis. Conexões dos Fios
    • Cisco CCNA 3.1 139 4.2.4 Tipos de Diafonia Existem três tipos distintos de diafonia: • Diafonia Próxima (NEXT – Near-end Crosstalk) • Diafonia Distante (FEXT – Far-end Crosstalk) • Diafonia Próxima por Soma de Potências (PSNEXT – Power Sum Near-end Crosstalk) Diafonia Próxima Diafonia Distante Diafonia Próxima por Soma de Potências (PSNEXT
    • Cisco CCNA 3.1 140 A diafonia próxima (NEXT) é calculada como a razão das amplitudes de voltagem entre o sinal de teste e o sinal de diafonia quando medidas na mesma extremidade do link. Essa diferença é expressa em um valor negativo de decibéis (dB). Os números negativos menores indicam mais ruído, assim como baixas temperaturas negativas indicam mais calor. Por tradição, os testadores de cabos não mostram o sinal negativo indicando os valores NEXT negativos. Uma leitura de 30 dB de NEXT (que na verdade indica –30 dB) indica menos ruído, e conseqüentemente um sinal mais limpo, do que aquele que dá uma leitura de 10 dB de NEXT. A NEXT precisa ser medida entre cada par e cada outro par em um link de UTP, e nas duas extremidades do link. Para diminuir o tempo dos testes, alguns instrumentos de teste de cabos permitem que o usuário teste o desempenho de NEXT de um link usando maiores intervalos entre freqüências do que o especificado pelo padrão TIA/EIA. As medições resultantes podem não atender aos padrões TIA/EIA-568-B e podem ignorar falhas do link. Para verificar o desempenho adequado do link, a NEXT deverá ser medida das duas extremidades do link com um instrumento de testes de alta qualidade. Isto é também um requisito para o cumprimento total das especificações dos cabos de alta velocidade. Devido à atenuação, a diafonia que ocorre longe do transmissor cria menos ruído em um cabo do que a NEXT. Isto é conhecido como diafonia mais distante, ou FEXT. O ruído causado pela FEXT ainda se propaga de volta à fonte, mas é atenuado na sua volta. Desta maneira, a FEXT não é um problema tão sério quanto a NEXT. A NEXT por Soma de Potências (PSNEXT) mede o efeito cumulativo da NEXT de todos os pares de fios no cabo. A PSNEXT é computada para cada par de fios baseada nos efeitos da NEXT dos outros três pares. O efeito combinado da diafonia de múltiplas fontes simultâneas de transmissão pode ser muito prejudicial ao sinal. A certificação TIA/EIA- 568-B agora exige este teste da PSNEXT. Alguns padrões Ethernet como 10BASE-T e 100BASE-TX recebem dados de apenas um par de fios em cada direção. Entretanto, para as novas tecnologias como é o caso do 1000BASE-T que recebe dados simultaneamente de vários pares na mesma direção, as medições de soma de potências são testes muito importantes.
    • Cisco CCNA 3.1 141 4.2.5 Procedimentos para Testar Cabos O padrão TIA/EIA-568-B especifica dez testes que o cabo de cobre deve passar antes que possa ser usado em redes locais Ethernet de alta velocidade. Todos os links de cabos deverão ser testados até a capacidade máxima que é aplicada à categoria do cabo sendo instalado. Os dez parâmetros de testes primários que devem ser verificados para que um link de cabo possa satisfazer os padrões TIA/EIA são: • Mapa de fios. • Perda por inserção. • Diafonia próxima (NEXT – Near-end crosstalk). • Diafonia próxima por soma de potências (PSNEXT – Power sum near-end crosstalk). • Diafonia distante de mesmo nível (ELFEXT – Equal-level far-end crosstalk). • Diafonia distante por soma de potência de mesmo nível (PSELFEXT – Power sum equal-level far-end crosstalk). • Perda de retorno. • Atraso de propagação. • Comprimento do cabo. • Desvio de atraso. O padrão Ethernet especifica que cada um dos pinos em um conector RJ-45 tenha um determinado propósito. Uma placa de rede transmite sinais nos pinos 1 e 2, e recebe sinais nos pinos 3 e 6. Os fios do cabo UTP precisam estar conectados aos pinos corretos de cada extremidade de um cabo. O teste de mapa de fios garante que não existe nenhum circuito aberto ou curto no cabo. Um circuito aberto ocorre se o fio não for ligado corretamente ao conector. Um curto circuito ocorre se dois fios forem ligados um ao outro.
    • Cisco CCNA 3.1 142 Padrão de Testes de Cabos O teste de mapa de fios também verifica se todos os oito fios foram conectados aos pinos corretos nas duas extremidades do cabo. Existem várias falhas diferentes de cabeamento que o teste de mapa de fios pode detectar. Falha da Fiação A falha de par invertido ocorre quando um par de fios é instalado corretamente em um conector, mas invertido no outro conector. Se o fio listrado branco/alaranjado estiver terminado no pino 1 e o fio estiver terminado alaranjado no pino 2 em uma extremidade, mas invertido na outra extremidade, então o cabo possui uma falha de par invertido. Este exemplo é exibido no gráfico. Uma falha de cabeamento de par dividido ocorre quando um fio de um par é trocado com um fio de um par diferente. Esta mistura engana o processo de cancelamento e torna o cabo mais suscetível a diafonia e interferência. Observe cuidadosamente os números dos pinos no gráfico para detectar a falha no cabeamento. Um par dividido cria dois pares de transmissão ou de recepção, cada par com fios que não estão trançados juntos.
    • Cisco CCNA 3.1 143 As falhas de cabeamento de pares transpostos ocorrem quando um par de fios for conectado aos pinos completamente diferentes nas duas extremidades. Compare isto com um par invertido, onde o mesmo par de pinos é usado nas duas extremidades. 4.2.6 Outros Parâmetros de Testes A combinação dos efeitos da atenuação do sinal e as descontinuidades de impedância em um link de comunicações é conhecido como perda por inserção. A perda por inserção é medida em decibéis na extremidade mais distante do cabo. O padrão TIA/EIA exige que um cabo e seus conectores passem por um teste de perda por inserção antes que possam ser usados como link de comunicações em uma rede local. A diafonia é medida em quatro testes separados. Um testador de cabos mede a NEXT aplicando um sinal de teste a um par de cabos e medindo a amplitude dos sinais de diafonia recebidos pelos outros pares de cabos. O valor de NEXT, expresso em decibéis, é computado como uma diferença de amplitude entre o sinal de teste e o sinal de diafonia medidos na mesma extremidade do cabo. Lembre-se, já que o número de decibéis que o testador exibe é um número negativo, quanto maior o número, menor a NEXT no par de fios. Conforme mencionado antes, o teste da PSNEXT é na realidade um cálculo baseado nos efeitos combinados de NEXT. O teste da diafonia distante de mesmo nível (ELFEXT) mede a FEXT. A ELFEXT de par a par é expressa em dB como a diferença entre a FEXT medida e a perda por inserção do par de fios cujo sinal é afetado pela FEXT. A ELFEXT é uma medição importante nas redes Ethernet que usam as tecnologias 1000BASE-T. A diafonia distante por soma de potências (PSELFEXT) é o efeito combinado da ELFEXT de todos os pares de fios. A perda de retorno é uma medida em decibéis de reflexões que são causadas pelas descontinuidades de impedância em todos os locais ao longo do link. Lembre-se de que o impacto principal da perda de retorno não está na perda da intensidade do sinal. O problema mais significativo é que os ecos de sinais causados pelas reflexões das descontinuidades de impedância atingirão o receptor a diferentes intervalos causando o atraso de sincronismo do sinal.
    • Cisco CCNA 3.1 144 4.2.7 Parâmetros Baseados em Tempo O atraso de propagação é uma medição simples para se saber quanto tempo leva para um sinal propagar-se ao longo do cabo sendo testado. O atraso em um par de fios depende do seu comprimento, taxa de torcimento e propriedades elétricas. Os atrasos são medidos em centésimos de nanosegundos. Um nanosegundo é um bilionésimo de um segundo, ou 0.000000001 segundos. Os padrões TIA/EIA-568-B estabelecem um limite para o atraso da propagação para várias categorias de UTP. As medições de atraso de propagação são a base da medição do comprimento do cabo. O padrão TIA/EIA-568-B.1 especifica que o comprimento físico do link será calculado usando-se o par de fios com o menor atraso elétrico. Os testadores medem o comprimento do fio baseando-se no atraso elétrico conforme medido por um teste de TDR (Reflectometria de Domínio de Tempo), e não pelo comprimento físico da capa do cabo. Já que os fios dentro do cabo são trançados, os sinais na verdade se propagam muito mais longe do que o comprimento físico do cabo. Quando um testador de cabos faz uma medição TDR, ele envia um sinal de pulso ao longo do par de fios e mede o tempo exigido para que o pulse volte ao mesmo par de fios. O teste TDR é usado não somente para determinar comprimento, mas também para identificar a distância até as falhas de cabeamento como curtos e abertos. Quando o pulso se depara com uma conexão aberta, em curto ou defeituosa, toda ou parte da energia do pulso é refletida de volta ao testador. Isto pode ser usado para calcular a distância aproximada até a falha de cabeamento. A distância aproximada poderá ser útil ao localizar-se o ponto da conexão defeituosa ao longo de um lance de cabo, como um conector de parede. Os atrasos de propagação de diferentes pares de fios em um único cabo podem ser ligeiramente diferentes devido às diferenças no número de tranças e propriedades elétricas de cada par de fios. A diferença de atraso entre pares é conhecida como desvio de atraso. O desvio de atraso é um parâmetro crítico para redes de alta velocidade nas quais os dados são simultaneamente transmitidos através de pares de fios múltiplos, como 1000BASE-T Ethernet. Se o desvio de atraso entre os pares for muito grande, os bits chegam a diferentes tempos e os dados não podem ser reagrupados adequadamente. Apesar de que um link de cabo não tenha sido projetado para este tipo de transmissão de dados, o teste de desvio de atraso ajudará a garantir que o link suportará atualizações futuras para redes de alta velocidade. Todos os links de cabos em uma rede local precisam passar em todos os testes mencionados anteriormente conforme especificados no padrão TIA/EIA-568-B para serem considerados de acordo com o padrão. Um testador de certificação deve ser usado para garantir que todos os testes foram aprovados para serem considerados de acordo com o padrão. Esses testes garantem que os links de cabos funcionarão de forma confiável a altas velocidades e freqüências. Os testes de cabos deverão ser realizados quando o cabo for instalado e depois regularmente para garantir que o cabeamento das redes locais
    • Cisco CCNA 3.1 145 satisfaça os padrões da indústria. Os instrumentos de testes de cabos de alta qualidade deverão ser corretamente utilizados para garantir que os testes são precisos. Os resultados deverão também ser cuidadosamente documentados. 4.2.8 Testando Fibras Óticas Um link de fibra consiste em duas fibras de vidro separadas funcionando como caminhos de dados independentes. Uma fibra leva sinais transmitidos em uma direção, enquanto a segunda leva sinais na direção oposta. Cada fibra de vidro é envolta por uma camada que impede que a luz a atravesse, portanto não há problemas com diafonia em cabo de fibra ótica. A interferência eletromagnética externa ou ruído não afetam o cabeamento de fibras. A atenuação ocorre nos links de fibras, mas a um nível bem menor que aquele no cabeamento de cobre. Os links de fibras estão sujeitos ao equivalente ótico de descontinuidades de impedância de UTP. Quando a luz encontra uma descontinuidade ótica, como uma impureza no vidro ou uma micro-fratura, um pouco do sinais de luz é refletido de volta na direção oposta. Isto significa que apenas uma fração do sinal de luz original continuando ao longo da fibra em direção ao receptor. Isso resulta na redução da quantidade de energia que chega até o receptor, tornando difícil o reconhecimento do sinal. Da mesma maneira que com o cabo UTP, os conectores instalados incorretamente são a principal causa da reflexão da luz e perda da intensidade do sinal na fibra ótica. Já que o ruído não é problema quando se transmite em fibra ótica, a maior preocupação com o link de fibra é a intensidade do sinal de luz que chega até o receptor. Se a atenuação enfraquece o sinal de luz no receptor, então erros nos dados resultarão. O teste de cabo de fibra ótica envolve principalmente a projeção de uma luz através da fibra e a medição para verificar se chega até o receptor uma intensidade suficiente da luz. Em um link de fibra ótica, precisa ser calculado o nível aceitável de perda de potência do sinal que pode ocorrer sem cair abaixo dos requisitos do receptor. Este cálculo é conhecido como óptica link loss budget (orçamento de perda de enlace ótico). Um instrumento de teste de fibra, conhecido como testador de potência e fonte de luz, verifica se o óptica link loss budget (orçamento de perda de enlace ótico) foi excedido.
    • Cisco CCNA 3.1 146 Fonte da Luz Calibrada e Medidor de Potência Se a fibra não passar no teste, um outro instrumento de teste de cabo pode ser usado para indicar onde ocorrem as descontinuidades óticas ao longo do comprimento do link de cabo. Um TDR ótico, conhecido como OTDR, é capaz de localizar estas descontinuidades. Geralmente, o problema é um ou mais conectores ligados incorretamente. O OTDR indicará o local das conexões defeituosas que precisam ser substituídas. Depois de corrigidas as falhas, o cabo deverá ser testado novamente.
    • Cisco CCNA 3.1 147 4.2.9 Um Novo Padrão Em 20 de junho de 2002, foi publicada a emenda ao padrão TIA-568 para a Categoria 6 (ou Cat 6). O título oficial do padrão é ANSI/TIA/EIA-568-B.2-1. Este novo padrão especifica o conjunto original de parâmetros de desempenho que precisam ser testados para cabeamento Ethernet, assim como os valores mínimos para aprovação em cada um destes testes. Os cabos certificados como cabos Cat 6 precisam passar todos os dez testes. Apesar dos testes para Cat 6 serem essencialmente os mesmos daqueles especificados para o padrão de Cat 5, o cabo Cat 6 precisa passar os testes com resultados mais altos para ser certificado. O cabo Cat 6 precisa ser capaz de levar freqüências de até 250 MHz e precisa ter menores níveis de diafonia e perda de retorno. Um testador de cabo de qualidade semelhante à série Fluke DSP-4000 ou Fluke OMNIScanner2 pode realizar todas as medições de testes exigidos para a certificação dos cabos Cat 5, Cat 5e e Cat 6 tanto dos links permanentes como dos links de canais. A Figura abaixo mostra o analisador de cabo Fluke DSP-4100 com um DSP-LIA013 adaptador de canal/tráfego para Cat 5e.
    • Cisco CCNA 3.1 148 Resumo Capítulo 04 Deve ter sido obtido um entendimento dos seguintes conceitos importantes: • As ondas são energia que se propaga de um lugar a outro, e são criadas por distúrbios. Todas as ondas têm atributos similares como amplitude, período e freqüência. • As ondas senoidais são funções periódicas, variando continuamente. Os sinais analógicos se parecem com as ondas senoidais. • As ondas quadradas são funções periódicas cujos valores permanecem constantes por um período de tempo e depois mudam repentinamente. Os sinais digitais se parecem com as ondas quadradas. • Os expoentes são usados para representar números muito grandes ou muito pequenos. A base de um número elevado a um expoente positivo é igual à base multiplicada por si mesma o número de vezes indicado pelo expoente. Por exemplo, 103 = 10 x 10 x 10 = 1000. • Os logaritmos são semelhantes aos expoentes. Um logaritmo na base 10 de um número equivale ao expoente ao qual 10 teria que ser elevado para obter o número. Por exemplo, log10 1000 = 3 porque 103 = 1000. • Os decibéis são medições de um ganho ou perda na energia de um sinal. Os valores negativos representam perdas e os positivos representam ganhos. • A análise de domínio de tempo é a elaboração de gráficos de voltagem ou de corrente com respeito ao tempo, utilizando um osciloscópio. A análise de domínio de freqüência é a elaboração de gráficos de voltagem ou de energia com respeito à freqüência, utilizando um analisador de espectro. • Os sinais indesejáveis em um sistema de comunicações são conhecidos como ruídos. O ruído é originado de outros cabos, RFI e EMI. O ruído branco afeta todas as freqüências, enquanto a interferência de banda estreita afeta apenas um certo subgrupo de freqüências. • A largura de banda analógica é a faixa de freqüência que é associada a certas transmissões analógicas, como televisão ou rádio FM. • A largura de banda digital mede a quantidade de informações que pode ser transferida de um lugar para outro em um determinado período de tempo. As suas unidades são vários múltiplos de bits por segundo. • A maioria dos problemas de rede local ocorre na camada física. A única maneira de prevenir ou solucionar muitos destes problemas é pela utilização de testadores de cabos.
    • Cisco CCNA 3.1 149 • A instalação correta de cabos e de acordo com os padrões aumenta a confiabilidade e desempenho da rede local. • Os meios de cobre são disponíveis nos formatos blindado e não blindado. O cabo não blindado é mais susceptível a ruídos. • A degradação do sinal é devido a vários fatores como ruído, atenuação, diferença (mismatch) de impedância e vários tipos de diafonia. Esses fatores causam um desempenho reduzido da rede. • O padrão TIA/EIA-568-B especifica dez testes que um cabo de cobre deve passar antes que possa ser usado em redes locais Ethernet modernas de alta velocidade. • A fibra ótica também precisa ser testada de acordo com os padrões das redes. • Os cabos Categoria 6 precisam satisfazer padrões de testes de freqüência mais rigorosos que o cabo Categoria 5.
    • Cisco CCNA 3.1 150 Capítulo 05: Cabeando Redes Locais e WANs
    • Cisco CCNA 3.1 151
    • Cisco CCNA 3.1 152 Visão Geral Capítulo 05 Mesmo que cada rede local seja única, existem muitos aspectos no desenvolvimento de projetos que são comuns a todas as redes locais. Por exemplo, grande parte das redes locais segue os mesmos padrões e os mesmos componentes. Este módulo apresenta informações sobre os elementos que compõem as redes locais Ethernet e sobre os dispositivos mais usados em redes locais. Estão disponíveis várias opções de conexão a redes de longa distância (WAN). Elas variam desde o acesso dial-up até o acesso de banda larga e diferem na largura de banda, no custo e nos equipamentos necessários. Este módulo apresenta informações sobre os vários tipos de conexões WAN. • Os alunos, ao concluírem este módulo, serão capazes de: • Identificar as características das redes Ethernet. • Identificar os cabos direto, cruzado e rollover. • Descrever a função, as vantagens e desvantagens dos repetidores, hubs, bridges, comutadores e componentes de rede sem-fio. • Descrever a função das redes ponto-a-ponto. • Descrever a função, vantagens e desvantagens das redes cliente-servidor. • Descrever e diferenciar os tipos de conexões para WAN entre serial, Integrated Services Digital Network (ISDN), Digital Subscriber Line (DSL) e cable modem. • Identificar portas seriais de roteador, cabos e conectores. • Identificar e descrever o posicionamento dos equipamentos usados em várias configurações de WAN.
    • Cisco CCNA 3.1 5.1Cabeamento de LAN 5.1.1 Camada física de rede local Vários símbolos são usados para representar os tipos de meios. O Token Ring é representado por um círculo. Fiber Distributed Data Interface (FDDI) é representado por dois círculos concêntricos e o símbolo Ethernet é representado por uma linha reta. As conexões seriais são representadas por um raio. MEIOS Uma rede de computador pode ser montada utilizando vários tipos de meios físicos. A função dos meios é transportar um fluxo de informações através de uma rede local. As redes locais sem-fio usam a atmosfera, ou o espaço, como o meio. Outro meio de rede limita os sinais de rede a um fio, cabo ou fibra. Os meios de rede são considerados componentes da Camada 1, ou camada física, das redes locais. Todos os meios têm vantagens e desvantagens. Algumas comparações entre vantagens e desvantagens estão relacionadas a: • Comprimento do cabo. • Custo. • Facilidade de instalação. • Suscetibilidade à interferência. O cabo coaxial, a fibra óptica e mesmo o espaço podem transportar sinais de rede. No entanto, o meio principal que será estudado é o cabo do tipo par trançado não blindado Categoria 5 (Cat 5 UTP) que inclui a família Cat 5e de cabos. Várias topologias podem ser empregadas em redes locais, assim como vários meios físicos diferentes. A Figura abaixo mostra um sub-conjunto de implementações de camada física que podem ser empregadas em redes Ethernet. 153 Implementação da Camada Física da Rede Local
    • Cisco CCNA 3.1 154 5.1.2 Ethernet no campus A Ethernet é a tecnologia mais usada em redes locais. A Ethernet foi implementada inicialmente pelo grupo Digital, Intel e Xerox, conhecido como DIX. O grupo DIX criou e implementou a primeira especificação para redes locais Ethernet, que foi usada como base para a especificação 802.3 IEEE - Institute of Electrical and Electronics Engineers, lançada em 1980. Mais tarde, o IEEE estendeu a 802.3 a três novos comitês conhecidos como 802.3u (Fast Ethernet), 802.3z (Gigabit Ethernet através de Fibra Ótica), e 802.3ab (Gigabit Ethernet através da UTP). Os requisitos de rede podem exigir que seja realizada uma atualização para uma das tecnologias Ethernet mais rápidas. A maior parte das redes Ethernet suportam velocidades de 10 Mbps e 100 Mbps. A nova geração de produtos multimídia, de processamento de imagens e de banco de dados, pode facilmente sobrecarregar uma rede Ethernet que opera a velocidades tradicionais de 10 e 100 Mbps. Os administradores de rede podem considerar a possibilidade de utilizarem Gigabit Ethernet desde o backbone até o usuário final. Os custos para a instalação de novo cabeamento e adaptadores podem ser proibitivos. O Gigabit Ethernet para a área de trabalho não é uma instalação padrão atualmente. Geralmente as tecnologias Ethernet podem ser usadas de várias maneiras na rede de um campus: • Uma velocidade Ethernet de 10 Mbps pode ser usada no nível do usuário para proporcionar um bom desempenho. Os clientes ou servidores que exijam mais largura de banda podem usar Ethernet de 100 Mbps. • A Fast Ethernet é usada como a ligação entre os dispositivos dos usuários e da rede. Ela pode suportar a combinação de todo o tráfego de todos os segmentos Ethernet. • Para aprimorar o desempenho cliente-servidor através da rede do campus e evitar gargalos (estrangulamentos), pode-se usar Fast Ethernet para conectar os servidores empresariais. • Fast Ethernet ou Gigabit Ethernet são acessíveis e devem ser implementadas entre os dispositivos de backbone. Ethernet no campus
    • Cisco CCNA 3.1 155 5.1.3 Meios Ethernet e requisitos de conectores Antes de se selecionar uma implementação Ethernet, considere os requisitos dos meios e conectores para cada implementação. Considere também o nível de desempenho que a rede necessita. As especificações dos cabos e conectores usados para suportar as implementações Ethernet se originam dos padrões da Electronic Industries Association e da Telecommunications Industry Association (EIA/TIA). As categorias de cabeamento definidas para Ethernet se originam nos padrões EIA/TIA-568 (SP-2840) Commercial Building Telecommunications Wiring Standards. A Figura abaixo compara as especificações de cabos e conectores para as implementações Ethernet mais usadas. É muito importante observar a diferença entre os meios usados para a Ethernet de 10 Mbps e a Ethernet de 100 Mbps. As redes com uma combinação de tráfego de 10 e 100 Mbps usam UTP Categoria 5 para suportar a Fast Ethernet. Meios Ethernet e Requisitos do Conector
    • Cisco CCNA 3.1 156 5.1.4 Meios de conexão A Figura abaixo ilustra os diferentes tipos de conexões usados por cada implementação de camada física. O jack e conector RJ-45 (registered jack) são os mais comuns. Os conectores RJ-45 são estudados em maiores detalhes na próxima seção. Diferenciando entre as conexões Em alguns casos o tipo de conector de uma placa de rede (NIC) não corresponde aos meios com os quais ele precisa conectar-se. Como mostra a Figura , pode haver uma interface com o conector AUI (Attachment Unit Interface) de 15 pinos. O conector AUI permite conexão a diferentes meios físicos quando são usados com o transceiver apropriado. Um transceiver é um adaptador que converte um tipo de conexão em outra. Tipicamente, um transceiver converte um AUI em um conector RJ-45, em coaxial ou em um conector de fibra óptica. Na Ethernet 10BASE5, ou Thicknet, é usado um pequeno cabo para conectar o AUI com um transceiver instalado no cabo principal.
    • Cisco CCNA 3.1 157 5.1.5 Implementação de UTP Os padrões EIA/TIA especificam o uso de um conector RJ-45 para cabos UTP. As letras RJ representam Registered Jack, e o número 45 se refere a uma seqüência específica de cabeamento. Um conector transparente RJ-45 mostra oito fios coloridos. Quatro desses fios transportam a voltagem e são denominados "TIP" (T1 a T4). Os outros quatro fios são aterrados e são conhecidos como "RING" (R1 a R4). Tip e Ring são termos originários dos primórdios da telefonia. Atualmente, estes termos se referem ao positivo e o negativo em um par de fios. Os fios no primeiro par de um cabo ou conector são designados como T1 e R1. O segundo par é T2 e R2 e assim por diante. O conector RJ-45 é o componente macho, crimpado na extremidade do cabo. Quando se olha o conector macho de frente, os locais dos pinos são numerados de 1 a 8, da direita para a esquerda conforme mostra a Figura abaixo. Conector RJ-45 O jack é o componente fêmea em um dispositivo de rede, tomada de parede ou patch panel conforme ilustrado na Figura abaixo. Conector RJ-45 A Figura abaixo exibe as conexões de punch down na parte de trás do jack onde o cabo UTP Ethernet se conecta. Conector RJ-45
    • Cisco CCNA 3.1 158 Para que a eletricidade possa fluir entre a tomada e o conector, a ordem dos fios deve seguir o código de cores T568A ou T568B encontrado nos padrões EIA/TIA-568-B.1, conforme ilustrado na Figura abaixo. Padrões EIA/TIA T568A e T568B Para identificar a categoria EIA/TIA correta do cabo a ser usado para conectar um equipamento, olhe a documentação do equipamento ou procure uma etiqueta próxima ao conector. Se não houver documentação ou etiqueta disponíveis, use um cabo Categoria 5E ou superior já que categorias mais altas podem ser usadas no lugar das mais baixas. Então determine se deve usar um cabo direto ou crossover. Se os dois conectores RJ-45 de um cabo forem mantidos lado a lado na mesma direção, os fios coloridos serão vistos em cada um deles. Se a ordem dos fios coloridos for a mesma em cada extremidade, então o cabo é direto conforme ilustrado na Figura abaixo. Implementação UTP - Direto Com o cruzado, os conectores RJ-45 em ambas as extremidades mostram que alguns dos fios em um lado do cabo são cruzados para um pino diferente no outro lado do cabo. A Figura abaixo mostra que os pinos 1 e 2 em um conector se conectam aos pinos 3 e 6 no outro conector, respectivamente.
    • Cisco CCNA 3.1 159 Interconectando Dispositivos Usando Cabo Cruzado A Figura abaixo ilustra as diretrizes do tipo de cabo que deve ser usado quando se faz a interconexão de dispositivos Cisco. Implementação UTP - Cruzado Use cabos diretos para o seguinte cabeamento: • Comutador ao roteador. • Comutador para o PC ou servidor. • Hub para PC ou servidor.
    • Cisco CCNA 3.1 160 Use cabos cruzados para os seguintes cabeamentos: • Comutador para comutador. • Comutador para hub. • Hub para hub. • Roteador para roteador. • PC para PC. • Roteador para PC. A Figura abaixo ilustra como uma variedade de tipos de cabos pode ser exigida em uma dada rede. A categoria exigida de cabo UTP é baseada no tipo de Ethernet escolhida. Interconectando Dispositivos Usando Cabo Cruzado
    • Cisco CCNA 3.1 161 5.1.6 Repetidores O termo repetidor tem sua origem nos primeiros tempos das comunicações a longa distância. O termo descreve a situação onde uma pessoa em uma colina repetia o sinal que acabara de receber de uma pessoa na colina anterior. O processo se repetia até que a mensagem chegasse ao seu destino. As comunicações por telégrafo, telefone, microondas e ópticas usam repetidores para fortalecer os sinais enviados a longa distância. Um repetidor recebe um sinal, restaura esse sinal e o passa adiante. Ele pode restaurar e retemporizar os sinais de rede ao nível de bit para permitir que trafeguem uma distância maior nos meios. Repetidores Ethernet e IEEE 802.3 implementam uma regra, conhecida como a regra 5-4-3, para o número de repetidores e segmentos em backbones de acesso compartilhado Ethernet em uma topologia em árvore. A regra 5-4-3 divide a regra em dois tipos de segmentos físicos: segmentados populados (usuário), e segmentos não-populados (link). Segmentos de usuários tem usuários de sistemas conectados a eles. Segmentos de link são usados para conectar os repetidores da rede juntos. A regra dita que entre quaisquer dois nós na rede podem existir o máximo de cinco segmentos, conectados através de quatro repetidores, ou concentradores, e somente três dos cinco segmentos podem conter conexões de usuários. O protocolo Ethernet requer que o sinal enviado a LAN alcance todas as partes da rede dentro de um tamanho de tempo especificado. A regra 5-4-3 garante isto. Cada repetidor pelo qual um sinal passa adiciona uma pequena quantidade de tempo para processar, de modo que a regra é projetada para minimizar o tempo de transmissão dos sinais. Muita latência na LAN aumenta o número de colisões tardias e faz com que a LAN seja menos eficiente.
    • Cisco CCNA 3.1 162 5.1.7 Hubs Os hubs são na realidade repetidores multiporta. Em muitos casos, a diferença entre os dois dispositivos é o número de portas que cada um oferece. Enquanto um repetidor típico possui apenas duas portas, um hub geralmente possui de quatro a vinte e quatro portas. Hub de 8 Portas Os hubs são mais comumente usados em redes Ethernet 10BASE-T ou 100BASE-T, embora existam outras arquiteturas de redes que também os utilizam. A utilização de um hub modifica a topologia da rede de um barramento linear, onde cada dispositivo se liga diretamente a um fio, em uma topologia em estrela. Com os hubs, os dados que chegam através de cabos a uma porta do hub, são repetidos eletricamente em todas as outras portas conectadas ao mesmo segmento da rede, com exceção da porta na qual os dados foram enviados. Os hubs vêm em três tipos básicos: • Passivo: Um hub passivo serve apenas de ponto de conexão física. Ele não manipula ou verifica o tráfego que o cruza. Não reforça ou limpa o sinal. Um hub passivo é usado somente para compartilhar os meios físicos. Desta maneira, o hub passivo não necessita de energia elétrica. • Ativo: Um hub ativo precisa estar ligado a uma tomada elétrica, pois necessita de energia para amplificar o sinal que chega a uma porta antes de passá-lo para as outras portas. • Inteligente: Os hubs inteligentes às vezes são chamados smart hubs. Esses dispositivos basicamente funcionam como hubs ativos, mas incluem também um chip microprocessador e capacidade de diagnóstico. Os hubs inteligentes são mais caros que os ativos, mas são mais úteis nas situações de resolução de problemas. Os dispositivos que estão ligados ao hub recebem todo o tráfego que passa pelo hub. Quanto mais dispositivos estiverem ligados ao hub, maior será a possibilidade de ocorrerem colisões. Uma colisão ocorre quando duas ou mais estações de trabalho enviam dados através do fio da rede ao mesmo tempo. Quando isso ocorrer, todos os dados serão corrompidos. Todos os dispositivos conectados ao mesmo segmento de rede são conhecidos como membros de um domínio de colisão. Às vezes os hubs são chamados de concentradores, pois servem como um ponto central de conexão para uma rede local Ethernet.
    • Cisco CCNA 3.1 163 5.1.8 Sem fio Uma rede sem-fio pode ser criada com muito menos cabeamento que outras redes. Os sinais sem-fio são ondas eletromagnéticas que se propagam através do ar. As redes sem-fio usam radiofreqüências (RF), laser, infravermelho (IR) ou satélite/microondas para transportar os sinais de um computador a outro sem uma conexão permanente por cabos. O único cabeamento permanente pode ser para os pontos de acesso da rede (access points). As estações de trabalho dentro da faixa da rede sem-fio podem ser movidas facilmente sem conectar e reconectar o cabeamento da rede. Uma aplicação comum de comunicações de dados sem-fio é para uso de usuários móveis. Alguns exemplos de usuário móvel incluem viajantes, aviões, satélites, sondas espaciais remotas, estações e ônibus espaciais. No núcleo das comunicações sem-fio se encontram dispositivos conhecidos como transmissores e receptores. O transmissor converte dados de origem em ondas eletromagnéticas (EM) que são transmitidas para o receptor. O receptor então converte essas ondas eletromagnéticas novamente em dados para o destino. Para comunicações de mão dupla, cada dispositivo exige um transmissor e um receptor. Muitos fabricantes de dispositivos para redes confeccionam o transmissor e o receptor em uma só unidade conhecida como transceiver ou placa de rede sem-fio. Todos os dispositivos em redes locais sem-fio (WLANs) precisam ter instalada a placa de rede sem-fio apropriada. As duas tecnologias sem-fio mais comumente usadas para redes são IR e RF. A tecnologia IR tem seus pontos fracos. As estações de trabalho e os dispositivos digitais precisam estar na linha de visão do transmissor para que possam operar. Uma rede baseada em infravermelho é própria para ambientes onde todos os dispositivos digitais que exigem conectividade de rede estejam em uma só sala. A tecnologia de rede IR pode ser rapidamente instalada, mas os sinais de dados podem ser atenuados ou obstruídos pela umidade do ar ou por pessoas que andam pela sala. Há, porém, novas tecnologias IR sendo desenvolvidas que podem funcionar fora da linha de visão. A tecnologia de radiofreqüência permite que os dispositivos estejam em salas ou mesmo em edifícios diferentes. A faixa limitada dos sinais de rádio restringe o uso deste tipo de rede. A tecnologia RF pode utilizar apenas uma ou múltiplas freqüências. Uma radiofreqüência simples está sujeita à interferência externa e obstruções geográficas. Além do mais, uma freqüência simples é mais fácil de ser monitorada por outros, o que torna a transmissão de dados menos segura. A tecnologia de espectro espalhado evita problemas de segurança na a transmissão de dados ao usar freqüências múltiplas para aumentar a imunidade ao ruído e para dificultar a interceptação de transmissões de dados por pessoas estranhas. Dois métodos atualmente sendo considerados para implementar a tecnologia de espectro espalhado para transmissões WLAN são Frequency Hopping Spread Spectrum (FHSS) e Direct Sequence Spread Spectrum (DSSS). Os detalhes técnicos de como essas tecnologias funcionam estão além do escopo deste curso.
    • Cisco CCNA 3.1 164 5.1.9 Bridges Às vezes é necessário dividir uma rede local grande em segmentos menores e mais fáceis de serem gerenciados. Bridges Segmentando uma Rede Isso diminui o tráfego em uma única rede local e pode estender a área geográfica além do que uma única rede local pode suportar. Os dispositivos usados para conectar os segmentos de uma rede incluem bridges, comutadores, roteadores e gateways. Os switches e bridges operam na camada de Link de Dados do modelo OSI. A função da bridge é tomar decisões inteligentes sobre repassar ou não os sinais para o próximo segmento de uma rede. Quando uma bridge recebe um quadro da rede, o endereço MAC de destino é procurado na tabela da bridge para determinar se deve ou não filtrar, passar adiante ou copiar o quadro para o outro segmento. Este processo de decisão ocorre da seguinte maneira: • Se o dispositivo de destino estiver no mesmo segmento que o quadro, a bridge impede que o quadro siga para outros segmentos. Este processo é conhecido como filtragem. • Se o dispositivo de destino estiver em um segmento diferente, a bridge encaminhará o quadro ao segmento apropriado. • Se o endereço de destino for desconhecido para a bridge, a bridge encaminha o quadro a todos os segmentos com exceção daquele de onde foi recebido. Este processo é conhecido como inundação (flooding). • Se for colocada estrategicamente, uma bridge pode aumentar em muito o desempenho da rede.
    • Cisco CCNA 3.1 165 5.1.10 Comutadores Um comutador às vezes é descrito como uma bridge multiporta. Switch CISCO Série 2900 Enquanto que uma bridge típica poderá ter apenas duas portas ligando os segmentos da rede, o comutador pode ter várias portas dependendo de quantos segmentos de rede deverão ser ligados. Como as bridges, os comutadores aprendem certas informações sobre os pacotes de dados que são recebidos de vários computadores na rede. Os comutadores usam essas informações para fazer tabelas de encaminhamento para determinar o destino dos dados que estão sendo enviados por um computador a outro dentro da rede. Tabela de Comutação Embora haja algumas semelhanças entre os dois, o comutador é um dispositivo mais complexo que a bridge. Uma bridge determina se o quadro deveria ser encaminhado ao outro segmento de rede baseado no endereço MAC de destino. Um comutador tem muitas portas com muitos segmentos de redes conectados a ele. Um comutador escolhe a porta à qual o dispositivo de destino ou estação de trabalho será conectado. Os comutadores Ethernet estão se tornando soluções populares de conectividade porque, como as bridges, eles aprimoram o desempenho da rede ao melhorar a velocidade e largura de banda.
    • Cisco CCNA 3.1 166 A comutação é uma tecnologia que alivia o congestionamento nas redes locais Ethernet, reduzindo o tráfego e aumentando a largura de banda. Os comutadores podem facilmente substituir os hubs, pois funcionam com a infra-estrutura de cabos já existente. Isso melhora o desempenho com um mínimo de invasão na rede já existente. Nas comunicações de dados hoje, todo o equipamento de comutação realiza duas operações básicas. A primeira operação é conhecida como comutação de quadros de dados (frames). A comutação de quadros de dados é o processo pelo qual um quadro é recebido em um meio de entrada e depois transmitido a um meio de saída. A segunda é a manutenção das operações de comutação onde os comutadores criam e mantêm tabelas de comutação e procuram por loops. Os comutadores operam em velocidades muito mais altas que as bridges e podem suportar novas funcionalidades, como redes locais virtuais (Virtual LAN). Um comutador Ethernet oferece muitas vantagens. Uma vantagem é que um comutador Ethernet permite que muitos usuários se comuniquem em paralelo através da utilização de circuitos virtuais e segmentos dedicados de rede em um ambiente virtualmente livre de colisões. Microssegmentação da Rede Isso maximiza a largura de banda disponível no meio compartilhado. Outra vantagem é que mudar para um ambiente de rede local comutada é muito econômico porque o cabeamento e o hardware existentes podem ser reutilizados.
    • Cisco CCNA 3.1 167 5.1.11 Conectividade do host A função de uma placa de rede é conectar um dispositivo host ao meio de rede. Placa de Interface de Rede (Placa de Circuito) e (Conexão dos meios) Uma placa de rede é uma placa de circuito impresso que cabe no slot de expansão na placa mãe ou dispositivo periférico a ser inserido em um computador. A placa de rede é também conhecida como adaptador de rede. Nos computadores laptop ou notebooks uma placa de rede é do tamanho de um cartão de crédito. As placas de redes são consideradas dispositivos de Camada 2, pois cada uma delas contém um código particular chamado endereço MAC. Este endereço é usado para controlar as comunicações de dados para o host na rede. Mais adiante você vai saber mais sobre o endereço MAC. Como o nome sugere, a placa de interface de rede controla o acesso do host ao meio. Em alguns casos o tipo de conector na placa de rede não corresponde ao meio físico ao qual deve ser conectado. Um bom exemplo é um roteador Cisco 2500. No roteador é visto um conector AUI. O conector AUI precisa ser conectado a um cabo UTP Cat 5 Ethernet. Para fazer isso, um transmissor/receptor, também conhecido como transceiver, é usado. Um transceiver converte um tipo de sinal ou conector em outro. Por exemplo, um transceiver não pode conectar uma interface AUI de 15 pinos a um conector RJ-45. Ele é considerado um dispositivo da Camada 1, porque só considera os bits e não as informações de endereço ou protocolos de níveis superiores. As placas de rede não têm nenhum símbolo padronizado. Subentende-se que, quando os dispositivos de rede são conectados aos meios de rede, está presente uma placa de rede ou um dispositivo similar a uma placa de rede. Sempre que se vê um ponto no mapa de topologia, ele representa ou uma placa de rede ou uma porta, que funciona como uma placa de rede.
    • Cisco CCNA 3.1 168 5.1.12 Comunicação Ponto-a-Ponto Com a utilização das tecnologias de redes locais e WAN, vários computadores são interligados para oferecer serviços aos seus usuários. Para realizar isso, os computadores interligados assumem diferentes papéis ou funções em relação aos outros. Rede Ponto-a-Ponto Alguns tipos de aplicações exigem que os computadores funcionem como parceiros iguais. Outros tipos de aplicações distribuem suas tarefas para que um computador funcione para servir vários outros em uma relação de desigualdade. Em qualquer um dos casos, dois computadores tipicamente se comunicam usando protocolos de pedido/resposta (request/response). Um computador emite um pedido para um serviço e o segundo computador recebe e responde àquele pedido. O requisitante assume o papel de um cliente e o que responde assume o papel de um servidor. Em uma rede ponto-a-ponto, os computadores interconectados agem como parceiros iguais, ou pares. Como pares, cada computador pode assumir a função de cliente ou a função de servidor. Em um momento, o computador A pode requisitar um arquivo do computador B, o qual responde enviando o arquivo ao computador A. O Computador A funciona como cliente, enquanto que o B funciona como servidor. E mais tarde, os computadores A e B podem inverter os papéis. Em uma rede ponto-a-ponto, usuários individuais controlam seus próprios recursos. Os usuários podem decidir compartilhar determinados arquivos com outros usuários. Compartilhando uma pasta Acesso Compartilhado
    • Cisco CCNA 3.1 169 Os usuários podem também requisitar senhas antes de permitir que outros acessem seus recursos. Já que os usuários individuais tomam essas decisões, não existe um ponto central de controle ou administração na rede. Além disso, os usuários individuais precisam fazer backup dos seus próprios sistemas para poderem recuperar a perda de dados em caso de falhas. Quando um computador atua como servidor, o usuário daquela máquina poderá sofrer uma redução de desempenho enquanto a máquina atende aos requisitos feitos por outros sistemas. As redes ponto-a-ponto são relativamente fáceis de instalar e operar. Não é necessário nenhum equipamento adicional além de um sistema operacional apropriado instalado em cada computador. Já que os usuários controlam seus próprios recursos, não são necessários administradores dedicados. Com o crescimento das redes, as relações ponto-a-ponto se tornam cada vez mais difíceis de coordenar. Uma rede ponto-a-ponto funciona bem com até 10 computadores. Já que as redes ponto-a-ponto não se adaptam bem a seu crescimento, a sua eficiência diminui rapidamente conforme for aumentando o número de computadores na rede. Também, os usuários individuais controlam o acesso aos recursos em seus computadores, o que significa que poderá ser difícil manter a segurança. O modelo de rede cliente/servidor pode ser usado para superar as limitações da rede ponto-a-ponto.
    • Cisco CCNA 3.1 170 5.1.13 Cliente/Servidor Em uma configuração cliente/servidor, os serviços de redes estão localizados em um computador dedicado denominado servidor. O servidor responde às solicitações de clientes. O servidor é um computador central que está disponível continuamente para atender às solicitações de clientes para arquivos, impressão, aplicativos e outros serviços. A maior parte dos sistemas operacionais de redes adotam o formato de relação cliente/servidor. Tipicamente, os computadores de mesa funcionam como clientes e um ou mais computadores com maior capacidade de processamento e memória além de softwares especializados funcionam como servidores. Os servidores são projetados para processarem simultaneamente solicitações de vários clientes. Antes que um cliente possa acessar os recursos do servidor, ele precisa ser identificado e autorizado a usá-los. Isto é possível quando se dá a cada cliente um nome de conta e senha que é verificada por um serviço de autenticação. O serviço de autenticação age como uma sentinela para guardar o acesso à rede. Com a centralização das contas, da segurança e do controle de acesso do usuário, as redes baseadas em servidor simplificam a administração de grandes redes.
    • Cisco CCNA 3.1 171 A concentração de recursos de rede como arquivos, impressoras e aplicativos nos servidores também torna mais fácil o backup e a manutenção dos dados gerados. Ao invés de se ter esses recursos espalhados em máquinas individuais, eles podem ser localizados em servidores especializados e dedicados para um acesso mais fácil. A maior parte dos sistemas cliente/servidor também incluem instalações para aprimorar a rede com a adição de novos serviços que ampliam a utilidade da rede. A distribuição das funções nas redes cliente/servidor trazem consideráveis vantagens, mas também acarretam alguns custos. Embora a agregação de recursos aos sistemas de servidor traga maior segurança, um acesso mais simples e controle coordenado, o servidor apresenta um único ponto falho à rede. Sem um servidor operacional, a rede não pode funcionar de maneira alguma. Os servidores exigem pessoal treinado e experiente para administrá-los e mantê-los. Isso aumenta as despesas de operação da rede. Os sistemas de servidor exigem hardware adicional e softwares especializados, o que aumenta o custo. As Figuras abaixo e resume as vantagens e desvantagens do ponto-a-ponto versus cliente- servidor. Ponto-a-Ponto X Cliente/Servidor
    • Cisco CCNA 3.1 172 5.2 Cabeamento de WANs 5.2.1 Camada física de WAN As implementações da camada física variam dependendo da distância entre o equipamento e os serviços, da velocidade e do próprio tipo de serviço. Tipos de Serviços WAN As conexões seriais são usadas para acomodar os serviços WAN tais como linhas dedicadas alugadas sobre as quais é utilizado o Point-to-Point Protocol (PPP) ou Frame Relay. A velocidade dessas conexões varia dos 2400 bits por segundo (bps) aos serviços T1 a 1,544 megabits por segundo (Mbps) e E1 que opera a 2,048 megabits por segundo (Mbps). ISDN oferece conexões de discagem por demanda ou serviços de dial backup. Uma Basic Rate Interface (BRI) ISDN é composta de dois canais bearer de 64 kbps (canais B) para dados e um canal delta (canal D) a 16 kbps usado para sinalização e tarefas de gerenciamento de links. PPP é normalmente usado para transportar dados através dos canais B. Com a crescente demanda para serviços residenciais de banda larga de alta velocidade, as conexões DSL e cable modem estão se tornando as mais populares. Por exemplo, um serviço residencial DSL típico pode alcançar velocidades T1/E1 através da linha telefônica já existente. Os serviços de cabos usam as linhas de cabo coaxial para TV já existentes. Uma linha de cabo coaxial proporciona uma conectividade de alta velocidade que corresponde ou excede a de DSL. Os serviços DSL e cable modem serão estudados em maiores detalhes em um módulo futuro.
    • Cisco CCNA 3.1 173 5.2.2 Conexões seriais de WAN Para comunicações de longa distância, as WANs usam transmissões seriais. Este é um processo pelo qual os bits de dados são enviados através de um único canal. Este processo proporciona uma comunicação de longa distância confiável e a utilização de uma faixa específica de freqüência óptica ou eletromagnética. As freqüências são medidas em termos de ciclos por segundo e expressas em Hertz (Hz). Os sinais transmitidos através de linhas telefônicas a nível de voz usam 4 kilohertz (kHz). O tamanho da faixa de freqüência é conhecido como largura de banda. Em cabeamento de redes, a largura de banda é a medida de bits por segundo que são transmitidos. Comparação de Padrões Físicos Para um roteador Cisco, a conectividade física na instalação do cliente é proporcionada por um dos dois tipos possíveis de conexões seriais. O primeiro tipo de conexão serial é um conector de 60 pinos. O segundo é um conector ‘smart serial’ mais compacto. O conector com o provedor de serviço varia conforme o tipo de equipamento de conexão fornecido. Opção de Conexões Seriais WAN Se a conexão for feita diretamente em um provedor de serviços, ou um dispositivo que proporcione sinal de sincronismo (clock) como uma CSU/DSU (Chanel/Data Service Unit), o roteador será um DTE (equipamento de terminal de dados) e usará um cabo serial DTE. Normalmente este é o caso. Porém, há ocasiões onde é necessário que o roteador local forneça o clock e, portanto, utilizará um cabo DCE (equipamento de comunicação de dados). Nos testes de curso dos roteadores, será necessário que um dos roteadores conectados tenha a função de fornecer o clock. Portanto, a conexão consistirá em um cabo DTE e de um DCE.
    • Cisco CCNA 3.1 174 5.2.3 Roteadores e Conexões Seriais Os roteadores são responsáveis pelo roteamento de pacotes de dados desde a origem até o destino dentro da rede local e pelo fornecimento de conectividade à WAN. Dentro de um ambiente de rede local o roteador bloqueia os broadcasts, fornece serviços de resolução de endereços locais, como ARP e RARP e pode segmentar a rede usando uma estrutura de sub-redes. A fim de proporcionar esses serviços, o roteador precisa estar conectado à rede local e a WAN. Além de determinar o tipo de cabo, é necessário determinar se é necessário ter os conectores DTE ou DCE. O DTE é a terminação do dispositivo do usuário no link com a WAN. O DCE é tipicamente o ponto onde a responsabilidade para a entrega de dados passa às mãos do provedor de serviços. Quando conectado diretamente a um provedor de serviços, ou a um dispositivo como uma CSU/DSU que manterá o sincronismo (clocking) de sinal, o roteador é um DTE e necessita de um cabo serial DTE. Implementação Serial de DTE e DCE Isso é o caso típico no uso de roteadores. No entanto, há casos onde o roteador precisará ser o DCE. Ao realizar uma experiência com roteador back-to-back em um ambiente de teste, um dos roteadores será um DTE e o outro DCE. Conexão Serial Back-to-Back
    • Cisco CCNA 3.1 175 Ao fazer-se o cabeamento para conectividade serial, os roteadores poderão ter portas fixas ou portas modulares. O tipo de porta que estiver sendo usada afetará a sintaxe usada mais tarde para configurar cada interface. As interfaces nos roteadores com portas seriais fixas são etiquetadas por tipo de porta e número de porta. Interfaces Fixas As interfaces nos roteadores com portas seriais modulares são etiquetadas por tipo de porta, slot e número de porta. Interfaces de Porta Serial Modular O slot é a localização do módulo. Para configurar uma porta em uma placa modular, é necessário especificar a interface usando a sintaxe "port type slot number/port number". Use a etiqueta "serial 1/0," quando a interface for serial, o número do slot onde o módulo estará instalado é 1, e a porta que está sendo referenciada é porta 0.
    • Cisco CCNA 3.1 176 5.2.4 Roteadores e Conexões ISDN BRI Com ISDN BRI, podem ser usados dois tipos de interfaces, BRI S/T e BRI U. Determinar quem está fornecendo o dispositivo NT1 (Network Termination 1) a fim de determinar qual o tipo de interface é necessária. Um NT1 é um dispositivo intermediário localizado entre o roteador e o comutador ISDN provedor de serviços. O NT1 é usado para conectar o cabeamento de quatro fios do assinante ao loop local de dois fios convencional. Na América do Norte, o cliente normalmente fornece o NT1, enquanto no resto do mundo o provedor de serviços fornece o dispositivo NT1. Talvez seja necessário fornecer um NT1 externo se o dispositivo já não estiver integrado ao roteador. Analisar as etiquetas das interfaces dos roteadores é geralmente a maneira mais fácil de determinar se o roteador tem um NT1 integrado. Uma interface BRI com um NT1 integrado é etiquetada BRI U. Uma interface BRI sem um NT1 integrado é etiquetada BRI S/T. Já que os roteadores podem ter vários tipos de interfaces ISDN, determinar qual interface é necessária quando o roteador é comprado. O tipo da interface BRI pode ser determinado verificando-se a etiqueta da porta. Roteadores de Cabeamento para Conexões ISDN Para interconectar a porta ISDN BRI ao dispositivo do provedor de serviços, use um cabo direto UTP Categoria 5. CUIDADO: É importante inserir o cabo que sai da porta ISDN BRI somente a um conector ou comutador ISDN. O ISDN BRI usa voltagens que podem danificar gravemente os dispositivos que não são ISDN.
    • Cisco CCNA 3.1 177 5.2.5 Roteadores e Conexões DSL O roteador Cisco 827 ADSL possui uma interface ADSL (Asymmetric Digital Subscriber Line). Para conectar uma linha ADSL à porta ADSL no roteador, faça o seguinte: • Conecte o cabo telefônico à porta ADSL no roteador. • Conecte a outra extremidade do cabo telefônico ao conector de telefone. Para conectar um roteador ao serviço DSL, use um cabo telefônico com conectores RJ-11. O DSL funciona através de linhas telefônicas padrão usando os pinos 3 e 4 em um conector RJ-11 padrão.
    • Cisco CCNA 3.1 178 5.2.6 Roteadores e Conexões de Cabos O roteador de acesso a cabo Cisco uBR905 fornece acesso de alta velocidade à rede através do sistema de televisão a cabo de assinantes residenciais, e empresas de pequeno porte e escritórios domiciliares (SOHO). O roteador uBR905 possui um cabo coaxial, ou conector F, interface que conecta diretamente ao sistema de cabos. Um cabo coaxial e um conector F são usados para conectar o roteador e o sistema de cabos. Siga os seguintes passos para conectar o roteador de acesso por cabo Cisco uBR905 ao sistema de cabos: • Confirme que o roteador não esteja conectado à energia. • Localize o cabo coaxial RF que vem da tomada de cabo coaxial (TV) na parede. • Instale um divisor de sinais/acoplador direcional, caso necessário, para separar os sinais para utilização da TV e do computador. Caso necessário, instale também um filtro passa-alta para evitar a interferência entre sinais da TV e os do computador. • Conecte o cabo coaxial ao conector F do roteador. Aperte o conector com a mão, certificando-se de que esteja o mais firme possível e depois gire-o 60 graus com um alicate. • Certifique-se de que todos os outros conectores de cabos coaxiais, todos os separadores intermediários, acopladores ou blocos de aterramento estejam firmemente apertados desde o quadro de distribuição até o roteador Cisco uBR905.
    • Cisco CCNA 3.1 179 5.2.7 Instalando Conexões de Console Para realizar a configuração inicial de um dispositivo Cisco, uma conexão de gerenciamento deve estar ligada diretamente ao dispositivo. Para o equipamento Cisco esta conexão de gerenciamento é denominada porta de console. A porta de console permite a monitoração e configuração de um hub, comutador ou roteador Cisco. O cabo usado entre um terminal e uma porta de console é um cabo rollover, com conectores RJ-45. Configurando uma conexão de console O cabo rollover, também conhecido como cabo de console, possui uma pinagem diferente daquela encontrada nos cabos RJ-45 diretos ou cruzados usados com Ethernet ou ISDN BRI. A pinagem para um rollover é a seguinte: 1 a 8 2 a 7 3 a 6 4 a 5 5 a 4 6 a 3 7 a 2 8 a 1 Para instalar uma conexão entre o terminal e a porta de console Cisco, realize duas etapas. Primeiro faça a conexão dos dispositivos usando um cabo rollover de uma porta de console do roteador à porta serial da estação de trabalho. Um adaptador RJ-45-para-DB-9 ou um RJ-45-para-DB-25 pode ser necessário para o PC ou terminal. Em seguida, configure a aplicação da emulação do terminal com as seguintes configurações de porta serial (COM): 9600 bps, 8 bits de dados, sem paridade, 1 bit de parada, sem controle de fluxo. A porta AUX é usada para fornecer gerenciamento out-of-band através de um modem. A porta AUX deve ser configurada através da porta de console antes que possa ser usada. A porta AUX também usa as configurações de 9600 bps, 8 bits de dados, sem paridade, 1 bit de parada, sem controle de fluxo.
    • Cisco CCNA 3.1 180 Resumo Capítulo 05 Deve ter sido obtido um entendimento dos seguintes conceitos chave: • Uma placa de rede (NIC) fornece recursos de comunicação entre a rede e um PC e vice-versa. • Usar um cabo cruzado para fazer a conexão entre dois dispositivos semelhantes, como comutadores, roteadores, PCs e hubs. • Usar um cabo direto para fazer a conexão entre dispositivos diferentes, como conexões entre um comutador e um roteador, um comutador e um PC ou um hub e um roteador. • Existem dois tipos principais de redes locais, ponto-a-ponto e cliente/servidor. • WANs usam transmissão serial de dados. Os tipos de conexões WAN incluem ISDN, DSL e cable modems. • Um roteador é geralmente o DTE e precisa de um cabo serial para conectar-se a um dispositivo DCE como uma CSU/DSU. • O ISDN BRI possui dois tipos de interfaces, S/T e U. Para interconectar a porta ISDN BRI ao dispositivo do provedor de serviços, é usado um cabo direto UTP Categoria 5. • Um cabo telefônico e um conector RJ-11 são usados para conectar um roteador para serviço DSL. • Um cabo coaxial e um conector BNC são usados para conectar um roteador ao serviço de cabo. • O cabo rollover é usado para conectar um terminal e a porta de console de um dispositivo inter-redes.
    • Cisco CCNA 3.1 181 Capítulo 06: Conceitos Básicos de Ethernet
    • Cisco CCNA 3.1 182 Visão Geral Capítulo 06 A Ethernet é atualmente a tecnologia dominante de redes locais do mundo. A Ethernet não é uma tecnologia, mas uma família de tecnologias de redes locais e pode ser mais bem entendida considerando-se o modelo de referência OSI. Todas as redes locais precisam lidar com as questões básicas de como as estações individuais (nós) são nomeadas, e a Ethernet não é nenhuma exceção. As especificações da Ethernet suportam diferentes meios físicos, larguras de banda e outras variações das camadas 1 e 2. Porém, o formato básico dos quadros e o esquema de endereçamento é idêntico para todas as variedades de Ethernet. Para que várias estações possam obter acesso aos meios físicos e outros dispositivos das redes, têm sido elaboradas várias estratégias de controle de acesso aos meios físicos. É essencial ter um entendimento de como os dispositivos de rede obtêm acesso aos meios físicos da rede para poder entender e resolver problemas na operação de toda a rede. Os alunos, ao concluírem este módulo, deverão estar aptos a: • Descrever a tecnologia básica da Ethernet. • Explicar as regras de nomenclatura da tecnologia Ethernet. • Definir como a Ethernet e o modelo OSI interagem. • Descrever o processo de enquadramento e a estrutura de quadros Ethernet. • Enumerar os nomes e propósitos dos campos dos quadros Ethernet. • Identificar as características do CSMA/CD. • Descrever os aspectos principais da temporização, espaçamento entre quadros e backoff após uma colisão de Ethernet. • Definir erros e colisões de Ethernet. • Explicar os conceitos de auto negociação com relação a velocidade e modo de operação.
    • Cisco CCNA 3.1 183 6.1Conceitos Básicos da Ethernet 6.1.1 Introdução à Ethernet A maior parte do tráfego na Internet origina-se e termina com conexões Ethernet. Desde seu início nos anos 70, a Ethernet evoluiu para acomodar o grande aumento na demanda de redes locais de alta velocidade. Quando foram produzidos novos meios físicos, como a fibra ótica, a Ethernet adaptou-se para aproveitar a largura de banda superior e a baixa taxa de erros que as fibras oferecem. Atualmente, o mesmo protocolo que transportava dados a 3 Mbps em 1973 está transportando dados a 10 Gbps. Esse sucesso da Ethernet deve-se aos seguintes fatores: • Simplicidade e facilidade de manutenção. • Capacidade de introdução de novas tecnologias. • Confiabilidade. • Instalação e atualização econômicas. Com a introdução da Gigabit Ethernet, aquilo que começou como uma tecnologia de redes locais, agora se estende a distâncias que fazem da Ethernet um padrão para MAN (Rede Metropolitana) e para WAN (Rede de longa distância). A idéia original para Ethernet surgiu de problemas de permitir que dois ou mais hosts usem o mesmo meio físico e de evitar que sinais interfiram um com o outro. Esse problema de acesso de vários usuários a um meio físico compartilhado foi estudado no início dos anos 1970 na University of Hawaii. Foi desenvolvido um sistema denominado Alohanet para permitir o acesso estruturado de várias estações nas Ilhas do Havaí à banda compartilhada de radiofreqüência na atmosfera. Esse trabalho veio a formar a base para o método de acesso Ethernet conhecido como CSMA/CD. A primeira rede local do mundo foi a versão original da Ethernet. Robert Metcalfe e seus colegas na Xerox fizeram o seu projeto há mais de trinta anos. O primeiro padrão Ethernet foi publicado em 1980 por um consórcio entre a Digital Equipment Company, a Intel, e a Xerox (DIX). Metcalfe quis que a Ethernet fosse um padrão compartilhado que beneficiasse a todos e foi então lançada como padrão aberto. Os primeiros produtos desenvolvidos que usavam o padrão Ethernet foram vendidos durante o início dos anos 80. A Ethernet transmitia até 10 Mbps através de cabo coaxial grosso a uma distância de até 2 quilômetros. Esse tipo de cabo coaxial era conhecido como thicknet e era da espessura de um pequeno dedo.
    • Cisco CCNA 3.1 184 Em 1985, o comitê de padronização de Redes Locais e Metropolitanas do Institute of Electrical and Electronics Engineers (IEEE) publicou padrões para redes locais. Esses padrões começam com o número 802. O padrão para Ethernet é 802.3. O IEEE procurou assegurar que os padrões fossem compatíveis com o modelo da International Standards Organization (ISO)/OSI. Para fazer isso, o padrão IEEE 802.3 teria que satisfazer às necessidades da camada 1 e da parte inferior da camada 2 do modelo OSI. Como resultado, no 802.3, foram feitas algumas pequenas modificações em relação ao padrão Ethernet original. As diferenças entre os dois padrões eram tão insignificantes que qualquer placa de rede Ethernet (NIC) poderia transmitir e receber quadros tanto Ethernet como 802.3. Essencialmente, Ethernet e IEEE 802.3 são padrões idênticos. A largura de banda de10 Mbps da Ethernet era mais do que o suficiente para os computadores pessoais lentos (PCs) dos anos 80. No princípio dos anos 90, os PCs tornaram-se mais rápidos, os tamanhos dos arquivos aumentaram e ocorreram gargalos no fluxo de dados. A principal causa era a baixa disponibilidade de largura de banda. Em 1995, o IEEE anunciou um padrão para 100 Mbps Ethernet. A esse, seguiram-se padrões para Ethernet de gigabit por segundo (Gbps, 1 bilhão de bits por segundo) em 1998 e 1999. Todos esses padrões são essencialmente compatíveis com o padrão Ethernet original. Um quadro Ethernet podia sair de uma placa de rede Ethernet de cabo coaxial mais antiga de 10 Mbps instalada em um PC, ser colocado em um link de fibra Ethernet de 10 Gbps e ter seu destino em uma placa de rede de 100 Mbps. Contanto que o pacote permaneça em redes Ethernet, não será modificado. Por essa razão, a Ethernet é considera bem escalável. A largura de banda da rede poderia ser aumentada muitas vezes sem modificar a tecnologia Ethernet subjacente. O padrão Ethernet original tem sido atualizado várias vezes com a finalidade de acomodar novos meios físicos e taxas mais altas de transmissão. Essas atualizações proporcionam padrões para as tecnologias emergentes e mantêm compatibilidade entre as variações da Ethernet.
    • Cisco CCNA 3.1 185 6.1.2 Regras de nomenclatura da Ethernet IEEE A Ethernet não é apenas uma tecnologia, mas uma família de tecnologias de redes que incluem a Ethernet Legada, Fast Ethernet e Gigabit Ethernet. As velocidades Ethernet podem ser 10, 100, 1000, ou 10.000 Mbps. O formato básico dos quadros e as subcamadas IEEE das camadas 1 e 2 do modelo OSI permanecem consistentes através de todas as formas de Ethernet. Quando a Ethernet precisa ser expandida para acrescentar um novo meio físico ou capacidade, o IEEE publica um novo suplemento para o padrão 802.3. Os novos suplementos recebem uma ou duas letras de designação, como 802.3u. Uma descrição abreviada (denominada identificador) também é designada para o suplemento. A descrição abreviada consiste em: • Um número indicando o número de Mbps transmitido. • A palavra base, indicando que foi usada a sinalização banda base (baseband). • Uma ou mais letras do alfabeto, indicando o tipo do meio físico usado (F = cabo de fibra ótica, T = par trançado de cobre não blindado). A Ethernet se vale da sinalização banda base (baseband), que usa toda a largura de banda disponível no meio físico de transmissão. O sinal de dados é transmitido diretamente através do meio físico de transmissão. Na sinalização de banda larga (broadband), o sinal de dados jamais é colocado diretamente no meio físico. Um sinal analógico, a portadora, é modulado pelo sinal de dados e o sinal da portadora modulado é então transmitido no meio físico. As transmissões de rádio e TV a cabo usam a sinalização de banda larga (broadband). A Ethernet utiliza a sinalização de banda larga (broadband) no padrão 10BROAD36. 10BROAD36 é o padrão IEEE para redes Ethernet operando a 10Mbps que usa transmissão de banda larga (broadband) em cabo coaxial grosso. Atualmente, o padrão 10BROAD36 está obsoleto. O IEEE não pode forçar os fabricantes de equipamentos de redes a cumprirem completamente todas as particularidades de qualquer padrão. O IEEE espera alcançar o seguinte: • Fornecer informações de engenharia necessárias para a fabricação de dispositivos que cumpram os padrões Ethernet. • Promover inovações feitas pelos fabricantes.
    • Cisco CCNA 3.1 186 6.1.3 Ethernet e o modelo OSI A Ethernet opera em duas áreas do modelo OSI, a metade inferior da camada de enlace de dados, conhecida como subcamada MAC, e a camada física. 802.3 Ethernet em Relação ao Modelo OSI Para mover dados entre uma estação Ethernet e outra, os dados freqüentemente passam através de um repetidor. As demais estações no mesmo domínio de colisão vêem o tráfego que passa através de um repetidor. Um Repetidor como visto pelo Modelo OSI Um domínio de colisão é, portanto, um recurso compartilhado. Quaisquer problemas originados em uma parte do domínio de colisão geralmente afetam o domínio de colisão inteiro. Um repetidor é responsável pelo encaminhamento de todo o tráfego a todas as outras portas. O tráfego recebido por um repetidor jamais será enviado à porta de origem. Qualquer sinal detectado por um repetidor será encaminhado. Se o sinal for degradado pela atenuação ou pelo ruído, o repetidor tentará reconstruir e regenerar o sinal.
    • Cisco CCNA 3.1 187 Os padrões garantem um mínimo de largura de banda e operacionalidade, ao especificar o número máximo de estações, o comprimento máximo do segmento, o número máximo de repetidores entre estações, etc. As estações que são separadas por repetidores estão dentro do mesmo domínio de colisão. As estações separadas por bridges ou roteadores estão em domínios de colisão diferentes. A Figura abaixo mapeia uma variedade de tecnologias Ethernet para a metade inferior da camada 2 do modelo OSI e toda a camada 1. Padrões IEEE 802.x A camada 1 da Ethernet envolve as interfaces entre meios físicos, sinais, fluxo de bits que se propagam nos meios físicos, componentes que colocam sinais nos meios e várias topologias. A camada 1 da Ethernet realiza um papel importante na comunicação que ocorre entre dispositivos, mas cada uma de suas funções tem limitações. A camada 2 trata dessas limitações. Camada 1 versus Camada 2 As subcamadas de enlace de dados contribuem significativamente para a compatibilidade da tecnologia e a comunicação entre computadores. A subcamada MAC trata dos componentes físicos que serão usados para comunicar as informações. A camada LLC (Logical Link Control) permanece relativamente independente do equipamento físico que será usado para o processo de comunicação.
    • Cisco CCNA 3.1 188 A Figura abaixo mapeia uma variedade de tecnologias Ethernet para a metade inferior da camada 2 e para toda a camada 1do modelo OSI . Já que existem outras variedades de Ethernet, aquelas exibidas aqui são as mais universalmente usadas. As Tecnologias Ethernet Mapeadas ao Modelo OSI
    • Cisco CCNA 3.1 189 6.1.4 Nomenclatura Para permitir uma entrega local de quadros na Ethernet, deverá existir um sistema de endereçamento, uma maneira exclusiva de identificação de computadores e interfaces. Computadores Sem Nome em uma Rede A Ethernet usa endereços MAC que têm 48 bits de comprimento e são expressos como doze dígitos hexadecimais. Os primeiros seis dígitos hexadecimais, que são administrados pelo IEEE, identificam o fabricante ou o fornecedor. Esta parte do endereço MAC é conhecida como OUI (Organizational Unique Identifier). Os seis dígitos hexadecimais restante representam o número de série da interface ou outro valor administrado pelo fabricante do equipamento específico. Formato do Endereço MAC Os endereços MAC às vezes são conhecidos como burned-in addresses (BIA), porque são gravados na memória apenas de leitura (ROM) e são copiados na memória de acesso aleatório (RAM) quando a placa de rede é inicializada. Na camada de enlace de dados, cabeçalhos e trailers MAC são adicionados aos dados da camada superior. O cabeçalho e o trailer contêm informações de controle destinadas à camada de enlace de dados no sistema de destino. Os dados das camadas superiores são encapsulados dentro do quadro da camada de enlace de dados, entre o cabeçalho e o trailer, que é então transmitido na rede. As placas de rede usam o endereço MAC para avaliar se a mensagem deve ser passada para as camadas superiores do modelo OSI. A placa de rede faz essa avaliação sem usar o tempo de processamento da CPU, proporcionando melhores tempos de comunicações na rede Ethernet. Em uma rede Ethernet, quando um dispositivo quer enviar dados, ele pode abrir um caminho de comunicação com o outro dispositivo, usando o endereço MAC de destino. O dispositivo de origem insere um cabeçalho com o endereço MAC do destino pretendido e envia os dados para a rede. Como esses dados trafegam pelos meios físicos da rede, a placa de rede em cada dispositivo na rede verifica se o seu endereço MAC corresponde ao endereço de destino físico carregado pelo quadro de dados. Se não houver correspondência, a placa de rede descartará o quadro de dados. Quando os dados chegam ao seu nó de destino, a placa de rede faz uma cópia e passa o quadro adiante pelas camadas OSI.
    • Cisco CCNA 3.1 190 Em uma rede Ethernet, todos os nós precisam examinar o cabeçalho MAC, mesmo que os nós de comunicação estejam lado a lado. Todos os dispositivos conectados à rede local Ethernet têm interfaces endereçadas, inclusive estações de trabalho, impressoras, roteadores e switches.
    • Cisco CCNA 3.1 191 6.1.5 Quadros da camada 2 Os fluxos de bits codificados (dados) em meios físicos representam uma grande realização tecnológica, mas eles, sozinhos, não são suficientes para fazer com que a comunicação ocorra. O enquadramento ajuda a obter as informações essenciais que não poderiam, de outra forma, ser obtidas apenas com fluxos de bit codificados. Exemplos dessas informações são: • Quais computadores estão se comunicando entre si. • Quando a comunicação entre computadores individuais começa e quando termina. • Providencia um método para a detecção de erros que ocorreram durante a comunicação. • De quem é a vez de "falar" em uma "conversa" entre computadores. Enquadramento é o processo de encapsulamento da camada 2. Um quadro é uma unidade de dados de protocolo da camada 2. Um gráfico de tensão em relação ao tempo pode ser usado para visualizar bits. No entanto, ao se lidar com unidades de dados maiores e informações de endereçamento e de controle, um gráfico de tensão X tempo pode se tornar muito grande e confuso. Outro tipo de diagrama que pode ser usado é o diagrama de formatode quadro, baseado em gráficos de tensão em relação ao tempo. Diagramas de formato de quadros são lidos da esquerda para a direita, como um gráfico de osciloscópio. O diagrama de formato de quadros exibe diferentes agrupamentos de bits (campos) que executam outras funções. De Quadros a Bits Há muitos tipos diferentes de quadros descritos por diversos padrões. Um único quadro genérico tem seções chamadas de campos e cada campo é composto de bytes. Os nomes dos campos são os seguintes: • Campo de início de quadro. • Campo de endereço. • Campo de comprimento/tipo. • Campo de dados. • Campo de seqüência de verificação de quadro.
    • Cisco CCNA 3.1 192 Formato de Quadro Genérico Quando os computadores estão conectados a um meio físico, deve haver alguma forma de informar aos outros computadores quando eles estão a ponto de transmitir um quadro. Tecnologias diversas têm formas diferentes de fazer isso, mas todos os quadros, independentemente da tecnologia, têm uma seqüência de bytes para a sinalização do início de quadro. Todos os quadros contêm informações de identificação, como o nome do nó de origem (endereço MAC) e o nome do nó de destino (endereço MAC). A maioria dos quadros tem alguns campos especializados. Em algumas tecnologias, um campo de comprimento especifica o comprimento exato de um quadro em bytes. Alguns quadros têm um campo de tipo, que especifica que o protocolo da camada 3 está fazendo o pedido de envio. A finalidade do envio de quadros é a transferência de dados de camadas superiores, essencialmente os dados de aplicativos do usuário, da origem para o destino. O pacote de dados inclui a mensagem a ser transmitida, ou seja, os dados do aplicativo do usuário. Os bytes de enchimento podem ser acrescentados para que os quadros possam ter um comprimento mínimo para fins de temporização. Os bytes do LLC (Logical Link Control) também estão incluídos no campo de dados nos quadros padrão IEEE. A subcamadas LLC pega os dados do protocolo de rede, um pacote IP e adiciona mais informações de controle para ajudar a entregar esse pacote IP ao nó de destino. A camada 2 comunica-se com as camadas de nível superior através do LLC. Todos os quadros e os bits, bytes e campos neles contidos, são susceptíveis a erros de uma variedade de origens. O campo FCS (Frame Check Sequence) contém um número calculado pelo nó de origem baseado nos dados do quadro. Esse FCS é, então, adicionado ao final do quadro que está sendo enviado. Quando o nó de destino recebe o quadro, o número FCS é recalculado e comparado ao número FCS incluído no quadro. Se os dois números são diferentes, conclui-se que há um erro, o quadro é então descartado. Em função da origem não ter como detectar que o quadro foi descartado, a retransmissão tem que ser iniciada pelas camadas superiores por meio de protocolos orientados a conexão que provêem um controle no fluxo de dados.
    • Cisco CCNA 3.1 193 Existem três formas principais de calcular o número Frame Check Sequence: • CRC (Verificação de Redundância Cíclica): realiza cálculos nos dados. • Paridade bidimensional: coloca bytes individuais em uma matriz bidimensional, sobre a qual é realizada uma verificação horizontal e vertical, criando um byte extra para que se tenha um número par ou ímpar de 1s binários. • Internet checksum: adiciona os valores de todos os bits de dados para obter uma soma. O nó que transmite os dados deve obter atenção de outros dispositivos, para iniciar um quadro e para concluir o quadro. O campo tamanho indica o fim do quadro, e o quadro é considerado concluído depois do FCS. Algumas vezes, há uma seqüência formal de bytes chamada de delimitadora de fim de quadro.
    • Cisco CCNA 3.1 194 6.1.6 Estrutura do quadro Ethernet Na camada de enlace de dados, a estrutura do quadro é quase idêntica para todas as velocidades da Ethernet, desde 10 Mbps até 10.000 Mbps. Ethernet IEEE 802.3 No entanto, na camada física, quase todas as versões de Ethernet são substancialmente diferentes umas das outras, com cada velocidade tendo um diferente conjunto de regras de projeto de arquitetura. Na versão da Ethernet que foi desenvolvida por DIX antes da adoção da versão IEEE 802.3 da Ethernet, o Preâmbulo e o SFD (Start Frame Delimiter) foram combinados em um único campo, apesar do padrão binário ser idêntico. O campo denominado Comprimento/Tipo foi identificado apenas como Comprimento nas primeiras versões do IEEE e apenas como Tipo na versão DIX. Esses dois usos do campo foram oficialmente combinados em uma versão mais recente do IEEE, pois os dois usos do campo são comuns por toda a indústria. Formato de quadro Ethernet II
    • Cisco CCNA 3.1 195 O campo Tipo da Ethernet II está incorporado na definição de um quadro no padrão 802.3 atual. O nó receptor precisa determinar qual é o protocolo de camada superior que está presente em um quadro de entrada, examinando o campo Comprimento/Tipo. Se o valor dos dois octetos é igual ou maior que 0x0600 (hexadecimal), 1536 em decimal, então o conteúdo do campo de dados (data field) do quadro é decodificado de acordo com o protocolo indicado. Ethernet II é o formato de quadro Ethernet utilizado em redes TCP/IP. Ethernet II
    • Cisco CCNA 3.1 196 6.1.7 Campos de um quadro Ethernet Alguns dos campos permitidos ou exigidos em um Quadro Ethernet 802.3 são: • Preâmbulo. • Delimitador de Início de Quadro. • Endereço de Destino. • Endereço de Origem. • Comprimento/Tipo. • Dados e Enchimento. • FCS. • Extensão. Formato de Quadros Ethernet e IEEE 802.3 O Preâmbulo é um padrão de uns e zeros alternantes usado para a sincronização da temporização em Ethernet assíncrona de 10 Mbps e em implementações mais lentas. As versões mais rápidas da Ethernet são síncronas, e essa informação de temporização é redundante, mas mantida para fins de compatibilidade. Preâmbulo Um Delimitador de Início de Quadro consiste em um campo de um octeto que marca o final das informações de temporização e contém a seqüência de bits 10101011. O campo Endereço de Destino contém um endereço de destino MAC. O endereço de destino pode ser unicast, multicast ou broadcast. O campo Endereço de Origem contém um endereço de origem MAC. O endereço de origem é geralmente o endereço unicast do nó Ethernet que está transmitindo. Existe, contudo, um crescente número de protocolos virtuais em uso que utiliza, e às vezes, compartilha um endereço MAC de origem específico para identificar a entidade virtual.
    • Cisco CCNA 3.1 197 O campo Comprimento/Tipo suporta dois usos diferentes. Se o valor for inferior a 1536 decimal, 0x600 (hexadecimal), então o valor indica o comprimento. A interpretação do comprimento é usada onde a Camada LLC proporciona a identificação do protocolo. O valor do tipo especifica o protocolo da camada superior que recebe os dados depois que o processamento da Ethernet estiver concluído. O tamanho indica o número de bytes de dados que vêm depois desse campo. O campo Dados e o enchimento (padding), se necessário, pode ser de qualquer tamanho que não faça com que o quadro exceda o tamanho máximo permitido para o quadro A MTU (Unidade de Transmissão Máxima) para Ethernet é de 1500 octetos. Portanto, os dados não devem exceder esse tamanho. O conteúdo desse campo não é especificado. Um enchimento não especificado será inserido imediatamente após os dados do usuário quando não houver dados de usuário suficientes para que o quadro satisfaça o comprimento mínimo para o quadro. A Ethernet exige que o quadro tenha entre 64 e 1518 octetos. Uma FCS contém um valor CRC de 4 bytes que é criado pelo dispositivo emissor e recalculado pelo dispositivo receptor para verificar se há quadros danificados. Já que a corrupção de um único bit em qualquer lugar desde o início do Endereço de Destino até o final do campo FCS fará com que o checksum seja diferente, o cálculo do FCS inclui o próprio campo FCS. Não é possível distinguir entre a corrupção do próprio FCS e a corrupção de qualquer outro campo usado no cálculo.
    • Cisco CCNA 3.1 198 6.2 Operação da Ethernet 6.2.1 Media Access Control (MAC) MAC refere-se aos protocolos que determinam quais dos computadores em um ambiente de meios físicos compartilhados, ou domínio de colisão, tem permissão para transmitir os dados. O MAC, com o LLC, compreende a versão IEEE da Camada 2 do OSI. O MAC e o LLC são subcamadas da Camada 2. Há duas abrangentes categorias de Controle de Acesso aos Meios, determinístico (revezamento) e não determinístico (primeiro a chegar, primeiro a usar). Exemplos de protocolos determinísticos incluem Token Ring e FDDI. Em uma rede Token Ring, os hosts individuais são organizados em um anel e um token especial de dados circula ao redor do anel, chegando a cada host seqüencialmente. Quando um host quer transmitir, ele captura o token, transmite os dados durante um tempo limitado e depois encaminha o token até o próximo host no anel. O Token Ring é um ambiente sem colisões, pois apenas um host é capaz de transmitir em qualquer dado momento. Os protocolos MAC não-determinísticos usam uma abordagem primeiro a chegar, primeiro a usar. O CSMA/CD é um sistema simples. A placa de rede observa se há ausência de sinal nos meios físicos e começa a transmitir. Se dois nós transmitirem simultaneamente, ocorrerá uma colisão e nenhum dos nós poderá transmitir. Três tecnologias comuns da camada 2 são Token Ring, FDDI e Ethernet. Todas as três especificam questões relativas à camada 2, LLC, nomeação, enquadramento e MAC, assim como componentes de sinalização da Camada 1 e questões dos meios físicos. As tecnologias específicas de cada uma delas são as seguintes: • Ethernet: topologia de barramento lógico (o fluxo de informações acontece em um barramento linear) e estrela física ou estrela estendida (cabeada como uma estrela). • Token Ring: topologia lógica em anel (em outras palavras, o fluxo de informações é controlado em um anel) e uma topologia física em estrela (em outras palavras, é cabeada como uma estrela). • FDDI: topologia em anel lógico (o fluxo de informações é controlado em um anel) e topologia em anel duplo (cabeado como um anel duplo). Tecnologias comuns de Redes Locais
    • Cisco CCNA 3.1 199 6.2.2 Regras MAC e detecção de colisões/backoff A Ethernet é uma tecnologia de broadcast de meios físicos compartilhados. O método de acesso CSMA/CD usado na Ethernet executa três funções: • Transmitir e receber pacotes de dados. • Decodificar pacotes de dados e verificar se os endereços são válidos, antes de passá-los às camadas superiores do modelo OSI. • Detectar erros dentro dos pacotes de dados ou na rede. CSMA/CD No método de acesso CSMA/CD, os dispositivos de rede com dados a serem transmitidos funcionam em modalidade de "escutar antes de transmitir". Isso significa que, quando um nó deseja enviar dados, ele deve verificar primeiramente se os meios da rede estão ocupados. Se o nó determinar que a rede está ocupada, o nó aguardará um tempo aleatório antes de tentar novamente. Se o nó determinar que os meios físicos da rede não estão ocupados, o nó começará a transmitir e a escutar. O nó escuta para garantir que nenhuma outra estação esteja transmitindo ao mesmo tempo. Depois de completar a transmissão dos dados, o dispositivo retornará ao modo de escuta. Processo CSMA/CD Os dispositivos de rede detectam a ocorrência de uma colisão pelo aumento da amplitude do sinal nos meios físicos da rede. Quando ocorre uma colisão, cada um dos nós que está transmitindo continuará a transmitir por um curto espaço de tempo, para garantir que todos os dispositivos identifiquem a colisão. Depois que todos os dispositivos detectaram a colisão, um algoritmo de recuo (backoff) será invocado e a transmissão será interrompida. Os nós param então de transmitir durante um tempo aleatório determinado pelo algoritmo de backoff. Quando este período expirar, cada um dos nós envolvidos poderá tentar obter acesso aos meios físicos da rede. Os dispositivos envolvidos na colisão não terão prioridade na transmissão.
    • Cisco CCNA 3.1 200 6.2.3 Temporização Ethernet As regras e especificações básicas para a operação apropriada da Ethernet não são particularmente complicadas, embora algumas implementações mais rápidas das camadas físicas caminhem neste sentido. Apesar da simplicidade básica, quando surge um problema na Ethernet é freqüentemente bem difícil identificar a origem. Devido à arquitetura de barramento comum da Ethernet, também descrita como um único ponto distribuído de falhas, o escopo do problema geralmente engloba todos os dispositivos dentro do domínio de colisão. Em situações onde são usados repetidores, pode-se incluir dispositivos até quatro segmentos distantes. Qualquer estação em uma rede Ethernet que deseje transmitir uma mensagem, primeiro "escuta" para garantir que nenhuma outra estação esteja atualmente transmitindo. Se o cabo estiver silencioso, a estação começará imediatamente a transmitir. O sinal elétrico demora um pouco para trafegar pelo cabo (atraso) e cada repetidor subseqüente introduz um pouco de latência no encaminhamento do quadro de uma porta até a próxima. Devido ao atraso e à latência, é possível que mais de uma estação comece a transmissão no mesmo, ou quase no mesmo momento. Isso resulta em uma colisão. Se a estação conectada estiver operando em full-duplex, a estação poderá enviar e receber simultaneamente e não deverão ocorrer colisões. A operação full-duplex também muda as considerações de temporização e elimina o conceito de slot time (tempo de espera). A operação full-duplex acomoda projetos de arquitetura de redes maiores já que é removida a restrição de temporização para detecção de colisões. Em half-duplex, contanto que não ocorra uma colisão, a estação emissora transmitirá 64 bits de informações de sincronização de temporização, conhecidos como preâmbulo. A estação emissora então transmitirá as seguintes informações: • Informações de endereçamento MAC de destino e origem. • Outras informações de cabeçalho. • O próprio payload de dados. • Checksum (FCS) usado para garantir que a mensagem não foi corrompida ao longo do caminho. As estações que recebem o quadro recalculam o FCS para determinar se a mensagem recebida é válida e depois passam as mensagens válidas para a camada superior na pilha de protocolos. As versões de 10 Mbps e mais lentas da Ethernet são assíncronas. Assíncrona significa que cada estação receptora usará os oito octetos de informações de temporização para sincronizar o circuito receptor aos dados recebidos para depois descartá-las. As implementações de 100 Mbps e mais rápidas são síncronas. Síncrona significa que as informações de temporização não são necessárias, porém por razões de compatibilidade o Preâmbulo e o Delimitador de Inicio de Quadro (Start Frame Delimiter – SFD) permanecem presentes. Para todas as velocidades de transmissão Ethernet a 1000 Mbps ou inferiores, o padrão descreve como uma transmissão não pode ser menor que o slot time. O slot time para Ethernet de 10 e 100 Mbps é de 512 tempos de bit, ou 64 octetos. O slot time para 1000
    • Cisco CCNA 3.1 201 Mbps Ethernet é de 4096 tempos de bit, ou 512 octetos. O slot time é calculado considerando comprimentos máximos de cabo na maior arquitetura permitida para as redes. Todos os tempos de atraso da propagação do hardware estão ao máximo permitido e o sinal de bloqueio (jam signal) de 32 bits é usado quando são detectadas colisões. O slot time real calculado é um pouco maior que o tempo teórico exigido para transitar entre os pontos mais distantes do domínio de colisão, colidir com outra transmissão no último instante possível e depois enviar de volta os fragmentos da colisão à estação emissora para então ser detectada. Para que o sistema funcione, a primeira estação precisa saber sobre a colisão antes de terminar de enviar um quadro de tamanho mínimo permitido. Para permitir que uma 1000-Mbps Ethernet opere em half-duplex, foi adicionado o campo Extensão ao enviar pequenos fragmentos meramente para manter o transmissor ocupado durante um tempo suficiente para a volta do fragmento da colisão. Esse campo está presente apenas em links half-duplex de 1000 Mbps e permite que os quadros de tamanho mínimo sejam de tamanho suficiente para satisfazer os requisitos do slot time. Os bits do campo Extensão são descartados pela estação receptora. Na Ethernet de 10 Mbps, um bit na camada MAC exige 100 nanossegundos (ns) para transmitir. A 100 Mbps aquele mesmo bit exige 10 ns para transmitir e a 1000 Mbps, leva apenas 1 ns. Como estimativa aproximada, 20,3 cm (8 pol.) por nanossegundo é freqüentemente usado para o cálculo do atraso de propagação ao longo do cabo UTP. Para 100 metros de UTP, significa que leva um pouco menos de 5 tempos de bit para um sinal 10BASE-T transitar todo o comprimento do cabo. Tempo de Bit Para que a CSMA/CD Ethernet possa operar, a estação emissora deve estar ciente de uma colisão antes de completar a transmissão de um quadro de tamanho mínimo. A 100 Mbps, a temporização do sistema mal pode acomodar 100 metros de cabos. A 1000 Mbps, são exigidos ajustes especiais, já que quase um quadro inteiro de tamanho mínimo seria transmitido antes que o primeiro bit atravessasse os primeiros 100 metros no cabo UTP. Por essa razão half-duplex não é permitido em 10-Gigabit Ethernet.
    • Cisco CCNA 3.1 202 6.2.4 Espaçamento entre quadros (Interframe spacing) e backoff O espaçamento mínimo entre dois quadros que não colidem é também conhecido como espaçamento entre quadros (interframe spacing). A medida é feita desde o último bit do campo FCS do primeiro quadro até o primeiro bit do preâmbulo do segundo quadro. Espaçamento entre quadros Parâmetro de Tempo Depois de enviado um quadro, todas as estações na 10-Mbps Ethernet devem esperar um mínimo de 96 tempos de bit (9,6 microssegundos) antes que qualquer estação possa ter permissão para transmitir o próximo quadro. Nas versões mais rápidas de Ethernet o espaçamento (spacing gap) permanece igual, 96 tempos de bit, mas o tempo exigido para aquele intervalo vai diminuindo proporcionalmente. Esse intervalo é conhecido como intervalo de espaçamento. O intervalo tem a finalidade de permitir que as estações mais lentas tenham tempo para processar o quadro anterior e preparar para o próximo quadro. É esperado que o repetidor regenere as informações completas de temporização de 64 bits, que são o preâmbulo e o SFD, no início de cada quadro. Esse é o caso apesar da potencial perda de alguns bits iniciais do preâmbulo devido à sincronização lenta. Devido a essa reintrodução forçada de bits de temporização, uma pequena redução do intervalo entre quadros não é somente possível, mas o esperado. Alguns chipsets Ethernet não se acomodam à redução do espaçamento entre quadros e começam a deixar de ver os quadros à medida que o intervalo seja reduzido. Com o aumento da potência de processamento nos dispositivos desktop, seria muito fácil um computador pessoal saturar um segmento Ethernet com tráfego e começar a transmitir novamente antes que fosse satisfeito o tempo de atraso do espaçamento entre quadros. Depois de ocorrer uma colisão e todas as estações permitirem que o cabo se torne inativo (cada um espera o espaçamento completo entre quadros), as estações que colidiram então precisam esperar outro período de tempo, que possivelmente aumentará ainda mais, antes que tentem retransmitir o quadro que colidiu. O período de espera é intencionalmente definido como aleatório para que duas estações não atrasem por um período de tempo idêntico antes da retransmissão, resultando em mais colisões. Isso se realiza em parte mediante a expansão do intervalo do qual o tempo da retransmissão aleatória é selecionado em cada tentativa de retransmissão. O período de espera é medido em incrementos do slot time do parâmetro. Se a camada MAC for incapaz de enviar o quadro após dezesseis tentativas, ela desiste e gera um erro para a camada da rede. Tal ocorrência é comparativamente rara e só acontece sob cargas de rede extremamente pesadas, ou quando existe um problema físico na rede.
    • Cisco CCNA 3.1 203 6.2.5 Tratamento de erros A condição de erro mais comum em redes Ethernet é a colisão. As colisões representam o mecanismo para resolver a competição para o acesso à rede. A existência de algumas colisões proporciona uma maneira elegante, simples e econômica dos nós da rede arbitrarem a competição pelos recursos da rede. Quando a competição para a rede se torna excessiva, as colisões podem se tornar um impedimento significativo para a operação útil da rede. As colisões resultam em perda de largura de banda na rede igual à transmissão inicial e o sinal de bloqueio (jam signal) da colisão. Isso é um atraso de consumo e afeta todos os nós de rede e possivelmente causa uma redução significativa no throughput da rede. A grande maioria de colisões ocorre bem no início do quadro, geralmente antes do SFD. As colisões que ocorrerem antes do SFD geralmente não serão relatadas às camadas mais altas, como se a colisão nunca tivesse ocorrido. Assim que uma colisão for detectada, as estações emissoras transmitirão um sinal de "bloqueio" de 32 bits que cuidará da colisão. Isso é feito para que quaisquer dados sendo transmitidos sejam completamente corrompidos e todas as estações tenham a oportunidade de detectar a colisão. Na Figura abaixo, duas estações escutam para garantir que o cabo esteja inativo e depois transmitem. Rotina de Tratamento de Erro em um Domínio de Colisão a 10 Mbps
    • Cisco CCNA 3.1 204 A estação 1 conseguiu transmitir uma boa porcentagem do quadro antes que o sinal chegasse ao último segmento de cabo. A estação 2 não havia recebido o primeiro bit de transmissão antes do início de sua própria transmissão e só conseguiu enviar poucos bits antes que a placa de rede detectasse a colisão. A estação 2 imediatamente interrompeu a transmissão em andamento, substituiu o sinal de bloqueio (jam signal) de 32 bits e interrompeu todas as transmissões. Durante o evento de colisão e bloqueio que a Estação 2 experimentava, os fragmentos da colisão estavam no seu caminho de volta através do domínio repetido de colisão em direção à Estação 1. A Estação 2 completou a transmissão do sinal de bloqueio (jam signal) de 32 bits e ficou silenciosa antes que a colisão se propagasse de volta à Estação 1, que ainda não sabia da colisão e continuava a transmitir. Quando os fragmentos de colisão finalmente chegaram a Estação 1, a transmissão atual foi interrompida e substituída por um sinal de bloqueio (jam signal) de 32 bits em lugar do restante do quadro que estava sendo transmitido. Depois de enviar o sinal de bloqueio (jam signal) de 32 bits a Estação 1 interrompeu todas as transmissões. Um sinal de bloqueio (jam signal) pode ser composto de quaisquer dados binários desde que não formem um checksum apropriado para a porção do quadro já transmitido. O padrão de dados mais universalmente observado para um sinal de bloqueio (jam signal) é simplesmente uma repetição de um, zero, um, zero, o mesmo que o Preâmbulo. Quando observado por um analisador de protocolos, esse padrão se parece como uma seqüência de repetição hexadecimal 5 ou A. As mensagens corrompidas e parcialmente transmitidas são conhecidas como fragmentos de colisão ou "runts". As colisões normais têm um comprimento inferior a 64 octetos e por isso falham no teste de comprimento mínimo e no teste de checksum FCS.
    • Cisco CCNA 3.1 205 6.2.6 Tipos de colisão As colisões geralmente acontecem quando duas ou mais estações Ethernet transmitem simultaneamente dentro de um domínio de colisão. Uma colisão simples é uma colisão que foi detectada enquanto se tentava transmitir um quadro, mas que, na próxima tentativa, o quadro foi transmitido com êxito. Colisões múltiplas indicam que o mesmo quadro colidiu repetidamente antes de ser transmitido com êxito. Os resultados de colisões, fragmentos de colisões, são quadros parciais ou corrompidos inferiores a 64 octetos e que têm um FCS inválido. Os três tipos de colisão são: • Local. • Remota. • Tardia. Resumo dos Tipos de Colisão: Local, Remota e Tardia Para ser criada uma colisão local no cabo coaxial (10BASE2 e 10BASE5), o sinal se propaga ao longo do cabo até encontrar um sinal de outra estação. As formas de onda então se sobrepõem, cancelando algumas partes do sinal e reforçando ou duplicando outras partes. A duplicação do sinal impele o nível de tensão do sinal além do máximo permitido. Esta condição de sobretensão é então detectada por todas as estações no segmento do cabo local como uma colisão. No começo, a forma de onda na Figura abaixo representa dados codificados Manchester normais. 10BASE2/10BASE5 Colisão Local
    • Cisco CCNA 3.1 206 Alguns ciclos à frente na amostra, a amplitude da onda é duplicada. Esse é o começo da colisão, onde as duas formas de onda estão se sobrepondo. Um pouco antes do final da amostra, a amplitude retorna ao normal. Isto acontece quando a primeira estação a detectar a colisão interrompe a transmissão e o sinal de bloqueio da segunda estação de colisão ainda é observado. Em um cabo UTP, como 10BASE-T, 100BASE-TX e 1000BASE-T, uma colisão é detectada no segmento local somente quando uma estação detecta um sinal no par RX ao mesmo tempo em que está transmitindo através do par TX. Como os dois sinais estão em pares diferentes, não há nenhuma mudança característica no sinal. As colisões são reconhecidas em UTP somente quando a estação está operando em half-duplex. A única diferença funcional entre a operação half e full-duplex a esse respeito é se os pares de transmissão e recepção podem ou não ser usados simultaneamente. Se a estação não estiver realizando uma transmissão, ela não poderá detectar uma colisão local. Inversamente, uma falha no cabo, tal como um excesso de diafonia, pode fazer com que a estação interprete a sua própria transmissão como uma colisão local. Uma colisão remota se caracteriza por um quadro de comprimento inferior ao mínimo, que tenha um checksum FCS inválido, mas que não demonstre os sintomas de sobretensão ou atividade RX/TX simultânea, indicativos de uma colisão local. Este tipo de colisão normalmente resulta de colisões que ocorrem na extremidade remota de uma conexão repetida. Um repetidor não transfere um estado de sobretensão e não pode ser a causa de uma estação ter o par TX e o par RX ativos simultaneamente. A estação teria que estar transmitindo para ter os dois pares ativos e isso constituiria uma colisão local. Nas redes com UTP, este é o tipo de colisão mais freqüentemente observada. Não existe mais possibilidade de uma colisão normal ou válido depois que os primeiros 64 octetos de dados tenham sido transmitidos pelas estações emissoras. As colisões que ocorrem depois dos primeiros 64 octetos são chamadas "colisões tardias". A diferença mais significativa entre colisões tardias e colisões que ocorrem antes da transmissão dos primeiros 64 octetos é que a placa de rede Ethernet retransmite automaticamente os quadros que colidiram normalmente, mas não retransmite automaticamente um quadro que colidiu mais tarde. Sob o ponto de vista da placa de rede tudo saiu bem, e são as camadas superiores da pilha de protocolos que devem determinar que o quadro foi perdido. Com exceção da retransmissão, uma estação que detecta uma colisão tardia a trata de maneira idêntica a uma colisão normal.
    • Cisco CCNA 3.1 207 6.2.7 Erros da Ethernet É inestimável o conhecimento dos erros típicos para entender tanto a operação quanto à solução de problemas das redes Ethernet. A seguir, temos as origens de erros de Ethernet: • Colisão ou "runt": Transmissão simultânea que ocorre antes que tenha decorrido o slot time. • Colisão tardia: Transmissão simultânea que ocorre após ter decorrido o slot time. • Jabber, erros de quadros longos (long frames) e de tamanho (range error): Transmissão excessivamente longa ou de comprimento proibido. • Quadro pequeno (short frame), fragmento de colisão ou "runt": Transmissão muito curta. • Erro de FCS: Transmissão corrompida. • Erro de alinhamento: Número insuficiente ou excessivo de bits transmitidos. • Erro de tamanho (range error): O número real e o número relatado de octetos no quadro não são idênticos. • Fantasma ou jabber: Um preâmbulo anormalmente longo ou evento de bloqueio. Enquanto as colisões locais e remotas são consideradas como parte normal das operações da Ethernet, as colisões tardias são consideradas erros. A presença de erros em uma rede sempre indica que uma investigação mais detalhada é recomendável. A gravidade do problema é uma indicação da urgência na solução dos erros detectados. Alguns erros detectados ao longo de vários minutos ou horas seriam considerados uma baixa prioridade. Milhares de erros detectados durante poucos minutos indicam que uma atenção urgente é recomendável. O Jabber é definido em vários lugares no padrão 802.3 como sendo uma transmissão com uma duração de pelo menos 20.000 a 50.000 tempos de bits. No entanto, a maioria das ferramentas de diagnóstico relata o jabber sempre que é detectada uma transmissão que excede o tamanho de quadro máximo permitido, o que é consideravelmente inferior a 20.000 a 50.000 tempos de bits. A maioria das referências ao jabber pode ser mais corretamente denominadas quadros compridos (long frames). Long Frame Um quadro comprido (long frame) é maior que o tamanho máximo permitido, considerando se o quadro foi marcado ou não. Não se considera se o quadro tem ou não um checksum FCS válido. Este erro normalmente significa que foi detectado jabber na rede.
    • Cisco CCNA 3.1 208 Um quadro pequeno é um quadro de tamanho inferior ao máximo permitido de 64 octetos, com uma boa seqüência de verificação de quadro (FCS). Alguns analisadores de protocolos e monitores de redes chamam tais quadros de "runts" (cotocos). Em geral, a presença de quadros pequenos (short frames) não é nenhuma garantia de que a rede está falhando. Short Frame O termo "runt" é geralmente um termo impreciso da gíria que significa algo menor que um quadro de tamanho permitido. Pode referir-se a quadros pequenos (short frames) com checksums FCS válidos, embora, geralmente, refere-se a fragmentos de colisões.
    • Cisco CCNA 3.1 209 6.2.8 FCS e além Um quadro recebido que tenha uma seqüência de verificação de quadro (FCS) defeituoso, também conhecido como erro de Checksum ou erro de CRC, difere da transmissão original em pelo menos um bit. Em um quadro de erro de FCS, as informações do cabeçalho provavelmente estão corretas, mas o checksum calculado pela estação receptora não é igual ao checksum incluído no final do quadro pela estação transmissora. O quadro é, então, descartado. Um grande número de erros FCS originados de uma única estação geralmente indica uma placa de rede defeituosa e/ou softwares de drivers corrompidos ou, ainda, um defeito no cabo que liga essa estação à rede. Se os erros de FCS forem associados a várias estações, então eles geralmente podem ser atribuídos a defeitos no cabeamento, uma versão defeituosa do driver das placas de rede, um defeito da porta de um hub ou um ruído derivado do sistema de cabeamento. Uma mensagem que não termina em um limite de octeto é conhecida como erro de alinhamento. Em vez de existir um número correto de bits na formação dos grupos de octetos, existem bits adicionais ou restantes (menos de oito). Tal tipo de quadro é truncado até o limite de octeto mais próximo e, se o checksum FCS falhar, é relatado um erro de alinhamento. Em muitos casos, este tipo de erro é causado por defeitos no software de drivers ou por colisões e, freqüentemente, é acompanhado por falhas do checksum FCS. Um quadro com valor válido no campo Length (Comprimento), mas que não possui o número correto de octetos contados no campo de dados do quadro recebido, é conhecido como erro de tamanho (range error). Este erro também aparece quando o valor no campo de comprimento é inferior ao tamanho mínimo permitido sem enchimento adicional do campo de dados. Um erro semelhante, Fora da Faixa (out of range), é relatado quando o valor no campo Length (Comprimento) indica dados com tamanho superior ao limite permitido. A Fluke Networks criou o termo "ghost" (fantasma) para significar energia (ruído) detectado no cabo que parece ser um quadro, mas ao qual falta um SFD válido. Para ser qualificado como fantasma, um quadro precisa ter um comprimento mínimo de 72 octetos, incluído o preâmbulo. Caso contrário, é classificado como uma colisão remota. Devido à natureza peculiar dos fantasmas, é importante notar que os resultados dos testes dependem em grande parte de onde é realizada a medição no segmento. Loops de terra e outros problemas de fiação são geralmente a causa dos quadros fantasmas. A maioria das ferramentas de monitoração de redes não reconhece a existência de fantasmas pela mesma razão que não reconhece colisões de preâmbulo. Essas ferramentas baseiam-se totalmente nas informações fornecidas pelo chipset. Os analisadores de protocolo somente por software, muitos analisadores baseados em hardware, ferramentas portáteis de diagnóstico, assim como a maioria das pontas de prova RMON (de monitoração remota), não relatam tais eventos. Erros FCS
    • Cisco CCNA 3.1 210 6.2.9 Autonegociação da Ethernet Com o crescimento da Ethernet de 10 a 100 e até 1000 Mbps, uma exigência era possibilitar a interoperabilidade de cada uma destas tecnologias, a ponto de permitir a conexão direta entre as interfaces de 10, 100 e 1000. Foi elaborado um processo denominado Autonegociação de velocidades em half-duplex ou full-duplex. Especificamente, por ocasião da introdução da Fast Ethernet, o padrão incluía um método de configurar automaticamente uma dada interface para coincidir com a velocidade e capacidade do parceiro interligado. Este processo define como dois parceiros de interligação podem negociar automaticamente a sua configuração para oferecer o melhor nível de desempenho conjunto. O processo ainda possui a vantagem de envolver somente a parte mais baixa da camada física. 10BASE-T exigia que cada estação emitisse um link pulse a cada 16 milissegundos, aproximadamente, enquanto a estação não estivesse ocupada com a transmissão de uma mensagem. A autonegociação adotou este sinal e deu-lhe o novo nome de Normal Link Pulse (NLP). Quando é enviada uma série de NLPs em um grupo para fins de Autonegociação, o grupo é denominado rajada de Fast Link Pulse (FLP). Cada rajada de FLP é enviada num intervalo de temporização idêntico ao de um NLP e tem a finalidade de permitir que os dispositivos 10BASE-T mais antigos operem normalmente no caso de receberem uma rajada de FLP. Temporização FLP versus NLP A Autonegociação é realizada pela transmissão de uma rajada de Link Pulses 10BASE-T de cada um dos parceiros interligados. A rajada comunica as capacidades da estação transmissora ao seu parceiro interligado. Após ambas as estações interpretarem o que a outra parte está oferecendo, cada uma alterna para a configuração de desempenho conjunto mais alto e estabelecem um link naquela velocidade. Se algo interromper as comunicações e o link for perdido, os dois parceiros primeiro tentarão restabelecer o link à velocidade anteriormente negociada. Se isso falhar, ou se tiver decorrido muito tempo desde a perda do link, o processo de Autonegociação irá recomeçar. O link pode ser perdido devido a influências externas, como falha do cabo, ou pela emissão de um reset por um dos parceiros. Seqüência FLP Real de Auto-negociação
    • Cisco CCNA 3.1 211 6.2.10 Estabelecimento de um link, full duplex e half duplex Os parceiros interligados podem dispensar a oferta de configurações dentro da sua capacidade. Isto permite que o administrador da rede force certas portas a uma velocidade selecionada e a uma configuração de duplex predeterminada, sem desativar a Autonegociação. A Autonegociação é opcional para a maioria das implementações de Ethernet. Gigabit Ethernet exige a sua implementação, embora o usuário possa desativá-la. A Autonegociação foi originalmente definida para implementações UTP de Ethernet e foi estendida para funcionar com outras implementações em fibra ótica. Quando uma estação em Autonegociação está tentando completar um link, ela deve ativar 100BASE-TX para tentar estabelecer imediatamente uma ligação. Se estiver presente a sinalização 100BASE-TX e se a estação suportar 100BASE-TX, ela tentará estabelecer um link sem negociação. Se qualquer sinalização produzir um link ou se forem recebidas rajadas de FLP, a estação prosseguirá com essa tecnologia. Se um dos parceiros não oferecer uma rajada FLP, mas oferecer NLPs no seu lugar, o dispositivo será automaticamente considerado uma estação 10BASE-T. Durante este intervalo inicial de testes, procurando outras tecnologias, o trajeto de transmissão está enviando rajadas de FLP. O padrão não permite a detecção em paralelo de qualquer outra tecnologia. Se for estabelecido um link através de detecção paralela, ele será forçosamente half-duplex. Existem apenas dois métodos de se obter um link full-duplex. Um método é através de um ciclo completo de Autonegociação e o outro é pela imposição da execução do full-duplex em ambos os parceiros do link. Se um dos parceiros do link for forçado a full-duplex, mas o outro tentar a Autonegociação, com certeza haverá uma incompatibilidade (mismatch) no modo de operação. Isto resultará em colisões e erros nesse link. Além disso, se uma extremidade é forçada a full-duplex, a outra também precisa ser forçada. A exceção a esta regra é a 10-Gigabit Ethernet, que não suporta half-duplex. Muitos fornecedores implementam o hardware de modo que ele alterne continuamente entre os vários estados possíveis. Transmite rajadas de FLP para a Autonegociação durante certo período e, em seguida, configura-se para Fast Ethernet, tenta um link durante certo período e depois só escuta. Alguns fornecedores não oferecem qualquer tentativa de link até que a interface ouça uma rajada de FLP ou algum outro esquema de sinalização. Existem dois modos de operação, half e full duplex. Para meios compartilhados, o modo half-duplex é obrigatório. Todas as implementações por cabo coaxial são half-duplex por natureza e não podem operar em full-duplex. As implementações em UTP e em fibra podem ser operadas em half-duplex. As implementações de 10-Gbps são especificadas exclusivamente para full-duplex.
    • Cisco CCNA 3.1 212 No modo half-duplex, só uma estação pode transmitir de cada vez. Para implementações por cabo coaxial, uma segunda estação transmitindo ao mesmo tempo causa uma sobreposição de sinais que se tornam corrompidos. Dado que UTP e fibra geralmente transmitem em pares separados, os sinais não têm oportunidade de se sobreporem e se tornarem corrompidos. Ethernet possui regras para arbitrar conflitos que surgem em ocasiões em que mais de uma estação tenta transmitir de uma só vez. A ambas as estações em uma ligação full-duplex ponto-a-ponto é permitido transmitir a qualquer momento, independentemente da outra estação estar transmitindo ou não. A Autonegociação evita a maioria das situações onde uma estação de uma ligação ponto-a- ponto esteja transmitindo sob as regras de half-duplex e a outra esteja transmitindo sob as regras de full-duplex. Na situação em que os parceiros do link são capazes de compartilhar mais de uma tecnologia conjunta, consulte a lista na Figura abaixo. Esta lista é usada para determinar qual tecnologia deverá ser escolhida dentre as configurações oferecidas. Ordem de Prioridade de Transmissão As implementações de Ethernet de fibra ótica não são incluídas nesta lista de resolução de prioridades porque os circuitos eletrônicos e óticos das interfaces não permitem uma reconfiguração simples entre implementações. Presume-se que a configuração da interface seja fixa. Se as duas interfaces são capazes de realizar a Autonegociação, então já estão utilizando a mesma implementação de Ethernet. Entretanto, ainda existem várias opções de configuração tais como a duplexação ou qual das estações servirá como Mestre para fins de temporização, que precisa ser determinada.
    • Cisco CCNA 3.1 213 Resumo Capítulo 06 Deve ter sido obtido um entendimento dos seguintes conceitos chave: • Os conceitos básicos da tecnologia Ethernet. • As regras de nomenclatura da tecnologia Ethernet. • Como a Ethernet e o modelo OSI interagem. • O processo de enquadramento e a estrutura dos quadros. • Os nomes e a finalidade dos campos dos quadros Ethernet. • As características e funções do CSMA/CD. • Temporização Ethernet. • Espaçamento entre quadros. • Algoritmo e tempo de backoff após uma colisão. • Erros e colisões de Ethernet. • A Autonegociação em relação à velocidade e ao modo de operação.
    • Cisco CCNA 3.1 214 Capítulo 07: Tecnologias Ethernet
    • Cisco CCNA 3.1 215 Visão Geral Capítulo 07 A Ethernet tem sido a tecnologia de rede local de maior sucesso especialmente devido à simplicidade de implementação se comparada com outras tecnologias. Uma outra razão do sucesso da Ethernet é a flexibilidade da tecnologia que tem evoluído para atender às exigências do meio físico. Este módulo apresenta as especificações dos tipos mais importantes de Ethernet. O objetivo não é mostrar todos os detalhes sobre cada tipo de Ethernet, mas sim, desenvolver um senso do que é comum em todas as formas de Ethernet. As mudanças na Ethernet têm resultado em grandes melhoramentos na Ethernet 10-Mbps que era utilizada no início dos anos 80. O padrão da Ethernet 10-Mbps permaneceu literalmente inalterado até 1995, quando o IEEE anunciou um padrão para Fast Ethernet de 100 Mbps. Em anos mais recentes, um crescimento ainda mais rápido na velocidade dos meios de comunicação levou à transição de Fast Ethernet para Gigabit Ethernet. Os padrões para Gigabit Ethernet surgiram em apenas três anos. Uma versão ainda mais rápida, a 10 Gigabit Ethernet, já está disponível e estão sendo desenvolvidas versões ainda mais rápidas. Nessas versões mais rápidas de Ethernet, o endereçamento MAC, o CSMA/CD e o formato de quadros não foram modificados em relação aos utilizados nas primeiras versões de Ethernet. No entanto, outros aspectos da sub-camada MAC, da camada física e dos meios de comunicação foram alterados. Placas de rede (NICs) utilizando meio de cobre e capazes de operar a 10/100/1000 são bastante comuns atualmente. Portas Gigabit para switches e para roteadores estão se tornando o padrão nos wiring closets. A fibra óptica capaz de suportar o Gigabit Ethernet é considerada um modelo para o cabeamento de backbone na maioria das novas instalações. Os alunos, ao concluírem este módulo, deverão poder: • Descrever as diferenças e semelhanças entre Ethernet 10BASE5, 10BASE2 e 10BASE-T. • Definir a codificação Manchester. • Enumerar os fatores que afetam os limites de temporização da Ethernet. • Enumerar os parâmetros de cabeamento 10BASE-T. • Descrever as características principais e as variedades de Ethernet 100 Mbps. • Descrever a evolução da Ethernet. • Explicar os métodos MAC, os formatos de quadros e o processo de transmissão de Gigabit Ethernet. • Descrever a utilização de meios físicos e de codificação específicos para Ethernet Gigabit. • Identificar as pinagens e a fiação típica para as várias implementações de Ethernet Gigabit. • Descrever as semelhanças e as diferenças entre Gigabit e Ethernet Gigabit 10. • Descrever as considerações básicas da arquitetura Gigabit e 10 Gigabit Ethernet.
    • Cisco CCNA 3.1 216 7.1 Ethernet 10 Mbps e 100 Mbps 7.1.1 Ethernet 10 Mbps Ethernet 10BASE5, 10BASE2 e 10BASE-T são consideradas Ethernet Legadas (Antigas). As quatro características comuns em todos os tipos de Ethernet legadas são os parâmetros de temporização, o formato de quadros, o processo de transmissão e as regras básicas de projeto. A figura abaixo apresenta os parâmetros de operação da tecnologia Ethernet 10-Mbps. A Ethernet 10-Mbps e versões mais lentas de Ethernet são assíncronas. Cada estação receptora usa 8 octetos de informação de temporização para sincronizar seus circuitos de recepção em relação aos dados que chegam. 10BASE5, 10BASE2, e 10BASE-T compartilham os mesmos parâmetros de temporização, conforme mostra a Figura abaixo (1 tempo de bit a 10 Mbps = 100 nanosegundos = 0,1 microsegundo = 10- milionésimos de um segundo). Isto significa que em uma rede Ethernet 10-Mbps, 1 bit leva 100 ns para ser transmitido pela subcamada MAC. Em todas as variações de Ethernet com taxas de transmissão de 1000Mbps ou inferiores, o tempo de transmissão de um quadro não pode ser inferior a um slot time. Slot time é o tempo exatamente acima ao tempo que leva, teoricamente, para ir de um extremo ao outro do maior domínio de colisão Ethernet permitido, colidir com outra transmissão no último instante possível, e detectar os fragmentos da colisão que retornaram à estação transmissora.
    • Cisco CCNA 3.1 217 10BASE5, 10BASE2 e 10BASE-T também utilizam o mesmo formato de quadro. Ethernet legada é idêntica até a parte mais baixa da camada física do modelo OSI. Quando o quadro passa da subcamada MAC à camada física, processos adicionais ocorrem antes que os bits sejam transferidos da camada física para o meio físico. Um processo importante é o sinal SQE (Signal Quality Error). O SQE é uma transmissão enviada por um transceiver de volta à controladora para que esta possa saber que o circuito de colisão está funcionando corretamente. O SQE também é chamado de heartbeat (batimento cardíaco). O sinal SQE foi projetado para corrigir o problema de versões mais antigas de Ethernet onde um host não sabia se o transceiver estava conectado. Em half- duplex, o SQE é sempre usado. O SQE pode ser usado em operações full-duplex mas não é imprescindível. O SQE é ativado nas seguintes condições: • Dentro de 4 a 8 microssegundos depois de uma transmissão normal, para indicar se o quadro de saída foi transmitido com êxito. • Sempre que houver uma colisão no meio físico. • Sempre que houver um sinal inadequado no meio físico, como jabber ou reflexões que resultem de um curto no cabo. • Sempre que uma transmissão for interrompida. Todas as formas de Ethernet 10 Mbps usam os octetos recebidos de uma subcamada MAC e realizam um processo conhecido como codificação da linha. A codificação da linha descreve exatamente como os bits são sinalizados no fio. As codificações mais simples têm características elétricas e de temporização indesejáveis. Portanto, os códigos de linha foram elaborados para que tenham propriedades de transmissão desejáveis. Esta forma de codificação usada nos sistemas de 10-Mbps é conhecida como codificação Manchester. A codificação Manchester se baseia no sentido da transição da borda do sinal no meio da janela de tempo do bit, de forma a determinar o valor binário para aquele bit.
    • Cisco CCNA 3.1 218 A forma de onda superior tem uma borda descendente de modo que é interpretada como 0 binário. A segunda forma de onda apresenta uma borda ascendente que é interpretada como 1 binário. Na terceira forma de onda existe uma seqüência binária alternada. Com os dados binários alternados não há necessidade de voltar ao nível de voltagem anterior. Como se pode ver pela terceira e quarta formas de onda no gráfico, os valores binários de bits são indicados pelo sentido da mudança durante qualquer período de bits apresentado. Os níveis de voltagem da forma de onda, no início ou no fim de qualquer período, não são fatores determinantes de valores binários. Todos os tipos de Ethernet legada possuem características comuns de arquitetura. Geralmente as redes contêm vários tipos de meios físicos. O padrão garante que seja mantida a interoperabilidade. O projeto completo é extremamente importante quando se implementa uma rede utilizando diferentes meios. Conforme a rede vai crescendo, torna-se mais fácil a violação dos limites máximos de atraso. Os limites de temporização são baseados em parâmetros, tais como: • O comprimento do cabo e seu atraso de propagação • O atraso dos repetidores • O atraso dos transceivers • A redução do espaço entre quadros • Atrasos dentro da estação A Ethernet 10-Mbps opera dentro dos limites de temporização oferecidos por uma série de, no máximo, cinco segmentos separados por até quatro repetidores, no máximo. Isto é conhecido como a regra 5-4-3. Um máximo de quatro repetidores, podem ser conectados em série entre duas estações distantes. Pode haver no máximo três segmentos povoados entre duas estações distantes.
    • Cisco CCNA 3.1 219 7.1.2 (10BASE5) O produto original Ethernet 10BASE5 de 1980 transmitia 10 Mbps através de um único barramento de cabo coaxial grosso. O 10BASE5 é importante, pois foi o primeiro meio físico usado pela Ethernet. 10BASE5 fazia parte do padrão 802.3 original. A principal vantagem de 10BASE5 era o comprimento. Hoje pode ser encontrado em instalações antigas, mas não seria recomendado para novas instalações. Os sistemas 10BASE5 são econômicos e não exigem configuração, mas os componentes básicos, como placas de rede, são muito difíceis de se encontrar por serem sensíveis às reflexões de sinais no cabo. Os sistemas 10BASE5 representam também, um único ponto de falha. 10BASE5 usa codificação Manchester. Possui um condutor central sólido. Cada um dos (no máximo) cinco segmentos de coaxial grosso pode ter até 500 m (1640,4 pés) de comprimento. O cabo é grande, pesado e difícil de se instalar. No entanto, os limites de distância foram favoráveis e isso prolongou a sua utilização em certas aplicações. Já que o meio físico é composto de um único cabo coaxial, apenas uma estação pode transmitir de cada vez, caso contrário, ocorrerá uma colisão. Portanto, 10BASE5 só funciona em half-duplex, resultando num máximo de 10 Mbps de transferência de dados. A Figura abaixo exibe uma configuração possível para um domínio de colisão. Entre duas estações distantes quaisquer, apenas três segmentos têm permissão para terem estações conectadas, com os outros dois segmentos usados apenas como segmentos de ligação para entender a rede. Exemplo de arquitetura 10BASE5
    • Cisco CCNA 3.1 220 7.1.3 (10BASE2) 10BASE2 foi introduzido em 1985. A instalação era mais fácil porque o cabo era menor, mais leve e mais flexível. Esta tecnologia ainda existe em redes antigas. Como o 10BASE5, atualmente não é recomendado para novas instalações. É econômico e não necessita de hubs. Da mesma forma, placas de rede para este meio também são difíceis de obter. 10BASE2 usa codificação Manchester. Os computadores de rede local eram ligados um ao outro por uma série de lances de cabos coaxiais ininterruptos. Estes lances de cabo eram ligados por conectores BNC a um conector em formato de T na placa de rede. O meio físico em 10BASE2 utiliza um condutor central retorcido. Cada um dos cinco segmentos de cabo coaxial fino permitido entre estações, pode ter um comprimento de até 185 metros, e cada estação é conectada diretamente ao conector BNC tipo “T” no cabo coaxial. Apenas uma estação pode transmitir por vez, caso contrário ocorrerá uma colisão. 10BASE2 também usa half-duplex. A taxa máxima de transmissão de 10BASE2 é de 10 Mbps. Podem haver até 30 estações em qualquer segmento 10BASE2. Dentre os cinco segmentos consecutivos em série, entre quaisquer duas estações distantes, apenas três podem ter estações ligadas a eles.
    • Cisco CCNA 3.1 221 7.1.4 (10BASE-T) 10BASE-T foi introduzido em 1990. 10BASE-T usava cabos de cobre de par trançado, não blindado (UTP), que era mais barato e mais fácil de instalar que o cabo coaxial. O cabo era plugado a um dispositivo central de conexão que continha o barramento compartilhado. Esse dispositivo era um hub. Ele se localizava no centro de um conjunto de cabos que eram distribuídos aos PCs como os raios de uma roda. Isto é conhecido como topologia estrela. As distâncias que os cabos podiam ter até o hub, e a maneira pela qual o UTP era instalado, levavam cada vez mais à utilização de estrelas compostas de estrelas, em uma topologia chamada de estrela estendida. Originalmente, o 10BASE-T era um protocolo half-duplex, mas a funcionalidade de full-duplex foi adicionada posteriormente. A explosão da popularidade da Ethernet entre meados e fins dos anos 90 foi quando a Ethernet passou a dominar a tecnologia de redes locais. 10BASE-T também usa codificação Manchester. Um cabo UTP 10BASE-T tem um condutor sólido para cada fio nos 90 metros (no máximo) de cabo horizontal. O cabo UTP usa conectores RJ-45 de oito pinos. Embora o cabo Categoria 3 seja adequado para utilização nas redes 10BASE-T, recomenda-se enfaticamente que qualquer instalação nova de cabos seja feita com Categoria 5 ou melhor. Todos os quatro pares de fios deverão ser usados conforme os padrões de pinagem T568-A ou T568-B. Com os cabos instalados desta forma, é suportada a utilização de vários protocolos sem que a fiação precise ser alterada. A Figura abaixo ilustra a disposição da pinagem para uma conexão 10BASE-T. O par transmissor na extremidade receptora é conectado ao par receptor no dispositivo conectado. A utilização de half-duplex ou full-duplex é uma escolha de configuração. 10BASE-T transporta 10 Mbps de tráfego no modo half-duplex e 20 Mbps no modo full-duplex.
    • Cisco CCNA 3.1 222 7.1.5 Cabeamento e arquitetura 10BASE-T Os links 10BASE-T geralmente consistem numa conexão entre a estação e um hub ou switch. Os hubs são repetidores multiportas e contam como parte do limite de repetidores permitidos entre estações distantes. Os hubs não dividem os segmentos de rede em domínios de colisão separados. Já que os hubs ou repetidores apenas estendem o comprimento de um segmento de rede dentro de um único domínio de colisão, existe um limite do número de hubs que podem ser usados naquele segmento. Os bridges e switches dividem um segmento em domínios de colisão separados, deixando apenas as limitações dos meios físicos para determinar a distância entre os switches. 10BASE-T limita a distância entre os switches em 100 m (328 pés). Embora os hubs possam ser interligados, é melhor evitar esta configuração. Isto evita exceder o limite do atraso máximo entre estações distantes. Quando houver a necessidade de vários hubs, será melhor configurá-los em uma ordem hierárquica de maneira a criar uma estrutura de árvore. O desempenho será melhorado se as estações forem separadas por poucos repetidores. Veja a Figura na próxima página para ver um exemplo de arquitetura. São aceitáveis todas as distâncias entre estações. Porém, a distância total de uma extremidade da rede à outra, coloca a arquitetura em seu limite máximo. O aspecto mais importante a ser considerado é como manter ao mínimo o atraso entre as estações distantes, independente da arquitetura e dos tipos de meios envolvidos. Um atraso máximo menor proporcionará um melhor desempenho global. 10BASE-T Limites repetidos de desenhos de redes Os links 10BASE-T podem ter distâncias sem repetição de até 100 m. Embora isto possa parecer uma grande distância, tipicamente será consumida totalmente quando se faz o cabeamento de um edifício. Os hubs podem resolver as questões de distância, mas permitirão a propagação de colisões. A vasta introdução de switches tornou menos importante a limitação de distâncias. Contando que as estações de trabalho estejam
    • Cisco CCNA 3.1 223 localizadas dentro de 100 m de um switch, a distância de 100 m começa novamente no switch. 7.1.6 Ethernet 100 Mbps A Ethernet 100 Mbps é também conhecida como Fast Ethernet. As duas tecnologias que se destacaram foram a 100BASE-TX, que utiliza um meio físico de cabo de cobre UTP e a 100BASE-FX que utiliza um meio físico de fibra ótica multimodo. 100BASE-TX e 100BASE-FX têm três características em comum: parâmetros de temporização, formato de quadros e partes do processo de transmissão. 100BASE-TX e 100-BASE-FX compartilham os parâmetros de sincronismo. Note que um tempo de bit em Ethernet 100 Mbps é de 10 nseg = 0,01 microssegundos = 1 centésimo-milionésimo de um segundo. O formato de quadro 100-Mbps é o mesmo do quadro 10-Mbps. Fast Ethernet representa um aumento de dez vezes sobre a velocidade de 10BASE-T. Devido ao aumento na velocidade, deve-se ter um cuidado adicional, pois os bits enviados diminuem sua duração e ocorrem mais freqüentemente. Estes sinais de freqüência mais alta são mais sensíveis a ruídos. Como resposta a essas questões, a Ethernet 100 Mbps usa duas etapas separadas de codificação. A primeira parte da codificação usa uma técnica denominada 4B/5B, a segunda parte da codificação é a codificação de linha específica para cobre ou fibra.
    • Cisco CCNA 3.1 224 7.1.7 100BASE-TX Em 1995, o 100BASE-TX era o padrão, usando cabo UTP Cat 5, que se tornou um sucesso comercial. O cabo coaxial Ethernet original usava transmissão half-duplex e apenas um dispositivo podia transmitir de cada vez. Porém, em 1997, a Ethernet foi expandida para incluir a capacidade de incluir full-duplex permitindo que mais de um PC em uma rede pudesse transmitir ao mesmo tempo. Pouco a pouco os switches substituíram os hubs. Esses switches ou comutadores tinham a capacidade de full-duplex e de manipular rapidamente quadros Ethernet. 100BASE-TX usa codificação 4B/5B, que é então embaralhada e convertida em níveis MLT-3 (multi-level transmit-3). Na figura abaixo, a janela destacada exibe quatro exemplos de forma de onda. A forma de onda superior não possui transição no centro da janela de tempo de bit. A falta de transição indica que um 0 binário está presente. A segunda forma de onda mostra uma transição no centro da janela de timing. Um 1 binário é representado por uma transição. A terceira forma de onda mostra uma seqüência binária alternada. A ausência de transição binária indica um 0 binário, e a presença de transição indica um 1 binário. Uma borda ascendente ou descendente indica um 1. Uma variação muito repentina no sinal indica um 1. Qualquer linha horizontal detectada no sinal indica um 0. A Figura abaixo exibe a pinagem para uma conexão 100BASE-TX. Observe que existem dois caminhos separados de transmissão/recepção. Isto é idêntico à configuração 10BASE- T.
    • Cisco CCNA 3.1 225 100BASE-TX transporta 100 Mbps de tráfego no modo half-duplex. No modo full-duplex, 100BASE-TX transporta 200 Mbps de tráfego. O conceito de full-duplex torna-se cada vez mais importante conforme vai aumentando a velocidade da Ethernet. 7.1.8 100BASE-FX Na época em que a Fast Ethernet baseada em cobre foi introduzida, foi também necessária uma versão para fibra ótica. Uma versão para fibra ótica poderia ser usada para aplicações de backbone, conexões entre andares e edifícios onde o cobre é menos desejável e também em ambientes com muito ruído. 100BASE-FX foi criado para satisfazer essa necessidade. Porém, 100BASE-FX nunca foi adotado com êxito. Isto ocorreu devido à conveniente introdução dos padrões Gigabit Ethernet em cobre e fibra. Os padrões Gigabit Ethernet são agora a tecnologia dominante para as instalações de backbone, conexões cruzadas de alta velocidade e necessidades de infra-estrutura geral. A temporização, o formato de quadro e a transmissão são comuns às duas versões de Fast Ethernet 100 Mbps. 100BASE-FX usa também a codificação 4B/5B. Na Figura abaixo, note a forma de onda destacada no exemplo. A forma de onda superior não possui transição, o que indica a presença de um 0 binário. A segunda forma de onda mostra uma transição no centro da janela de timing. Um 1 binário é representado por uma transição. Na terceira forma de onda, existe uma seqüência binária alternada. Neste exemplo, é mais óbvio que a falta de transição indica um 0 binário e a presença de transição indica um 1 binário. A Figura abaixo, resume um link e as pinagens do 100BASE-FX. Geralmente, são mais usados os pares de fibra com conectores ST ou SC.
    • Cisco CCNA 3.1 226 Caminhos separados de Transmissão (TX) e Recepção (RX) na fibra óptica 100BASE- FX permitem uma transmissão a 200 Mbps. 7.1.9 Arquitetura Fast Ethernet Os links Fast Ethernet geralmente consistem numa conexão entre uma estação e um hub ou switch. Os hubs são considerados repetidores multiportas e os switches são considerados bridges multiportas. Estão sujeitos ao limite de distância dos meios físicos UTP de 100 m. Um repetidor Classe I pode introduzir até 140 tempos de bit de latência. Qualquer repetidor que mude entre uma implementação Ethernet e outra é um repetidor Classe I. Repetidor classe II é limitado a atrasos menores, 92 tempos de bit, porque ele repete imediatamente o sinal que chega para todas as outras portas, sem que este passe por um processo de conversão. Para obter um atraso menor, repetidores classe II podem conectar somente segmentos que utilizem a mesma sinalização. Como no caso das versões de 10 Mbps, é possível modificar algumas das regras de arquitetura para as versões 100 Mbps. Porém, virtualmente não existe tolerância alguma para atraso adicional. A modificação das regras de arquitetura é enfaticamente desencorajada para 100BASE-TX. O cabo 100BASE-TX entre os repetidores Classe II não pode exceder a 5 metros. Não é raro encontrar links operando em half-duplex em Fast Ethernet. No entanto, não é aconselhável usar half-duplex, pois o esquema de sinalização é basicamente para full-duplex. A Figura abaixo exibe as distâncias permitidas de cabos para cada configuração utilizada. Os links 100BASE-TX podem ter distâncias sem repetição de até 100 m. A introdução universal de switches diminuiu a importância deste limite. Já que a maior parte de Fast Ethernet é comutada, estes são os limites práticos entre dispositivos.
    • Cisco CCNA 227 7.2 Giga Ethernet e 10 Giga Ethernet 7.2.1 Ethernet 1000 Mbps Os padrões para Ethernet 1000-Mbps ou Gigabit Ethernet representam transmissões usando meios físicos tanto de fibra como de cobre. O padrão 1000BASE-X, IEEE 802.3z, especifica 1 Gbps full duplex sobre fibra óptica. O padrão 1000BASE-T, IEEE 802.3ab, usa cabo de par trançado balanceado categoria 5, ou maior. 1000BASE-TX, 1000BASE-SX e 1000BASE-LX usam os mesmos parâmetros de temporização, conforme exibido na Figura abaixo. Eles usam um tempo de bit de 1 nanossegundo (0,000000001 segundo) ou 1 bilionésimo de segundo . O quadro Gigabit Ethernet possui o mesmo formato usado para Ethernet 10 e 100-Mbps. 3.1 Dependendo da implementação, a Gigabit Ethernet pode usar diferentes processos para converter quadros em
    • Cisco CCNA 3.1 228 bits no cabo. A Figura abaixo ilustra os formatos de quadro Ethernet. As diferenças entre o padrão Ethernet, Fast Ethernet e Gigabit Ethernet ocorre na camada física. Devido às velocidades aumentadas desses novos padrões, os tempos de bit de duração mais curta necessitam de considerações especiais. Já que os bits são introduzidos nos meios físicos por um tempo reduzido e com uma freqüência mais alta, a temporização é crítica. Esta transmissão de alta velocidade exige freqüências próximas aos limites de largura de banda dos meios de cobre. Isto faz com que os bits se tornem mais sensíveis ao ruído em meios de cobre. Essas questões exigem que a Gigabit Ethernet use duas etapas separadas de codificação. A transmissão de dados é agilizada com a utilização de códigos para representar o fluxo binário de bits. Os dados codificados proporcionam características de sincronização, uso eficiente de largura de banda e uma melhor relação Sinal/Ruído. Na camada física, os padrões de bits da camada MAC são convertidos em símbolos. Os símbolos podem também controlar informações como início e fim de quadro, e condições de meio inativo. O quadro é codificado em símbolos de controle e de dados para aumentar o throughput da rede. Gigabit Ethernet (1000BASE-X) baseada em fibra usa codificação 8B/10B, que é semelhante ao conceito 4B/5B. Isto é seguido pelo uso da codificação NRZ (Non- Return to Zero) da luz na fibra óptica. Este processo mais simples de codificação é possível porque o meio físico da fibra pode transportar sinais de maior largura de banda.
    • Cisco CCNA 3.1 229 7.2.2 1000BASE-T Ao ser instalada a Fast Ethernet para aumentar a largura de banda das estações de trabalho, começaram a aparecer gargalos nos troncos da rede. 1000BASE-T (IEEE 802.3ab) foi desenvolvido para proporcionar largura de banda adicional para ajudar a aliviar tais gargalos. Isto proporcionou mais throughput para dispositivos como backbones entre edifícios, links entre switches, server farms e outras aplicações de wiring closet, assim como conexões para estações de trabalho de alto desempenho. Fast Ethernet foi projetada para funcionar através de cabos de cobre Cat 5 que foram terminados corretamente e que conseguissem passar nos testes de certificação de cabos 5e. A maioria dos cabos Cat 5 que foram instalados conseguem passar nos testes de certificação de cabos 5e. Um dos atributos mais importantes do padrão 1000BASE-T é que seja mutuamente operável com 10BASE-T e 100BASE-TX. Já que o cabo Cat 5e pode transportar com confiabilidade até 125 Mbps de tráfego, conseguir 1000 Mbps (Gigabit) de largura de banda foi um desafio para o projeto. A primeira etapa para viabilizar o 1000BASE-T é usar todos os quatro pares de fios, ao invés dos dois pares tradicionais de fios usados para 10BASE-T e 100BASE-TX Isto é feito usando- se circuitos complexos para permitir transmissões full-duplex no mesmo par de fios. Isto proporciona 250 Mbps por par. Com todos os pares de quatro fios, isto proporciona os 1000 Mbps desejados. Já que as informações se propagam simultaneamente através dos quatro caminhos, os circuitos precisam dividir quadros no transmissor e reorganizá-los no receptor. A codificação 1000BASE-T com codificação de linha 4D-PAM5 é usada em cabos UTP Cat 5e, ou melhores. Isto significa que a transmissão e recepção de dados ocorrem em ambos os sentidos, no mesmo fio e ao mesmo tempo. Pode-se esperar que isso resulte em uma colisão permanente nos pares de fios. Essas colisões resultam em padrões complexos de voltagens. Com circuitos integrados complexos e usando técnicas tais como cancelamento de eco, FEC da Camada 1 (Forward Error Correction) e a prudente seleção dos níveis de voltagem, o sistema consegue um throughput de 1 Gigabit. Em períodos de inatividade, existem nove níveis de voltagem encontrados no cabo e, durante períodos de transmissão de dados, podem ser encontrados 17 níveis de voltagem no cabo.
    • Cisco CCNA 3.1 230 Com este grande número de estados e com os efeitos de ruído, o sinal no fio parece mais analógico que digital. Como é o caso de um sistema analógico, este sistema é mais sensível a ruídos oriundos de problemas nos cabos e nas terminações. Os dados vindos da estação emissora são cuidadosamente divididos em quatro fluxos paralelos, codificados, transmitidos e detectados em paralelo e depois reorganizados e recebidos em um só fluxo de bits. A Figura abaixo representa full-duplex simultâneo em pares de quatro fios. 1000BASE-T suporta uma operação tanto em half-duplex como em full-duplex. 1000BASE-T full-duplex é amplamente utilizado.
    • Cisco CCNA 3.1 231 7.2.3 1000BASE-SX e LX O padrão IEEE 802.3 recomenda que a Gigabit Ethernet através de fibra seja a tecnologia adequada para o backbone. A temporização, o formato de quadros e a transmissão são iguais para todas as versões de 1000 Mbps. Dois esquemas de codificação de sinal são definidos na camada física. O esquema 8B/10B é usado para fibra óptica e meios de cobre blindado, e a modulação de amplitude de pulso 5 (PAM5) é usada para UTP. 1000BASE-X usa a codificação 8B/10B convertida em codificação de linha NRZ (Non- Return to Zero). A codificação NRZ baseia-se no nível de sinal encontrado na janela de tempo de bit para determinar o valor binário desse bit. Ao contrário de muitos dos outros esquemas de codificação, este sistema é determinado pelo nível e não pela borda. Isto é, a
    • Cisco CCNA 3.1 232 determinação de um bit representar 0 ou 1 é feita pelo nível do sinal e não quando o sinal muda de nível. Os sinais NRZ são então inseridos na forma de pulsos para dentro da fibra usando fontes de luz com comprimento de onda curta ou longa. As de comprimento de onda curta usam como fonte um laser de 850 nm ou um LED em fibra óptica multimodo (1000BASE-SX). É a mais econômica entre as opções, mas é limitada por distâncias mais reduzidas. As de comprimento de onda longa (1310 nm) originadas por laser usam fibra óptica monomodo ou multimodo (1000BASE-LX). Laser usado com fibra monomodo pode alcançar distâncias de até 5000 metros. Devido ao curto tempo necessário para ligar e desligar totalmente o LED ou o laser, a luz é pulsada na fibra usando potência baixa e alta. Um 0 lógico é representado por uma luz de baixa potência e um 1 por uma de alta potência. O método de Controle de Acesso ao Meio trata o link como ponto-a-ponto. Já que fibras separadas são usadas para transmissão (Tx) e recepção (Rx) a conexão é inerentemente full-duplex. A Gigabit Ethernet permite um único repetidor entre duas estações. A Figura abaixo é um gráfico de comparação dos meios físicos utilizados em Ethernet 1000BASE.
    • Cisco CCNA 3.1 233 7.2.4 Arquitetura Gigabit Ethernet As limitações de distância dos links full-duplex são apenas definidas pelo meio físico e não pelo atraso de ida e volta. Já que a maioria das Gigabit Ethernet é comutada, os valores nas Figuras abaixo são os limites práticos entre os dispositivos. São permitidas todas as topologias em cascata, de estrela e de estrela estendida. A questão então passa a ser de topologia lógica e de fluxo de dados, e não de temporização ou de limitações de distância. Um cabo 1000BASE-T UTP é idêntico aos cabos 10BASE-T e 100BASE-TX, exceto que o desempenho dos links precisa satisfazer os requisitos de qualidade mais altos de Categoria 5e ou ISO Classe D (2000). A modificação das regras definidas na arquitetura 1000BASE-T é totalmente desencorajada. A 100 metros, 1000BASE-T está operando perto do limite da capacidade do hardware em recuperar o sinal transmitido. Quaisquer problemas de cabeamento ou ruído ambiental poderia tornar inoperante um cabo normalmente compatível, mesmo a distâncias dentro das especificações. É recomendado que todos os links entre uma estação e um hub ou switch sejam configurados para a Auto Negociação, de forma a permitir o mais alto desempenho comum a todos. Isto evitará que seja realizada por acidente uma configuração errada dos outros parâmetros exigidos para uma operação adequada do Gigabit Ethernet.
    • Cisco CCNA 3.1 234 7.2.5 Ethernet 10 Gigabit Parâmetros para Operação Ethernet 10 Gbps IEEE 802.3ae foi adaptado para incluir transmissões 10 Gbps full-duplex através de cabos de fibra óptica. As semelhanças básicas entre 802.3ae e 802.3, a Ethernet original, são impressionantes. Esta 10-Gigabit Ethernet (10GbE) está evoluindo não só para redes locais mas também para MANs e WANs. Com o formato de quadros e outras especificações Ethernet da Camada 2, compatíveis com padrões anteriores, 10GbE pode fornecer o aumento necessário na largura de banda para que seja mutuamente operável com a infra-estrutura das redes já existentes. Uma mudança conceitual importante para Ethernet está surgindo com 10GbE. Ethernet é tradicionalmente considerada uma tecnologia para redes locais, mas os padrões da camada física de 10GbE permitem uma extensão da distância de até 40 km sobre fibra monomodo e compatibilidade com redes SONET (Synchronous Optical Network) e com a SDH (Synchronous Digital Hierarchy). Uma operação a 40 km de distância torna a 10GbE uma tecnologia viável para MAN. A compatibilidade com as redes SONET/SDH
    • Cisco CCNA 3.1 235 operando a velocidades de até OC-192 (9,584640 Gbps) torna a 10GbE uma tecnologia viável para WAN. 10GbE pode também competir com ATM para certas aplicações. Em resumo, como se compara 10GbE com outras variedades de Ethernet? • O formato dos quadros é idêntico, permitindo a sua mútua operabilidade com todas as variedades de Ethernet legada, fast, gigabit e 10 Gigabit sem conversões de quadros ou de protocolos. • O tempo de bit agora é de 0,1 nanossegundo. As demais variáveis de tempo são ajustadas apropriadamente. • Não é necessário o CSMA/CD, já que são usadas apenas conexões de fibra full- duplex. • As subcamadas de IEEE 802.3, dentro das Camadas 1 e 2 do modelo OSI, na sua maioria são preservadas, com algumas adições para acomodar 40 km de links de fibra e a mútua operabilidade com as tecnologias SONET/SDH. • Torna-se possível a criação de redes Ethernet flexíveis, eficientes, confiáveis e de custo relativamente baixo do começo ao fim. • O TCP/IP pode rodar sobre redes locais, MANs e WANs com um só método de Transporte de Camada 2. O padrão básico que governa o CSMA/CD é IEEE 802.3. Um suplemento do IEEE 802.3, conhecido como 802.3ae, regula a família 10GbE. Como é típico para novas tecnologias, uma série de implementações estão sendo consideradas: • 10GBASE-SR: Destinado a curtas distâncias através de fibras multimodo já instaladas, suporta uma distância entre 26 m e 82 m • 10GBASE-LX4: utiliza WDM (Wavelength Division Multiplexing), suporta distâncias de 240 m a 300 m através das fibras multimodo já instaladas, e 10 km através de fibras monomodo • 10GBASE-LR e 10GBASE-ER: Suporta de 10 km a 40 km através de fibra monomodo • 10GBASE-SW, 10GBASE-LW e 10GBASE-EW: Conhecidos de forma genérica como 10GBASE-W são destinados a funcionar com equipamentos OC-192 STM (synchronous transport module) SONET/SDH para WAN A Força Tarefa IEEE 802.3ae e a Ethernet Alliance 10-Gigabit (10 GEA) estão trabalhando para padronizar essas tecnologias emergentes. A Ethernet 10-Gbps (IEEE 802.3ae) foi padronizada em junho de 2002. É um protocolo full- duplex que usa fibra ótica como meio de transmissão. A distância máxima de transmissão depende do tipo de fibra a ser usada. Quando se usa fibra monomodo como o meio de transmissão, a distância máxima de transmissão é de 40 quilômetros (25 milhas). Algumas discussões entre os membros do IEEE sugerem a possibilidade de padrões para 40, 80 e mesmo 100-Gbps Ethernet.
    • Cisco CCNA 3.1 236 7.2.6 Arquitetura 10 Gigabit Ethernet Semelhante ao desenvolvimento da Gigabit Ethernet, o aumento da velocidade é acompanhado por requisitos adicionais. A reduzida duração do tempo de bit, devido ao aumento da velocidade, requer considerações especiais. Para transmissões 10 GbE, cada duração de bit de dados é 0,1 nanossegundo. Isto significa que poderá haver 1.000 bits de dados GbE, no mesmo tempo de bit de um só bit de dados de um fluxo de dados Ethernet 10-Mbps. Devido à curta duração do bit de dados 10 GbE, às vezes é difícil distinguir entre um bit de dados e ruído. A transmissão de dados 10 GbE conta com a precisão na temporização dos bits para separar os dados dos efeitos do ruído na camada física. Este é o propósito da sincronização. Como resposta a estas questões de sincronização, largura de banda e Relação Sinal/Ruído, o 10 Gigabit Ethernet usa duas etapas separadas de codificação. A transmissão se torna mais eficiente com a utilização de códigos que representam os dados do usuário. Os dados codificados proporcionam características como sincronização, uso eficiente de largura de banda e uma melhoria na relação Sinal/Ruído. Fluxos de bits seriais complexos são usados para todas as versões de 10GbE, exceto para 10GBASE-LX4, que usa (WWDM) (Wide Wavelength Division Multiplex) para multiplexar quatro fluxos de bits simultâneos, como quatro feixes de luz de diferentes comprimentos de onda, projetados simultaneamente na fibra. A Figura abaixo representa o caso particular da utilização de quatro fontes de luz com comprimentos de onda ligeiramente diferentes. Ao ser recebido pelo meio, o sinal ótico é demultiplexado em quatro fluxos óticos separados. Os quatro fluxos óticos são então convertidos de volta em quatro fluxos de bits, enquanto passam por processo reverso semelhante através das subcamadas da camada MAC. Multiplexador de Sinal 10GBASE-LX4
    • Cisco CCNA 3.1 237 Atualmente, a maioria dos produtos 10GbE está na forma de módulos, ou placas (line cards), para serem incorporados em switches e roteadores de alto desempenho. Conforme as tecnologias 10GbE vão evoluindo, é de se esperar um aumento na diversidade de componentes de sinalização. Conforme as tecnologias óticas vão evoluindo, são incorporados nesses produtos transmissores e receptores melhorados, valendo-se cada vez mais da modularidade. Todas as variedades de 10GbE usam meios de fibra ótica. Os tipos de fibras incluem fibra monomodo 10µ e 50µ e fibras multimodo 62.5µ. É suportada uma série de fibras com diferentes características de atenuação e dispersão, o que limita as distâncias de operação. Embora o suporte seja limitado aos meios de fibras ópticas, alguns dos comprimentos máximos de cabo são surpreendentemente curtos. Implementações 10 Gigabit Ethernet Não há repetidor definido para 10-Gigabit Ethernet já que o half-duplex não é explicitamente suportado. Como é o caso das versões 10 Mbps, 100 Mbps e 1000 Mbps, é possível modificar ligeiramente algumas das regras da arquitetura. Possíveis ajustes na arquitetura são relacionados à perda de sinais e distorção ao longo do meio físico. Devido à dispersão do sinal e outras questões, o pulso de luz se torna indecifrável a partir de certas distâncias.
    • Cisco CCNA 3.1 238 7.2.7 Futuro da Ethernet O Escopo da Expansão da Ethernet A Ethernet tem passado por uma evolução: tecnologias Ethernet legada Fast ? Gigabit? MultiGigabit. Enquanto outras tecnologias de redes locais ainda podem ser encontradas em funcionamento (instalações antigas), a Ethernet domina as novas instalações de redes locais. Tanto é que algumas se referem a Ethernet como o "tom de discagem" da rede local. Ethernet agora é o padrão para conexões horizontais, verticais e entre edifícios. As versões de Ethernet recentemente desenvolvidas estão tornando confusas as distinções entre redes locais, MANs e WANs. Enquanto há atualmente uma ampla disponibilidade de produtos 1-Gigabit Ethernet e os de 10 Gigabit estão se tornando mais acessíveis, o IEEE e o Ethernet Alliance estão trabalhando com padrões de 40, 100 ou mesmo 160 Gbps. As tecnologias que serão adotadas dependem de vários fatores, inclusive da taxa de maturação das tecnologias e padrões, da taxa de adoção no mercado, e custos. Já têm sido feitas outras propostas de esquemas de arbitramento Ethernet além do CSMA/CD. O problema de colisões existente nas topologias físicas de barramentos do
    • Cisco CCNA 3.1 239 10BASE5 e do 10BASE2 e nos hubs 10BASE-T e 100BASE-TX já não são tão comuns. O uso de cabos UTP e de fibra ótica com caminhos separados de Tx e Rx, e a redução nos custos de switches tornam muito menos importantes as conexões em um único meio físico compartilhado e half-duplex. O futuro dos meios físicos de rede engloba três fatores: 1. Cobre (até 1000 Mbps, talvez mais). 2. Wireless (sem-fio) (aproximadamente 100 Mbps, talvez mais). 3. Fibra óptica (atualmente até 10.000 Mbps e em breve será mais). Os meios de cobre e wireless têm certas limitações físicas e práticas nos sinais das freqüências mais altas que podem ser transmitidos. Este não é um fator limitador para a fibra ótica num futuro próximo. As limitações de largura de banda da fibra óptica são extremamente grandes e ainda não estão sendo ameaçadas. Nos sistemas de fibra, é a tecnologia eletrônica (como emissores e detectores) e o processo de manufatura de fibras que mais limitam a velocidade. Futuros desenvolvimentos na Ethernet provavelmente envolverão fontes de luz Laser e fibra óptica monomodo mais do que qualquer outra tecnologia. Quando a Ethernet era mais lenta, half-duplex, sujeita a colisões e a um processo "democrático" para priorização, não era considerada como tendo capacidades de QoS (Qualidade de Serviço) necessárias para lidar com certos tipos de tráfego. Isto incluía telefonia IP e vídeo multicast. As tecnologias Ethernet para full-duplex em alta velocidade, que agora dominam o mercado, estão se mostrando suficientes para suportar mesmo as aplicações que fazem uso intensivo de QoS. Isto torna a gama de aplicações potenciais em redes Ethernet ainda mais ampla. É irônico que a capacidade de QoS fim-a-fim ajudou a impulsionar o uso de ATM no ambiente dos desktops e na WAN em meados dos anos 90, mas agora é a Ethernet e não o ATM que está alcançando esta meta.
    • Cisco CCNA 3.1 240 Resumo Capítulo 07 Deve ter sido alcançada a compreensão dos seguintes conceitos importantes: • As diferenças e semelhanças entre Ethernet 10BASE5, 10BASE2 e 10BASE-T • Codificação Manchester • Os fatores que afetam os limites de temporização Ethernet • Os parâmetros de fiação 10BASE-T • As características principais e as variedades de Ethernet 100-Mbps • A evolução da Ethernet • Os métodos MAC, os formatos de quadros e o processo de transmissão de Gigabit Ethernet • A utilização meios específicos e de codificação em Gigabit Ethernet • As pinagens e a fiação típica para as várias implementações de Gigabit Ethernet • As semelhanças e as diferenças entre Gigabit e 10 Gigabit Ethernet • As considerações básicas das arquiteturas Ethernet Gigabit e 10 Gigabit
    • Cisco CCNA 3.1 241
    • Cisco CCNA 3.1 241 Capítulo 08: Comutação Ethernet
    • Cisco CCNA 3.1 242 Visão Geral Capítulo 08 A Ethernet compartilhada funciona extremamente bem sob condições ideais. Quando o número de dispositivos que tentam acessar a rede é baixo, o número de colisões permanece bem dentro dos limites aceitáveis. No entanto, quando aumenta o número de usuários na rede, o aumento do número de colisões pode causar um desempenho inaceitavelmente baixo. O uso de bridges foi elaborado para ajudar a amenizar os problemas de desempenho que surgiram devido ao aumento das colisões. A comutação evoluiu a partir do bridging para tornar-se a tecnologia principal nas modernas redes locais Ethernet. As colisões e broadcasts são eventos esperados nas redes modernas. Aliás, são elaborados como parte integrante do projeto de Ethernet e das tecnologias de camadas superiores. Porém, quando as colisões e broadcasts ocorrem em número acima do aceitável, o desempenho da rede é afetada. O conceito de domínios de colisão e de broadcast trata de como as redes podem ser projetadas para limitarem os efeitos negativos das colisões e broadcasts. Este módulo explora os efeitos de colisões e broadcasts sobre o tráfego da rede e depois descreve como as bridges e roteadores são usados para segmentar as redes para obter-se um melhor desempenho. Os alunos, ao concluírem este módulo, deverão poder: • Definir bridging e comutação. • Definir e descrever a tabela CAM (content-addressable memory). • Definir a latência. • Descrever os modos armazenar e encaminhar e comutação cut-through. • Explicar o protocolo STP (Spanning-Tree Protocol). • Definir colisões, broadcasts, domínios de colisão e domínios de broadcast. • Identificar os dispositivos de Camada 1, 2 e 3 usados para criar domínios de colisão e domínios de broadcast. • Discutir fluxo de dados e problemas com broadcasts. • Explicar a segmentação de redes e relatar os dispositivos usados para criar segmentos.
    • Cisco CCNA 3.1 243 8.1 Comutação Ethernet 8.1.1 Bridging da Camada 2 Conforme vão sendo adicionados nós a um segmento físico Ethernet, vai aumentando a competição para os meios. Ethernet significa meios compartilhados, o que quer dizer que somente um nó de cada vez pode transmitir dados. O acréscimo de mais nós aumenta a demanda sobre a largura de banda disponível e coloca cargas adicionais nos meios físicos. Com o aumento do número de nós em um único segmento, aumenta a probabilidade de colisões, o que resulta em mais retransmissões. A solução deste problema é dividir os grandes segmentos em partes e separá-las em domínios de colisão isolados. Para que isso seja feito, uma bridge mantém uma tabela de endereços MAC e as portas a eles associadas. A bridge então encaminha ou descarta os quadros baseados nas entradas da tabela. As seguintes etapas ilustram a operação de uma bridge. • A bridge acaba de ser iniciada de modo que a tabela da bridge está vazia. A bridge só espera o tráfego no segmento. Quando o tráfego é detectado, ele é processado pela bridge. • O Host A está fazendo ping ao Host B. Já que os dados são transmitidos no segmento inteiro do domínio de colisão, tanto a bridge como o Host B processam o pacote. • A bridge acrescenta o endereço de origem do quadro à sua tabela de bridge. Já que o endereço estava no campo endereço de origem e o quadro foi recebido na porta 1, o quadro precisa estar associado com a porta 1 na tabela. • O endereço de destino do quadro é comparado com a tabela da bridge. Já que o endereço não está na tabela, apesar de estar no mesmo domínio de colisão, o quadro é encaminhado ao outro segmento. O endereço do Host B ainda não foi registrado porque somente o endereço de origem de um quadro é registrado. • O Host B processa a solicitação de ping e transmite uma resposta de ping de volta ao Host A. Os dados são transmitidos através de todo o domínio de colisão. Tanto o Host A como a bridge recebem o quadro e o processam.
    • Cisco CCNA 3.1 244 • A bridge acrescenta o endereço de origem do quadro à sua tabela de bridge. Já que o endereço de origem não estava na tabela da bridge e foi recebido na porta 1, o endereço de origem do quadro precisa ser associado à porta 1 na tabela. O endereço de destino do quadro é comparado com a tabela da bridge para ver se a entrada consta. Já que o endereço está na tabela, a designação da porta é verificada. O endereço do Host A é associado à porta pela qual o quadro entrou, de modo que o quadro não é encaminhado. • O Host A agora vai fazer ping ao Host C. Já que os dados são transmitidos no segmento inteiro do domínio de colisão, tanto a bridge como o Host B processam o quadro. O Host B descarta o quadro porque não era o destino pretendido. • A bridge acrescenta o endereço de origem do quadro à sua tabela de bridge. Já que o endereço já está registrado na tabela de bridge a entrada é apenas renovada. • O endereço de destino do quadro é comparado com a tabela de bridge para ver se a entrada consta. Já que o endereço não consta da tabela, o quadro é encaminhado ao outro segmento. O endereço do Host C ainda não foi registrado porque somente o endereço de origem de um quadro é registrado. • O Host C processa a solicitação de ping e transmite uma resposta de ping de volta ao Host A. Os dados são transmitidos através de todo o domínio de colisão. Tanto o Host D como a bridge recebem o quadro e o processam. O Host D descarta o quadro porque não era o destino pretendido. • A bridge acrescenta o endereço de origem do quadro à sua tabela de bridge. Já que o endereço estava no campo de endereços de origem e o quadro foi recebido na porta 2, o quadro precisa estar associado à porta 2 na tabela. • O endereço de destino do quadro é comparado com a tabela da bridge para ver se a entrada consta. O endereço consta da tabela mas está associado à porta 1, por isso, o quadro é encaminhado ao outro segmento. • Quando o Host D transmite dados, o seu endereço MAC também é registrado na tabela da bridge. É assim que a bridge controla o tráfego entre os domínios de colisão. Estas são as etapas que a bridge usa para encaminhar e descartar quadros recebidos em qualquer uma de suas portas.
    • Cisco CCNA 3.1 245 8.1.2 Comutação da Camada 2 Geralmente, uma bridge possui apenas duas portas e divide o domínio de colisão em duas partes. Todas as decisões feitas por uma bridge são baseadas no endereçamento MAC ou da Camada 2 e não afetam o endereçamento lógico ou da Camada 3. Assim, uma bridge divide um domínio de colisão mas não tem efeito nenhum no domínio lógico ou de broadcast. Não importa quantas bridges existam em uma rede, a não ser que haja um dispositivo como um roteador que funcione com o endereçamento da Camada 3, a rede inteira compartilhará o mesmo espaço de endereço lógico de broadcast. Uma bridge criará mais domínios de colisão mas não adicionará domínios de broadcast. Um switch é essencialmente uma bridge rápida multiportas, que pode conter dezenas de portas. Em vez de criar dois domínios de colisão, cada porta cria seu próprio domínio de colisão. Em uma rede de vinte nós, podem existir vinte domínios de colisão se cada nó for ligado em sua própria porta no switch. Se estiver incluída uma porta uplink, um switch criará vinte e um domínios de colisão com um único nó. Um switch dinamicamente constrói e mantém uma tabela CAM (Content-Addressable Memory), mantendo todas as informações MAC necessárias para cada porta.
    • Cisco CCNA 3.1 246 8.1.3 Swtich operation Um switch é simplesmente uma bridge com muitas portas. Quando apenas um nó está conectado a uma porta do switch, o domínio de colisão nos meios compartilhados contém apenas dois nós. Os dois nós neste pequeno segmento, ou domínio de colisão, consistem na porta do switch e o host conectado a ela. Estes pequenos segmentos físicos são conhecidos como microssegmentos. Outra capacidade se revela quando apenas dois nós são conectados. Em uma rede que usa cabeamento de par trançado, um par é usado para transportar o sinal transmitido de um nó para outro. Um segundo par é usado para o sinal de retorno ou sinal recebido. É possível a passagem simultânea dos sinais através de ambos os pares. A capacidade da comunicação nos dois sentidos ao mesmo tempo é conhecida como full duplex. A maior parte dos switches é capaz de suportar full duplex, como é o caso das placas de rede (NICs). No modo full duplex, não existe competição para os meios. Assim, um domínio de colisão não mais existe. Teoricamente, a largura de banda é o dobro quando o full duplex é usado. Além de microprocessadores e memória mais rápidas, dois outros avanços na tecnologia possibilitaram a existência de switches. A CAM (Content-addressable memory) é uma memória que funciona de maneira contrária, comparada à memória convencional. A introdução de dados na memória retornará o endereço associado. A utilização da CAM permite que um switch encontre diretamente a porta associada ao endereço MAC sem usar algoritmos de procura. Um ASIC (application-specific integrated circuit) é um dispositivo que consiste de gates lógicos não dedicados que podem ser programados para realizar funções a velocidades de própria lógica. As operações antes realizadas no software agora podem ser realizadas no hardware, usando-se um ASIC. A utilização destas tecnologias reduz imensamente os atrasos causados pelo processamento de software e permite que um switch acompanhe as exigências de dados dos vários microssegmentos e da taxa alta de bits.
    • Cisco CCNA 3.1 247 8.1.4 Latência A latência é o atraso entre o tempo que o quadro primeiro começa a sair do dispositivo de origem e o tempo que a primeira parte do quadro chega ao seu destino. Uma grande variedade de condições pode causar atrasos a medida que o quadro se propaga desde a origem até o destino: 1. Atrasos do meio físico causados pela velocidade finita em que os sinais podem se propagar através do meio físico. 2. Atrasos de circuito causados pelos circuitos eletrônicos que processam o sinal ao longo do caminho. 3. Atrasos de software causados pelas decisões que o software precisa tomar para implementar a comutação e os protocolos. 4. Atrasos causados pelo conteúdo do quadro e onde na comutação do quadro poderão ser feitas as decisões de comutação. Por exemplo, um dispositivo não pode rotear um quadro para um destino até que o endereço MAC de destino tenha sido lido.
    • Cisco CCNA 3.1 248 8.1.5 Modos de um Switch A maneira pela qual um quadro é comutado à sua porta de destino é uma concessão entre latência e confiabilidade. Um switch poderá começar a transferir o quadro assim que o endereço MAC de destino for recebido. A comutação feita neste ponto é conhecida como comutação cut-through e resulta na latência mais baixa através do switch. No entanto, não oferece nenhuma verificação de erros. Por outro lado, o switch pode receber um quadro completo antes de enviá-lo à porta de destino. Isso dá ao software do switch a oportunidade de verificar o FCS (Frame Check Sequence) para garantir que o quadro foi recebido com integridade antes de enviá-lo ao destino. Se o quadro for identificado como inválido, ele será descartado nesse switch e não no destino final. Já que o quadro inteiro é armazenado antes de ser encaminhado, este modo é conhecido como armazenar e encaminhar. Uma solução intermediária entre os modos cut-through e armazenar e encaminhar é o modo livre de fragmentos. O modo livre de fragmentos lê os primeiros 64 bytes, que incluem o cabeçalho do quadro, e a comutação se inicia antes que sejam lidos todo o campo de dados e o checksum. Este modo verifica a confiabilidade das informações do endereçamento e do protocolo LLC (Logical Link Control) para garantir que o destino e o tratamento dos dados estejam corretos. Quando se usa os métodos de comutação cut-through, tanto a porta de origem como a de destino precisam operar à mesma taxa de bits a fim de manter a integridade do quadro. Isto é conhecido como comutação simétrica. Se as taxas de bits não forem iguais, o quadro precisará ser armazenado com uma taxa de bits antes de ser enviado com outra taxa de bits. Isso é conhecido como comutação assimétrica. O modo Store-and-Forward precisa ser usado em comutação assímétrica. A comutação assimétrica proporciona conexões comutadas entre portas com larguras de banda desiguais, como por exemplo uma combinação de 100 Mbps e 1000 Mbps. A comutação assimétrica é otimizada para os fluxos de tráfego cliente/servidor no qual vários clientes se comunicam simultaneamente com um servidor, exigindo mais largura de banda dedicada à porta do servidor para evitar um gargalo naquela porta.
    • Cisco CCNA 3.1 249 8.1.6 Spanning-Tree Protocol (Protocolo Spanning-Tree) Quando os switches são organizados em uma simples árvore hierárquica, é difícil que ocorram loops de comutação. Porém, as redes comutadas são freqüentemente projetadas com caminhos redundantes para proporcionar confiabilidade e tolerância a falhas. Embora os caminhos redundantes sejam desejáveis, eles podem ter efeitos colaterais indesejáveis. Os loops de comutação representam um desses efeitos colaterais. Os loops de comutação podem ocorrer de propósito ou por acidente, e podem resultar em tempestades de broadcast que podem rapidamente dominar a rede. Para neutralizar a possibilidade de loops, os switches vêm munidos de um protocolo baseado em padrões denominado STP (Spanning-Tree Protocol). Cada switch em uma rede local que usa STP envia mensagens especiais denominadas BPDUs (Bridge Protocol Data Units) a todas as suas portas para informar aos outros switches da sua existência e para eleger uma bridge raiz para a rede. Os switches então usam o STA (Spanning-Tree Algorithm) para resolver e suspender caminhos redundantes. Cada porta em um switch que estiver usando um Protocolo Spanning-Tree existe em um dos seguintes estados: • Bloqueio • Escuta • Aprendizado • Encaminhamento • Desativado Uma porta passa através destes cinco estados na seguinte ordem: • Desde a inicialização até o bloqueio • Desde o bloqueio até a escuta ou até desativado • Desde a escuta até o aprendizado ou até desativado • Desde o aprendizado até o encaminhamento ou até desativado • Desde o encaminhamento até desativado O resultado da resolução e eliminação de loops com a utilização de STP é a criação de uma árvore hierárquica lógica sem loops. No entanto, os caminhos alternativos ainda estarão disponíveis caso sejam necessários.
    • Cisco CCNA 3.1 250 8.2 Domínios de Colisão e Domínios de Broadcast 8.2.1 Ambiente de meios compartilhados Para poder entender os domínios de colisão é preciso entender o que são colisões e como são causadas. Para ajudar a explicar colisões, as topologias e meios físicos da Camada 1 são apresentados aqui. Algumas redes são diretamente conectadas e todos os hosts compartilham a Camada 1. Veja abaixo alguns exemplos: • Ambiente de meios compartilhados: Isto ocorre quando vários hosts obtêm acesso ao mesmo meio. Por exemplo, se vários PCs estiverem conectados ao mesmo fio físico ou à mesma fibra ótica, todos eles compartilharão o mesmo ambiente de meios compartilhados. • Ambiente estendido de meios compartilhados: Este é um tipo especial de ambiente de meios compartilhados no qual os dispositivos de rede podem estender o ambiente para que possa acomodar múltiplos acessos ou distâncias de cabos mais longas. • Ambiente de rede ponto-a-ponto: Amplamente usado em conexões de redes dial- up é o mais conhecido pelo usuário domiciliar. É um ambiente de rede compartilhado onde um dispositivo está conectado a apenas um outro dispositivo, como a conexão de um computador ao provedor de serviços de Internet através de modem e uma linha telefônica. É muito importante poder identificar um ambiente de meios compartilhados, pois só em ambientes compartilhados ocorrem as colisões. Um sistema de rodovias é um exemplo de um ambiente compartilhado no qual podem ocorrer colisões porque vários veículos estão usando as mesmas pistas. Conforme mais veículos entram no sistema, maior se torna a probabilidade de colisões. Uma rede de dados compartilhada é semelhante a uma rodovia. Existem regras para determinar quem tem acesso aos meios da rede, às vezes, no entanto, as regras simplesmente não podem acomodar a carga do tráfego e consequentemente ocorrem colisões.
    • Cisco CCNA 3.1 251 8.2.2 Domínios de Colisão Os domínios de colisão são os segmentos físicos conectados da rede onde podem ocorrer colisões. As colisões fazem com que a rede se torne ineficiente. Cada vez que ocorre uma colisão em uma rede, todas as transmissões são interrompidas por um período de tempo. A duração deste período de tempo sem transmissões varia e é determinado por um algoritmo de backoff (recuo) para cada dispositivo da rede. Os tipos de dispositivos que interconectam os segmentos dos meios definem os domínios de colisão. Estes dispositivos têm sido classificados como dispositivos da Camada 1, 2 ou 3 do modelo OSI. Os dispositivos da Camada 1 não dividem os domínios de colisão; os dispositivos da Camada 2 e Camada 3 dividem domínios de colisão. A divisão ou aumento no número de domínios de colisão pelos dispositivos das Camadas 2 e 3 é também conhecida como segmentação. Os dispositivos da Camada 1, como repetidores e hubs, atendem a função principal de estender os segmentos de cabos Ethernet.
    • Cisco CCNA 3.1 252 Mais hosts podem ser adicionados quando as redes são estendidas. No entanto, cada host adicionado aumenta o potencial de tráfego na rede. Já que os dispositivos da Camada 1 passam adiante tudo que é enviado sobre os meios, quanto maior o tráfego transmitido dentro de um domínio de colisão, maiores são as chances de colisões. O resultado final será uma diminuição no desempenho da rede, que será mais pronunciada se todos os computadores naquela rede estiverem solicitando um alto nível de largura de banda. Em palavras mais claras, os dispositivos da Camada 1 estendem os domínios de colisão, mas o comprimento de uma rede local também pode ser estendido demais e causar outros problemas de colisão. A regra de quatro repetidores na Ethernet declara que podem existir, no máximo, quatro repetidores ou hubs de repetição entre dois computadores na rede. Para garantir que uma rede 10BASE-T com repetidores funcione corretamente, o cálculo do atraso de ida e volta deverá permanecer dentro de certos limites, caso contrário, nem todas as estações de trabalho poderão escutar todas as colisões na rede. A latência dos repetidores, o atraso da propagação e a latência das placas de rede contribuem para a regra de quatro repetidores. Cálculo de atraso de ida-e-volta Exceder a regra de quatro repetidores pode levar à violação do limite máximo de atraso. Quando for excedido este limite de atraso, o número de colisões tardias aumentará consideravelmente. Uma colisão tardia, é quando ocorre uma colisão depois que os primeiros 64 bytes do quadro tenham sido transmitidos. Os chipsets (conjuntos de chips) nas placas de rede não são obrigados a retransmitir automaticamente com a ocorrência de uma colisão tardia. Estes quadros de colisão retardada adicionam um atraso conhecido como atraso de consumo. À medida que aumenta o atraso de consumo e a latência, vai diminuindo o desempenho da rede.
    • Cisco CCNA 3.1 253 A regra 5-4-3-2-1 também oferece diretrizes para manter o tempo de atraso da ida e volta em uma rede compartilhada dentro dos limites aceitáveis: • Cinco segmentos de meios de rede; • Quatro repetidores ou hubs; • Três segmentos de host da rede; • Duas seções de links (sem hosts); • Um domínio grande de colisão; A regra 5-4-3-2-1 também oferece diretrizes para marcar o tempo de atraso da ida e volta em uma rede compartilhada dentro dos limites aceitáveis.
    • Cisco CCNA 3.1 254 8.2.3 Segmentação A história de como a Ethernet lida colisões e domínios de colisão data do ano de 1970 em pesquisas na University of Hawaii. Enquanto tentavam desenvolver um sistema de comunicação sem-fio para as ilhas do Havaí, os pesquisadores da universidade desenvolveram um protocolo conhecido como Aloha. O protocolo Ethernet é na realidade baseado no protocolo Aloha. Uma habilidade importante para um profissional de rede é a capacidade de reconhecer os domínios de colisão. A conexão de vários computadores a um único meio de acesso compartilhado que não possui nenhum outro dispositivo de rede conectado cria um domínio de colisão. Esta situação limita o número de computadores que podem usar os meios, também conhecido como segmento. Os dispositivos da Camada 1 estendem mas não controlam os domínios de colisão. Os dispositivos da Camada 2 segmentam ou dividem os domínios de colisão. O controle da propagação do quadro usando um endereço MAC designado a cada dispositivo Ethernet realiza essa função. Os dispositivos da Camada 2, as bridges e os switches, rastreiam os endereços MAC e os segmentos nos quais se encontram. Ao fazerem isso, estes dispositivos podem controlar o fluxo do tráfego ao nível da Camada 2. Esta função aumenta a eficiência das redes ao permitir que os dados sejam transmitidos em diferentes segmentos da rede local simultaneamente sem a colisão dos quadros. Com a
    • Cisco CCNA 3.1 255 utilização de bridges e switches, o domínio de colisão é dividido em partes menores, cada um deles se tornando seu próprio domínio de colisão. Estes domínios de colisão menores terão menos hosts e menos tráfego que o domínio original. Quanto menos hosts existirem em um domínio de colisão, maior será a probabilidade de que os meios estejam disponíveis. Contanto que não haja muito tráfego entre os segmentos interligados via bridge, uma rede com bridges funciona perfeitamente. Caso contrário, o dispositivo da Camada 2 poderá até retardar a comunicação e também transformar-se em gargalo. Os dispositivos da Camada 3, da mesma maneira que os dispositivos da Camada 2, não encaminham colisões. Por esta razão, a utilização dos dispositivos da Camada 3 em uma rede tem o efeito de dividir os domínios de colisão em domínios menores. Os dispositivos da Camada 3 realizam mais funções do que apenas dividir um domínio de colisão. Os dispositivos da Camada 3 e suas funções serão estudadas em maiores detalhes na seção sobre domínios de broadcast.
    • Cisco CCNA 3.1 256 8.2.4 Broadcasts da Camada 2 Para a comunicação com todos os domínios de colisão, os protocolos usam os quadros broadcast e multicast na Camada 2 do modelo OSI. Broadcasts em ambiente com Bridge Quando um nó precisa comunicar-se com todos os hosts na rede, ele envia um quadro de broadcast com um endereço MAC de destino 0xFFFFFFFFFFFF. Este é um endereço ao qual a placa de rede (NIC) de cada host precisa responder. Os dispositivos da Camada 2 precisam propagar todo o tráfego de broadcast e multicast. O acúmulo de tráfego broadcast e multicast de cada dispositivo na rede é conhecido como radiação de broadcast. Em alguns casos, a circulação da radiação de broadcast poderá saturar a rede de maneira que não sobre largura de banda para os dados das aplicações. Neste caso, novas conexões de rede não podem ser estabelecidas e as conexões existentes podem ser descartadas, uma situação conhecida como tempestade de broadcast. A probabilidade de tempestades de broadcast aumenta com o crescimento da rede comutada. Já que a placa de rede precisa interromper a CPU para processar cada grupo de broadcast ou multicast a que pertence, a radiação de broadcast afeta o desempenho do host na rede. A Figura abaixo mostra os resultados dos testes que a Cisco realizou sobre o efeito da radiação de broadcast no desempenho da CPU de uma Sun SPARCstation 2 com uma placa Ethernet padrão incorporada.
    • Cisco CCNA 3.1 257 Conforme indicado pelos resultados mostrados, uma estação de trabalho IP pode ser virtualmente paralisada por uma inundação de broadcasts na rede. Embora seja um exemplo extremo, picos de broadcasts em milhares de broadcasts por segundo têm sido observados durante tempestades de broadcast. Os testes feitos sob condições controladas com uma variedade de broadcasts e multicasts na rede mostram considerável degradação do sistema até com 100 broadcasts ou multicasts por segundo. Mais freqüentemente, o host não se beneficia do processamento do broadcast, pois não é o destino almejado. O host não se preocupa com o serviço que está sendo anunciado, ou já sabe sobre o serviço. Altos níveis de radiação de broadcast podem degradar consideravelmente o desempenho do host. As três fontes de broadcasts e multicasts em redes IP são estações de trabalho, roteadores e aplicações multicast. As estações de trabalho fazem broadcast de uma solicitação ARP (Address Resolution Protocol) todas as vezes que precisam localizar um endereço MAC que não se encontra na tabela ARP. Número médio de Broadcasts e Multicasts para IP Embora os números na figura possam parecer baixos, representam em média, uma rede IP média bem planejada. Quando o tráfego de broadcast e multicast chegam a um pico devido a uma condição de tempestade, as perdas de nível mais alto na CPU podem atingir ordens de magnitude acima da média. As tempestades de broadcast podem ser causadas por um dispositivo solicitando informações de uma rede que já está extremamente grande. Tantas respostas são enviadas à solicitação original que o dispositivo não pode processá-las, ou a primeira solicitação dispara solicitações semelhantes de outros dispositivos que virtualmente bloqueiam o fluxo do tráfego normal na rede. Como exemplo, o comando telnet mumble.com se traduz em endereço IP através de uma procura no DNS (Domain Name System). Para localizar o endereço MAC correspondente, a solicitação ARP é transmitida usando broadcast. Geralmente, as estações de trabalho IP mantêm em cache entre 10 e 100 endereços nas suas tabelas ARP durante mais ou menos duas horas. A taxa ARP para uma estação de trabalho típica deve ser de mais ou menos 50 endereços a cada duas horas ou 0,007 ARPs por segundo. Desta maneira, 2000 estações IP finais produzem mais ou menos 14 ARPs por segundo. Os protocolos de roteamento que estão configurados em uma rede podem aumentar consideravelmente o tráfego de broadcast. Alguns administradores configuram todas as estações de trabalho para que executem o RIP (Routing Information Protocol) por regra de redundância e alcance. Cada 30 segundos, o RIPv1 usa broadcasts para retransmitir a tabela inteira de roteamento RIP para outros roteadores RIP. Se 2000 estações de trabalho estiverem configuradas para executar o RIP e, na média, são exigidos 50 pacotes para transmitir a tabela de roteamento, as estações de trabalho gerariam 3333 broadcasts por segundo. A maioria dos administradores configura apenas um pequeno número de roteadores, geralmente de cinco a dez para executar o RIP.
    • Cisco CCNA 3.1 258 Para uma tabela de roteamento que tenha um tamanho de 50 pacotes, 10 roteadores RIP gerariam mais ou menos 16 broadcasts por segundo. As aplicações multicast IP podem afetar adversamente o desempenho das redes grandes, escalonadas e comutadas. Embora o multicasting seja uma maneira eficiente de se enviar um fluxo de dados de multimídia a vários usuários em um hub de meios compartilhados, ele afeta cada um dos usuários em uma rede linear comutada. Uma determinada aplicação de pacotes de vídeo pode gerar um fluxo de sete megabytes (MB) de dados multicast que, em uma rede comutada, seria enviado a cada segmento, resultando em um grave congestionamento.
    • Cisco CCNA 3.1 259 8.2.5 Domínios de Broadcast Um domínio de broadcast é um agrupamento de domínios de colisão que estão conectados por dispositivos da Camada 2. A divisão de uma rede local em vários domínios de colisão aumenta a oportunidade para que cada host na rede ganhe acesso aos meios. Isto efetivamente reduz as chances de colisões e aumenta a disponibilidade de largura de banda para cada host. Mas os broadcasts são encaminhados pelos dispositivos da Camada 2 e se excessivos, poderão reduzir a eficiência de toda a rede local. Os broadcasts precisam ser controlados nos dispositivos na Camada 3, pois os dispositivos da Camada 2 e da Camada 1 não possuem recursos para controlá-los. O tamanho total de um domínio de broadcast pode ser identificado ao examinarmos todos os domínios de colisão que são processados pelo mesmo quadro de broadcast. Em outras palavras, todos os nós que fazem parte daquele segmento de rede ligado por um dispositivo de camada três. Os domínios de broadcast são controlados na Camada 3 pois os roteadores não encaminham broadcasts. Os roteadores na realidade funcionam nas Camadas 1, 2, e 3. Eles, como todos os dispositivos de Camada 1, possuem uma conexão física aos meios físicos e transmitem dados através deles. Eles possuem um encapsulamento da Camada 2 em todas as interfaces e funcionam como qualquer outro dispositivo da Camada 2. É a Camada 3 que permite que o roteador segmente os domínios de broadcast. Para que um pacote possa ser encaminhado através de um roteador, ele precisa já ter sido processado pelo dispositivo da Camada 2 e ter as informações do quadro removidas. O encaminhamento da Camada 3 é baseado no endereço IP de destino e não no endereço MAC. Para que um pacote possa ser encaminhado, ele precisa conter um endereço IP que esteja fora da faixa de endereços designados à rede local e o roteador precisa ter na sua tabela de roteamento um destino para onde enviar o pacote específico.
    • Cisco CCNA 3.1 260 8.2.6 Introdução a Fluxo de Dados O conceito de fluxo de dados no contexto dos domínios de colisão e broadcast se concentra em como os quadros de dados se propagam através de uma rede. Ele se refere ao movimento dos dados através dos dispositivos das Camadas 1, 2 e 3 e como os dados precisam ser encapsulados para fazerem o percurso com eficácia. Lembre-se de que os dados são encapsulados na Camada da rede com um endereço IP de origem e de destino, e na Camada de enlace com um endereço MAC de origem e de destino. Fluxo de Dados através de uma Rede Uma boa regra a ser seguida é que um dispositivo de Camada 1 sempre encaminha o quadro, enquanto que o dispositivo de Camada 2 quer encaminhar o quadro. Em outras palavras, um dispositivo de Camada 2 encaminhará o quadro a não ser que alguma coisa o impeça de fazê-lo. Um dispositivo de Camada 3 não encaminhará o quadro a não ser que seja obrigado. A utilização desta regra ajudará a identificar como os dados fluem através de uma rede. Os dispositivos de Camada 1 não fazem filtragem, de modo que tudo que é recebido é passado adiante ao próximo segmento. O quadro é simplesmente regenerado e retemporizado e assim restaurado à sua qualidade original de transmissão. Quaisquer segmentos conectados pelos dispositivos de Camada 1 fazem parte do mesmo domínio, isto é, de colisão e de broadcast. Os dispositivos de Camada 2 filtram os quadros de dados baseados no endereço MAC de destino. Um quadro é encaminhado se for para um destino desconhecido fora do domínio de colisão. O quadro será também encaminhado se for um broadcast, multicast ou unicast indo para fora do domínio de colisão local. A única situação em que um quadro não é encaminhado é quando o dispositivo de Camada 2 descobre que o host de envio e o host de recepção estão no mesmo domínio de colisão.
    • Cisco CCNA 3.1 261 Um dispositivo de Camada 2, como uma bridge, cria vários domínios de colisão mas mantém apenas um domínio de broadcast. Os dispositivos de Camada 3 filtram os pacotes de dados baseados no endereço IP de destino. A única maneira de um pacote ser encaminhado é se o seu endereço IP estiver fora do domínio de broadcast e se o roteador tiver um local identificado para onde mandar o pacote. Um dispositivo de Camada 3 cria vários domínios de colisão e de broadcast. O fluxo de dados através de uma rede roteada baseada em IP, envolve dados que passam através de dispositivos de gerenciamento de tráfego nas Camadas 1, 2 e 3 do modelo OSI. A Camada 1 é usada para a transmissão através de meios físicos, a Camada 2 para gerenciamento de domínios de colisão e a Camada 3 para gerenciamento de domínios de broadcast.
    • Cisco CCNA 3.1 262 8.2.7 O que é um segmento de rede? Como é o caso de muitos termos e siglas, a palavra segmento possui vários significados. A definição do termo no dicionário é a seguinte: • Uma porção de um todo • Uma das partes nas quais uma entidade ou quantidade é dividida ou pela qual é delineada como se por marcos naturais No contexto das comunicações de dados, as seguintes definições são usadas: • Uma seção de uma rede que é ligada por bridges, roteadores ou switches. • Em uma rede local usando uma topologia de barramento, um segmento é um circuito elétrico contínuo que é freqüentemente conectado a outros tantos segmentos com repetidores. • Um termo usado na especificação do TCP para descrever uma unidade de informação da camada de transporte. Os termos datagrama, quadro, mensagem e pacote são também usados para descrever agrupamentos lógicos de informações em várias camadas do modelo OSI de referência e em vários círculos tecnológicos. Para definir adequadamente o termo segmento, o contexto da sua utilização precisa ser apresentado juntamente com a palavra. Um termo usado na especificação do TCP para descrever uma unidade de informação da camada de transporte. Se o termo segmento estiver sendo usado no contexto de meios físicos de rede em uma rede roteada, será visto como uma das partes ou seções de uma rede total. Segmentos
    • Cisco CCNA 3.1 263 Resumo Capítulo 08 Deverá ter sido obtido um entendimento dos seguintes conceitos importantes: • Evolução de bridging e comutação • CAM (Content-addressable memory) • Latência de bridging • Modos de comutação armazenar e encaminhar e cut-through • STP (Spanning-Tree Protocol) • Colisões, broadcasts, domínios de colisão e domínios de broadcast • Os dispositivos das Camadas 1, 2 e 3 usados para criar domínios de colisão e domínios de broadcast • Fluxo de dados e problemas com broadcasts • Segmentação de redes e os dispositivos usados para criar segmentos
    • Cisco CCNA 3.1 264 Capítulo 09: Conjunto de Protocolos TCP/IP e endereçamento IP
    • Cisco CCNA 3.1 265
    • Cisco CCNA 3.1 266 Visão Geral Capítulo 09 A Internet foi desenvolvida para oferecer uma rede de comunicação que pudesse continuar funcionando em tempos de guerra. Embora tenha evoluído de maneira bem diferente daquela imaginada por seus idealizadores, ela ainda é baseada no conjunto de protocolos TCP/IP. O projeto do TCP/IP é ideal para uma rede descentralizada e robusta como é a Internet. Muitos protocolos usados hoje em dia foram criados usando o modelo TCP/IP de quatro camadas. É útil conhecer os dois modelos de rede TCP/IP e OSI. Cada modelo oferece sua própria estrutura para explicar como uma rede funciona, mas há muita sobreposição entre eles. Sem conhecer os dois, é possível que um administrador de rede não tenha uma percepção suficientemente clara sobre as razões pelas quais uma rede funciona da maneira que funciona. Qualquer dispositivo da Internet que queira comunicar-se com outros dispositivos da Internet precisa ter um identificador exclusivo. Esse identificador é conhecido como endereço IP, porque os roteadores usam um protocolo da camada três, o protocolo IP, para encontrar o melhor caminho até esse dispositivo. O IPv4, versão atual do IP, foi concebido antes que houvesse uma grande demanda por endereços. O crescimento explosivo da Internet tem ameaçado esgotar o estoque de endereços IP. As sub-redes, a tradução de endereços de rede (NAT, Network Address Translation) e o endereçamento privado são usados para expandir o endereçamento IP sem que esse estoque termine. Uma outra versão do IP, conhecida como IPv6, apresenta melhorias em relação à versão atual, oferecendo um espaço de endereçamento muito maior, integrando ou eliminando os métodos usados para lidar com as deficiências do IPv4. Para fazer parte da Internet, além do endereço MAC físico, cada computador precisa de um endereço IP exclusivo, às vezes chamado de endereço lógico. Há vários métodos para atribuir um endereço IP a um dispositivo. Alguns dispositivos têm sempre um endereço estático, enquanto outros têm um endereço temporário atribuído a eles toda vez que se conectam à rede. Quando é necessário um endereço IP atribuído dinamicamente, o dispositivo pode obtê-lo por meio de vários métodos. Para que ocorra um roteamento eficiente entre os dispositivos, outras questões precisam ser resolvidas. Por exemplo, endereços IP duplicados podem impedir o roteamento eficiente dos dados.
    • Cisco CCNA 3.1 267 Os alunos que concluírem esta lição deverão ser capazes de: Explicar por que a Internet foi desenvolvida e como o TCP/IP se situa no projeto da Internet. • Relacionar as 4 camadas do modelo TCP/IP. • Descrever as funções de cada camada do modelo TCP/IP. • Comparar o modelo OSI e o modelo TCP/IP. • Descrever a função e a estrutura dos endereços IP. • Entender por que as sub-redes são necessárias. • Explicar a diferença entre os endereçamentos público e privado. • Entender a função dos endereços IP reservados. • Explicar o uso de endereçamento estático e dinâmico para um dispositivo. • Entender como o endereçamento dinâmico pode ser feito usando RARP, BootP e DHCP. • Usar ARP para obter o endereço MAC e enviar um pacote para outro dispositivo. • Entender as questões relacionadas ao endereçamento entre redes.
    • Cisco CCNA 3.1 268 9.1 Introdução ao TCP/IP 9.1.1 História e futuro do TCP/IP O Departamento de Defesa dos Estados Unidos (DoD) criou o modelo de referência TCP/IP porque queria uma rede que pudesse sobreviver a qualquer condições. Para ilustrar, imagine um mundo atravessado por muitos cabos, fios, microondas, fibras óticas e conexões de satélite. Imagine também a necessidade de transmitir dados independentemente da condição de um determinado nó ou rede. O DoD exigia transmissão confiável de dados para qualquer destino da rede sob quaisquer circunstâncias. A criação do modelo TCP/IP ajudou a resolver esse difícil problema de projeto. Desde então, o modelo TCP/IP tornou-se o padrão no qual a Internet se baseia. Ao ler sobre as camadas do modelo TCP/IP, tenha em mente a intenção original da Internet. Lembrando-se disso, haverá menos confusão. O modelo TCP/IP tem quatro camadas: a camada de aplicação, a camada de transporte, a camada de Internet e a camada de acesso à rede. Algumas das camadas do modelo TCP/IP têm o mesmo nome das camadas do modelo OSI. É essencial não confundir as funções das camadas dos dois modelos, pois as camadas contêm diferentes funções em cada modelo.
    • Cisco CCNA 3.1 269 A versão atual do TCP/IP foi padronizada em setembro de 1981. Endereços Ipv4 e Ipv6
    • Cisco CCNA 3.1 270 9.1.2 Camada de Aplicação A camada de aplicação do modelo TCP/IP trata de protocolos de alto nível, questões de representação, codificação e controle de diálogos. O conjunto de protocolos TCP/IP combina todas as questões relacionadas às aplicações em uma única camada e garante que esses dados são empacotados corretamente antes de passá-los adiante para a próxima camada. O TCP/IP inclui não somente especificações da camada de Internet e transporte, tais como IP e TCP, mas também especificações para aplicações comuns. O TCP/IP tem protocolos que suportam transferência de arquivos, correio eletrônico e login remoto, em adição aos seguintes: • FTP (File Transfer Protocol – Protocolo de Transferência de Arquivos) – O FTP é um serviço confiável, orientado a conexões, que usa o TCP para transferir arquivos entre sistemas que suportam o FTP. Este protocolo suporta transferências bidirecionais de arquivos binários e ASCII. • TFTP (Trivial File Transfer Protocol – Protocolo de Transferência de Arquivos Simples) – O TFTP é um serviço sem conexão que usa o UDP (User Datagram Protocol – Protocolo de Datagrama de Usário). Esse protocolo é usado no roteador para transferir arquivos de configuração e imagens IOS da Cisco e para transferir arquivos entre sistemas que suportam TFTP. É útil em algumas redes locais porque opera mais rápido do que o FTP em um ambiente estável. • NFS (Network File System – Sistema de Arquivos de Rede) – O NFS é um conjunto de protocolos de sistema de arquivos distribuído, desenvolvido pela Sun Microsystems, que permite acesso a arquivos de um dispositivo de armazenamento remoto, como um disco rígido, através da rede. • SMTP (Simple Mail Transfer Protocol – Protocolo Simples de Transferência de Correio) – O SMTP administra a transmissão de correio eletrônico através de redes de computadores. Ele não oferece suporte à transmissão de dados que não sejam em texto simples. • Telnet (Terminal emulation – Emulação de terminal) – O Telnet permite o acesso remoto a outro computador. Ele permite que um usuário efetue logon em um host da Internet e execute comandos. Um cliente Telnet é chamado host local. Um servidor Telnet é chamado host remoto. • SNMP (Simple Network Management Protocol – Protocolo Simples de Gerenciamento de Rede) – O SNMP é um protocolo que oferece uma forma de monitorar e controlar dispositivos de rede e de gerenciar configurações, coleta de dados estatísticos, desempenho e segurança.
    • Cisco CCNA 3.1 271 • DNS (Domain Name System – Sistema de Nomes de Domínio) – O DNS é um sistema usado na Internet para converter Os nomes de domínios e seus respectivos nós de rede divulgados publicamente em endereços IP. Aplicações TCP/IP
    • Cisco CCNA 3.1 272 9.1.3 Camada de Transporte A camada de transporte oferece serviços de transporte desde o host de origem até o host de destino. Protocolos da Camada de Transporte Ela forma uma conexão lógica entre dois pontos da rede, o host emissor e o host receptor. Os protocolos de transporte segmentam e remontam os dados das aplicações de camada superior enviados dentro do mesmo fluxo de dados, ou conexão lógica, entre os dois pontos. O fluxo de dados da camada de transporte oferece serviços de transporte ponta-a-ponta. Geralmente, a Internet é representada por uma nuvem. A camada de transporte envia pacotes de dados da origem para o destino receptor através dessa nuvem. O controle ponta- a-ponta, fornecido pelas janelas móveis e pela confiabilidade dos números de seqüenciamento e das confirmações, é a principal tarefa da camada de transporte quando se usa o TCP. A camada de transporte também define a conectividade ponta-a-ponta entre as aplicações do host. Os serviços de transporte incluem todos os serviços abaixo: TCP e UDP • Segmentação de dados das aplicações da camadas superiores. • Envio de segmentos de um dispositivo em uma ponta para um dispositivo em outra ponta. Somente TCP • Estabelecimento de operações ponta-a-ponta. • Controle de fluxo proporcionado pelas janelas móveis. • Confiabilidade proporcionada pelos números de seqüência e confirmações.
    • Cisco CCNA 3.1 273 Geralmente, a Internet é representada por uma nuvem. A camada de transporte envia pacotes de dados da origem para o destino receptor através dessa nuvem. Essa nuvem trata de questões como "Qual dos vários caminhos é o melhor para uma rota especificada?”
    • Cisco CCNA 3.1 274 9.1.4 Camada de Internet A finalidade da camada de Internet é escolher o melhor caminho para os pacotes viajarem através da rede. O principal protocolo que funciona nessa camada é o IP (Internet Protocol). A determinação do melhor caminho, comutação de pacotes ocorrem nesta camada. Os seguintes protocolos operam na camada de Internet TCP/IP: Protocolos de Camada de Internet • O IP oferece roteamento de pacotes sem conexão, e uma entrega de melhor esforço. Ele não se preocupa com o conteúdo dos pacotes, apenas procura um caminho até o destino. • O ICMP (Internet Control Message Protocol – Protocolo de Mensagens de Controle da Internet) oferece recursos de controle e de mensagens. • O ARP (Address Resolution Protocol – Protocolo de Resolução de Endereços) determina o endereço da camada de enlace (-o endereço MAC),Para os endereços IP conhecidos. Em outras palavras tem IP e quer MAC. • O RARP (Reverse Address Resolution Protocol – Protocolo de Resolução Reversa de Endereços) determina os endereços IP quando o endereço MAC é conhecido. O IP realiza as seguintes operações: • Define um pacote e um esquema de endereçamento; • Transfere dados entre a camada de Internet e as camadas de acesso à rede; • Roteia os pacotes para os hosts remotos; Finalmente, como esclarecimento sobre a tecnologia, o IP às vezes é considerado um protocolo não-confiável. Isso não significa que o IP não entregue os dados de maneira precisa através de uma rede. Chamá-lo de protocolo não-confiável significa simplesmente que o IP não realiza a verificação e correção de erros. Essa função é realizada pelos protocolos de camadas superiores, as camadas de transporte ou de aplicação. Determinação do caminho da Internet
    • Cisco CCNA 3.1 275 9.1.5 Camada de acesso á rede A camada de acesso à rede é também denominada camada host-to-network. Protocolos de Acesso à Rede A camada de acesso à rede é a camada que cuida de todas as questões necessárias para que um pacote IP estabeleça efetivamente um link físico com os meios físicos da rede. Isso inclui detalhes de tecnologia de redes locais e de WANs e todos os detalhes contidos nas camadas física e de enlace de dados do modelo OSI. Drivers de aplicativos, de placas de modem e de outros dispositivos operam na camada de acesso à rede. A camada de acesso à rede define os procedimentos para estabelecer uma interface com o hardware de rede e para acessar o meio de transmissão. Padrões de protocolos são conhecidos como o SLIP (Serial Line Internet Protocol – Protocolo de Internet de Linha Serial) e o PPP (Point-to-Point Protocol – Protocolo Ponto a Ponto) oferecem acesso à rede através de uma conexão com modem. Devido a uma complexa interação entre as especificações de hardware, software e meios de transmissão, há muitos protocolos em operação nesta camada. Isso pode causar confusão para os usuários. A maioria dos protocolos reconhecíveis opera nas camadas de transporte e de Internet do modelo TCP/IP. As funções da camada de acesso à rede incluem o mapeamento de endereços IP para endereços físicos de hardware e o encapsulamento de pacotes IP em quadros. Com base no tipo de hardware e na interface de rede, a camada de acesso à rede define a conexão com os meios físicos da rede. Um bom exemplo de configuração da camada de acesso à rede seria a de um sistema Windows usando uma placa de rede de terceiros. Conforme a versão do Windows, a placa de rede seria detectada automaticamente pelo sistema operacional e os drivers adequados seriam instalados. Se a versão do Windows fosse mais antiga, o usuário precisa especificar o driver da placa de rede. O fabricante da placa fornece esses drivers em discos ou CD- ROMs.
    • Cisco CCNA 3.1 276 9.1.6 Comparação modelo OSI com modelo TCP/IP A seguir, veremos uma comparação entre o modelo OSI e o modelo TCP/IP, observando suas semelhanças e diferenças: Semelhanças entre os modelos OSI e TCP/IP: • Ambos são divididos em camadas . • A camada de transporte do TCP/IP ao ultilizar o protocolo UDP. • Ambos são divididos em camadas de transporte e de rede equivalentes. • A tecnologia de comutação de pacotes (e não de comutação de circuitos) é presumida por ambos. • Os profissionais de rede precisam conhecer ambos os modelos. Diferenças entre os modelos OSI e TCP/IP: • O TCP/IP combina as camadas de apresentação e de sessão dentro da sua camada de aplicação. • O TCP/IP combina as camadas física e de enlace do modelo OSI em uma única camada. • O TCP/IP parece ser mais simples por ter menos camadas. • A camada de transporte do TCP/IP, que utiliza o UDP, nem sempre garante a entrega confiável dos pacotes, ao contrário da camada de transporte do modelo OSI. A Internet se desenvolve com o uso de padrões de protocolos TCP/IP. O modelo TCP/IP ganha credibilidade graças a seus protocolos. Por outro lado, a Rede normalmente não são implementadas sobre o protocolo do modelo OSI. O modelo OSI é usado como guia para o entendimento do processo de comunicação.
    • Cisco CCNA 3.1 277 9.1.7 Arquitetura da Internet Embora a Internet seja complexa, há algumas idéias básicas relacionadas à sua operação. Nesta seção, examinaremos a arquitetura básica da Internet. A Internet é uma idéia que aparenta simples que, quando repetida em grande escala, permite a comunicação de dados quase instantânea ao redor do mundo entre quaisquer pessoas, em qualquer lugar, a qualquer momento. As redes locais são redes menores, limitadas a uma área geográfica. Muitas redes locais conectadas entre si possibilitam o funcionamento da Internet. Mas as redes locais têm limitações de escala. Embora tenha havido avanços tecnológicos que melhoraram a velocidade das comunicações, com o Ethernet Metro Optical, Gigabit e 10 Gigabits, a distância ainda representa um problema. Focar na comunicação no nível da camada de aplicação entre os computadores de origem e destino e os computadores intermediários é uma forma de ter uma visão geral da arquitetura da Internet. Colocar instâncias idênticas de um aplicativo em todos os computadores da rede poderia facilitar a entrega de mensagens através da grande rede. Entretanto, isso apresenta problemas de escala. Para que um novo software funcione corretamente, é necessário que os novos aplicativos sejam instalados em todos os computadores da rede. Para que um novo hardware funcione corretamente, é necessário modificar o software. Qualquer falha de um computador intermediário ou de um aplicativo do computador causaria uma ruptura na cadeia de mensagens sendo transmitidas. A Internet usa o princípio da interconexão de camadas de rede. Usando o modelo OSI como exemplo, o objetivo é construir a funcionalidade da rede em módulos independentes. Isso permite uma diversidade de tecnologias de LAN nas camadas 1 e 2 e uma diversidade de aplicações funcionando nas camadas 5, 6 e 7. O modelo OSI oferece um mecanismo no qual os detalhes das camadas inferiores e superiores estão separados. Isso permite que os dispositivos de rede intermediários "comutem" o tráfego sem ter que se preocupar com os detalhes da LAN. Isso leva ao conceito de internetworking, ou construção de redes compostas de redes. Uma rede de redes é chamada de internet (com "i" minúsculo). Quando falamos das redes que se desenvolveram a partir do Departamento de Defesa dos EUA, nas quais funciona a World Wide Web (www) ou rede mundial, usamos o "I" maiúsculo, Internet. As internets devem ser escalonáveis com relação à quantidade de redes e computadores conectados. A interconexão de redes deve ser capaz de lidar com o transporte de dados através de enormes distâncias. Deve ser flexível para dar conta das constantes inovações tecnológicas. Deve ser capaz de se ajustar às condições dinâmicas da rede. E as internets devem ser econômicas. Por fim, as internets devem ser projetadas para permitir comunicações de dados para qualquer pessoa, a qualquer momento, em qualquer lugar.
    • Cisco CCNA 3.1 278 A figura abaixo resume a conexão de uma rede física a outra por meio de um computador de função especial, chamado roteador. Essas redes são descritas como diretamente conectadas ao roteador. O roteador é toma decisões sobre os caminhos a serem utilizados para que ocorra a comunicação entre duas redes. São necessários muitos roteadores para manejar grandes volumes de tráfego de rede. A figura abaixo expande a idéia para três redes físicas conectadas por dois roteadores. Os roteadores tomam decisões complexas para permitir que todos os usuários em todas as redes se comuniquem. Nem todas as redes estão diretamente conectadas entre si. O roteador precisa de algum método para lidar com essa situação. Uma opção é que o roteador mantenha uma lista de todos os computadores e de todos os caminhos até eles. Assim, o roteador decidiria como encaminhar os pacotes de dados com base nessa tabela de referência. O encaminhamento é baseado no endereço IP do computador de destino. Essa opção ficaria difícil conforme fosse aumentando a quantidade de usuários. A escalabilidade é introduzida quando o roteador mantém uma lista de todas as redes, mas deixa os detalhes da entrega local para as redes físicas locais. Nesta situação, os roteadores passam mensagens para os outros roteadores. Cada roteador compartilha informações sobre quais redes estão conectadas a ele. Isso cria a tabela de roteamento.
    • Cisco CCNA 3.1 279 A figura mostra a transparência exigida pelos usuários. Mesmo assim, as estruturas física e lógica dentro da nuvem da Internet podem ser extremamente complexas, conforme indica a figura abaixo. A Internet tem crescido rapidamente para aceitar cada vez mais usuários. O fato dela ter-se tornado tão grande, com mais de 90.000 rotas centrais e 300.000.000 de usuários finais, é uma prova da solidez da sua arquitetura. Dois computadores, em qualquer parte do mundo, seguindo certas especificações de hardware, software e protocolo, podem comunicar-se de maneira confiável. A padronização das práticas e dos procedimentos para movimentação de dados através das redes tornou a Internet possível.
    • Cisco CCNA 3.1 280 9.2 Endereços de Internet 9.2.1 Endereçamento IP Para que dois sistemas quaisquer se comuniquem, eles precisam ser capazes de se identificar e localizar um ao outro. Embora os endereços da figura abaixo não sejam endereços de rede reais, representam e mostram o conceito de agrupamento de endereços. Um computador pode estar conectado a mais de uma rede. Este é um exemplo de um computador que está conectado a duas redes diferentes. Isto é feito colocando-se duas placas de rede no computador. O termo utilizado para descrever isto é equipamento dual-homed. É importante notar que as duas interfaces do computador estão em redes completamente diferentes e conseqüentemente têm identificadores de rede diferentes no endereço. Outra observação importante é que o computador não passa dados através dele, a menos que seja especificamente configurado para isso, ele apenas tem acesso a ambas as redes. Nesta situação, o sistema deve receber mais de um endereço. Cada endereço identificará a conexão do computador a uma rede diferente. Não se fala que um dispositivo tem um endereço, mas que cada um dos pontos de conexão ou interfaces, daquele dispositivo tem um endereço para uma rede. Isso permite que os outros computadores localizem o dispositivo nessa rede específica. A combinação de letra (endereço da rede) e número (endereço do host) cria um endereço exclusivo para cada dispositivo da rede. Cada computador em uma rede TCP/IP deve receber um identificador exclusivo, ou endereço IP. Esse endereço, operando na camada 3, permite que um computador localize outro computador na rede. Todos os computadores têm endereços físico exclusivo, conhecido como endereço MAC. Esse endereço é atribuído pelo fabricante da placa de interface de rede. Os endereços MAC operam na camada 2 do modelo OSI.
    • Cisco CCNA 3.1 281 Um endereço IP é uma seqüência de 32 bits de 1s e 0s. A figura abaixo mostra um exemplo de um número de 32 bits. Para facilitar a utilização do endereço IP, geralmente ele é escrito como quatro números decimais separados por pontos. Por exemplo, o endereço IP de um computador é 192.168.1.2. Outro computador pode ter o endereço 128.10.2.1. Essa maneira de escrever o endereço é chamada de formato decimal pontuado. Nesta notação, cada endereço IP é escrito em quatro partes separado por pontos. Cada parte do endereço é denominada octeto, já que é formada de oito dígitos binários. Por exemplo, o endereço IP 192.168.1.8 seria 11000000.10101000.00000001.00001000 em notação binária. A notação decimal separada por pontos é um método mais fácil de entender do que o método que utiliza os dígitos binários um e zero. Essa notação decimal separada por pontos também evita a grande quantidade de erros de transposição que ocorreriam se fosse usada somente a numeração binária. A utilização da notação decimal separada por pontos permite que os padrões numéricos sejam mais facilmente entendidos. Tanto os números binários quanto os decimais na figura abaixo representam os mesmos valores, mas é mais fácil de se entender a notação decimal separada por pontos. Este é um dos problemas comuns quando se trabalha diretamente com números binários. As longas cadeias de uns e zeros repetidos aumentam a probabilidade de erros de transposição e omissão. É fácil ver a relação entre os números 192.168.1.8 e 192.168.1.9, enquanto que não é tão fácil reconhecer a relação entre 11000000.10101000.00000001.00001000 e 11000000.10101000.00000001.00001001. Observando os números binários, é quase impossível ver que são números consecutivos.
    • Cisco CCNA 3.1 282 9.2.2 Conversão decimal/binário Há várias maneiras de se resolver um problema. Também existem várias maneiras de se converter números decimais em números binários. Aqui apresentamos um método, embora não seja o único. O aluno pode achar outro método mais fácil. É uma questão de preferência pessoal. Ao converter um número decimal em binário, é preciso determinar a maior potência de 2 que se encaixará no número decimal. Se esse processo deve funcionar com computadores, o lugar mais lógico para se começar é com os maiores valores que se encaixam em um byte ou dois bytes. Conforme mencionado anteriormente, o agrupamento mais comum de bits é o de oito bits, equivalente a um byte. Às vezes, porém, o maior valor que pode um byte pode comportar não é suficientemente grande para os valores necessários. Para acomodar isso, bytes são combinados. Em vez de dois números de 8 bits, cria-se um número de 16 bits. Em vez de três números de 8 bits, cria-se um número de 24 bits. Aplicam-se as mesmas regras dos números de 8 bits. Multiplique o valor da posição anterior por 2 para obter o valor da coluna atual. Em computação, como geralmente se fala em bytes, é mais fácil começar pelas fronteiras dos bytes e calcular a partir daí. Comece calculando alguns exemplos. O primeiro será 6.783. Como esse número é maior que 255, o maior valor possível em um único byte, usaremos dois bytes. Comece calculando a partir de 215 . O equivalente binário de 6.783 é 00011010 01111111. O segundo exemplo é 104. Como esse número é menor que 255, ele pode ser representado por um único byte. O equivalente binário de 104 é 01101000. Esse método funciona para qualquer número decimal. Considere o número decimal um milhão. Como um milhão é maior que o maior valor que pode ser guardado em dois bytes, 65.535, serão necessários pelo menos três bytes. Multiplicando-se por dois até alcançar 24 bits (3 bytes), o valor será 8.388.608. Isso significa que o maior valor que pode ser guardado em 24 bits é 16.777.215. Portanto, começando do bit 24, continue o processo até alcançar zero. Continuando com o procedimento descrito, determina-se que o número decimal 1.000.000 é igual ao número binário 00001111 01000010 01000000. A conversão de binário para decimal é simplesmente o inverso. Basta colocar o binário na tabela e, se houver um 1 na posição de uma coluna, adicionar esse valor ao total. Converta 00000100 00011101 para decimal. A resposta é 1053.
    • Cisco CCNA 3.1 283 9.2.3 Endereçamento IPv4 Um roteador encaminha pacotes da rede de origem para a rede de destino usando o protocolo IP. Os pacotes devem incluir um identificador tanto para a rede de origem quanto para a de destino. Usando o endereço IP da rede de destino, um roteador pode entregar um pacote para a rede correta. Quando o pacote chega a um roteador conectado à rede de destino, esse roteador usa o endereço IP para localizar o computador específico conectado a essa rede. Esse sistema funciona de maneira muito parecida com o sistema dos correios. Quando uma correspondência é roteada, primeiro ela deve ser entregue à agência dos correios na cidade de destino usando-se o CEP. Em seguida, essa agência deve localizar o destino final nessa cidade usando-se o nome da rua. É um processo em duas etapas. O endereço representa o caminho das conexões dos meios Caminho de Comunicação da Camada de Rede Da mesma maneira, todo endereço IP tem duas partes. Uma parte identifica a rede à qual o sistema está conectado; a outra parte identifica o sistema específico na rede. Conforme mostrado na figura abaixo, cada octeto vai de 0 a 255.
    • Cisco CCNA 3.1 284 Cada um dos octetos divide-se em 256 subgrupos, que se dividem em outros 256 subgrupos com 256 endereços em cada um deles. Ao se referir ao endereço do grupo diretamente acima de um grupo na hierarquia, todos os grupos que se ramificam desse endereço podem ser mencionados como uma única unidade. Esse tipo de endereço é chamado de endereço hierárquico, porque contém diferentes níveis. Um endereço IP combina esses dois identificadores em um único número. Esse número deve ser exclusivo, já que endereços duplicados tornariam o roteamento impossível. A primeira parte identifica o endereço de rede do sistema. A segunda parte, chamada de parte do host, identifica qual é a máquina específica na rede. Os endereços IP são divididos em classes, para definir redes pequenas, médias e grandes. Os endereços de classe A são atribuídos a redes maiores. Os endereços de classe B são usados para redes de porte médio e os de classe C para redes pequenas. Classes de Endereços IP Identificação de Classes de Endereços A primeira etapa para determinar qual parte do endereço identifica a rede e qual parte identifica o host é identificar a classe do endereço IP.
    • Cisco CCNA 3.1 285 9.2.4 Endereços IP classes A, B, C, D e E Para acomodar redes de diferentes tamanhos e ajudar na classificação dessas redes, os endereços IP são divididos em grupos chamados classes. Isto é conhecido por endereçamento classful. Cada endereço IP completo de 32 bits é dividido em uma parte da rede e uma parte do host. Prefixos de Classes de Endereços Os endereços de Classe D são usados para grupos de multicast. Não é necessário alocar octetos ou bits para separar os endereços de rede e host. Os endereços de Classe E são reservados apenas para pesquisas. Divisão de Rede e host Determine a classe baseado no endereço decimal do primeiro octeto. 127 (01111111) é um endereço de classe A reservado para teste de loopback, e não pode ser designado para uma rede. Um bit ou uma seqüência de bits no início de cada endereço determina a classe do endereço. Há cinco classes de endereços IP, conforme mostrado na figura abaixo. Determine a classe baseado no endereço decimal do primeiro octeto. 127 (01111111) é um endereço de classe A reservado para teste de loopback, e não pode ser designado para uma rede. Intervalo de Endereço IP
    • Cisco CCNA 3.1 286 CLASSE A O endereço de classe A foi criado para suportar redes extremamente grandes, com mais de 16 milhões de endereços de host disponíveis. Os endereços IP de classe A usam somente o primeiro octeto para indicar o endereço de rede. Os três octetos restantes são responsáveis pelos endereços de host. O primeiro bit de um endereço de classe A é sempre 0. Como esse primeiro bit é 0, o menor número que pode ser representado é 00000000, que também é o 0 decimal. O maior número que pode ser representado é 01111111, equivalente a 127 em decimal. Os números 0 e 127 são reservados e não podem ser usados como endereços de rede. Qualquer endereço que comece com um valor entre 1 e 126 no primeiro octeto é um endereço de classe A. A rede 127.0.0.0 é reservada para testes de loopback. Os roteadores ou as máquinas locais podem usar esse endereço para enviar pacotes para si mesmos. Por isso, esse número não pode ser atribuído a nenhuma rede. CLASSE B O endereço classe B foi criado para dar conta das necessidades de redes de porte médio a grande. Um endereço IP de classe B usa os dois primeiros octetos para indicar o endereço da rede. Os outros dois octetos especificam os endereços dos hosts. Os dois primeiros bits do primeiro octeto de um endereço classe B são sempre 10. Os seis bits restantes podem ser preenchidos com 1s ou 0s. Portanto, o menor número que pode ser representado por um endereço classe B é 10000000, equivalente a 128 em decimal. O maior número que pode ser representado é 10111111, equivalente a 191 em decimal. Qualquer endereço que comece com um valor no intervalo de 128 a 191 no primeiro octeto é um endereço classe B.
    • Cisco CCNA 3.1 287 CLASSE C Das classes de endereços originais, o espaço de endereços de classe C é o mais usado. Esse espaço de endereços tinha como objetivo suportar redes pequenas com no máximo 254 hosts. Um endereço classe C começa com o binário 110. Assim, o menor número que pode ser representado é 11000000, equivalente a 192 em decimal. O maior número que pode ser representado é 11011111, equivalente a 223 em decimal. Se um endereço contém um número entre 192 e 223 no primeiro octeto, é um endereço classe C. CLASSE DO endereço classe D foi criado para permitir multicasting em um endereço IP. Um endereço de multicast é um endereço de rede exclusivo que direciona os pacotes com esse endereço de destino para grupos predefinidos de endereços IP. Assim, uma única estação pode transmitir simultaneamente um único fluxo de dados para vários destinatários. O espaço de endereços de classe D, de forma muito semelhante aos outros espaços de endereços, é limitado matematicamente. Os primeiros quatro bits de um endereço classe D devem ser 1110. Assim, o intervalo de valores no primeiro octeto dos endereços de classe D vai de 11100000 a 11101111, ou de 224 a 239 em decimal. Um endereço IP que comece com um valor no intervalo de 224 a 239 no primeiro octeto é um endereço classe D.
    • Cisco CCNA 3.1 288 CLASSE E Também foi definido um endereço classe E. Entretanto, a IETF (Internet Engineering Task Force) reserva esses endereços para suas próprias pesquisas. Dessa forma, nenhum endereço classe E foi liberado para uso na Internet. Os primeiros quatro bits de um endereço classe E são sempre definidos como 1s. Assim, o intervalo de valores no primeiro octeto dos endereços de classe E vai de 11110000 a 11111111, ou de 240 a 255 em decimal. A figura mostra o intervalo de endereços IP do primeiro octeto, tanto em decimal quanto em binário, para cada classe de endereços IP. Intervalo de Endereço IP (01111111) é um endereço de classe A reservado para teste de loopbackup, e não pode ser designado para uma rede.
    • 289 9.2.5 Endereços IP reservados Alguns endereços de host são reservados e não podem ser atribuídos a dispositivos em uma rede. Esses endereços de host reservados incluem o seguinte: • Endereço de rede: Usado para identificar a própria rede. Na figura abaixo, a seção identificada pela caixa superior representa a rede 198.150.11.0. Os dados que são enviados para qualquer host dessa rede (198.150.11.1- 198.150.11.254) serão vistos para fora da rede local como 198.159.11.0. O único momento em que os números dos hosts têm importância é quando os dados estão na rede local. A LAN que está contida na caixa inferior é tratada da mesma maneira que a LAN superior, com a diferença de que seu número de rede é 198.150.12.0. A secção que é identificada pela caixa superior representa a rede 198.150.11.0. Os dados que são enviados a qualquer host naquela rede (198.150.11.1- 198.150.11.254) serão vistos fora da rede local como 198.150.11.0. Os números de host são importantes apenas quando os dados se encontram na rede local. A rede local que estiver contida na caixa inferior é tratada da mesma maneira que a rede local superior, exceto que seu número da rede é 198.150.12.0. • Endereço de broadcast: Usado para realizar broadcast de pacotes para todos os dispositivos de uma rede. Na figura abaixo, a seção identificada pela caixa superior representa o endereço de broadcast 198.150.11.255. Os dados enviados para o endereço de broadcast são lidos por todos os hosts dessa rede (198.150.11.1- 198.150.11.254). A LAN que está contida na caixa inferior é tratada da mesma maneira que a LAN superior, com a diferença de que seu endereço de broadcast é 198.150.12.255. Um endereço IP com 0s binários Cisco CCNA 3.1 A secção que é identificada pela caixa superior representa o endereço de broadcast 198.150.11.255. Os dados que são enviados ao endereço de broadcast serão lidos por qualquer host naquela rede (198.150.11.1-198.150.11.254). A rede local que estiver contida na caixa inferior é tratada da mesma maneira que a rede local superior, exceto que seu endereço de broadcast é 198.150.12.255.
    • Cisco CCNA 3.1 290 Em todas as posições de bits dos hosts é reservado para o endereço de rede. Em um exemplo de rede de classe A, 113.0.0.0 é o endereço IP da rede (conhecido como ID da rede) que contém o host 113.1.2.3. Um roteador usa o endereço IP da rede ao encaminhar dados na Internet. Em um exemplo de rede de classe B, o endereço 176.10.0.0 é um endereço de rede, conforme mostrado na figura abaixo. Em um endereço de rede classe B, os dois primeiros octetos são designados como a parte da rede. Os dois últimos octetos contêm 0s porque esses 16 bits são para os números de host e são usados para identificar os dispositivos conectados à rede. O endereço IP 176.10.0.0 é um exemplo de endereço de rede. Esse endereço nunca é atribuído como endereço de host. O endereço de host de um dispositivo da rede 176.10.0.0 poderia ser 176.10.16.1. Neste exemplo, "176.10" é a parte da rede e "16.1" é a parte do host. Transmissão Unicast Para enviar dados a todos os dispositivos de uma rede, é necessário um endereço de broadcast. Endereços de classe B tem todos os seus bits de host fixados em zero. Por esta razão ele é identificado como endereço de rede. Endereços de classe B é o endereço de broadcast para essa rede. Quando os pacotes são recebidos com este endereço de destino, os dados são processados por cada computador.
    • Cisco CCNA 3.1 291 Um broadcast acontece quando uma origem envia dados a todos os dispositivos de uma rede. Para garantir que todos os outros dispositivos da rede processem o broadcast, o remetente deve usar um endereço IP de destino que eles possam reconhecer e processar. Os endereços IP de broadcast ultilizam bits 1s em toda a parte do endereço reservada para a identificação de host. No exemplo da rede 176.10.0.0, os 16 últimos bits formam o campo de hosts ou parte do host do endereço. - O computador 176.10.16.1 usará uma transmissão Broadcast para encontrar um servidor DNS. Geralmente, este é o propósito da utilização de um Broadcast, ou seja, encontrar um dispositivo ou um serviço específico. Poderia ser um servidor DNS, DHCP ou vários outros tipos de dispositivos. - O computador 176.10.16.1 prepara o pacote de broadcast para transmissão e verifica o cabo de rede para saber se ele está sendo usado por outro computador. Se outra estação estiver usando o cabo, o computador número 1 terá que espera, pois apenas um computador poder transmitir de cada vez. O cabo está livre e, portanto, o computador 176.10.16.1 poderá transmitir. - O computador 176.10.16.1 transmite os quadros de dados através do segmento do cabo de rede. - Todos os computadores no segmento Ehternet, analisam os quadros de dados entrantes para determinar se a transmissão é para eles. - Esta é uma transmissão de broadcast e, por isso, todos os computadores aceitam a transmissão e a processam. A função de uma transmissão de broadcast é fazer com que todos os hosts no segmento processem os dados. É responsabilidade do computador que faz o processamento decidir o que fazer com a transmissão. Neste caso, já que o broadcast estava procurando um servidor DNS, apenas aquele dispositivo responderá. Se houver mais de um servidor DNS que recebeu esse broadcast, todos responderão. - O computador 176.10.16.6 processa a solicitação que veio da transmissão do computador 176.10.16.1 e prepara uma resposta Unicast para ele. Já que é conhecido o endereço do dispositivo que enviou a solicitação, a resposta pode ser enviada diretamente àquele dispositivo. Ele verifica o cabo Ethernet para detectar se outro computador está transmitindo dados. O segmento está disponível. - O computador 176.10.16.6 transmite seu quadros de dados através do segmento Ethernet. - Mais uma vez, todos os hosts analisam os quadros entrantes.
    • Cisco CCNA 3.1 292 Todos os computadores abandonam os quadros entrantes, com exceção do computador 176.10.16.1, para qual os quadros são destinados. Isto completa o ciclo de uma transmissão Unicast entre 2 computadores. É importante observar que todos os computador em um segmento Ethernet sempre examinam o tráfego no segmento e, em seguida, processam apenas os que forem endereçados a eles. Um broadcast enviado a todos os dispositivos dessa rede incluiria um endereço de destino 176.10.255.255. Isso porque 255 é o valor decimal de um octeto que contém 11111111.
    • Cisco CCNA 3.1 293 9.2.6 Endereços IP públicos e privados A estabilidade da Internet depende diretamente da exclusividade dos endereços de rede usados publicamente. Na figura abaixo, há um problema no esquema de endereçamento da rede. Observando as redes, vemos que ambas tem o endereço de rede 198.150.11.0. O roteador nessa ilustração não será capaz de encaminhar os pacotes de dados corretamente. Endereços IP de rede duplicados impedem que o roteador realize sua função de selecionar o melhor caminho. Para cada dispositivo de uma rede, é necessário um endereço exclusivo. Existe um problema com o esquema de endereçamento das redes. Ao examinar as redes, ambas têm um endereço de rede 198.150.11.0. Quando as transmissões de dados chegam até o roteador nesta ilustração. Como devem ser comutadas? Se fosse permitido, essa situação aumentaria em muito o tráfego da rede a anularia a função básica do roteador. São exigidos endereço exclusivos para cada dispositivo eu uma rede. Foi necessário criar um procedimento que garantisse que os endereços fossem realmente exclusivos. Inicialmente, uma organização conhecida como INTERNIC (Internet Network Information Center – Centro de Informações da Rede Internet) cuidou desse procedimento. A INTERNIC não existe mais e foi substituída pela IANA (Internet Assigned Numbers Authority). A IANA gerencia cuidadosamente o estoque de endereços IP para garantir que não haja duplicidade de endereços usados publicamente. A duplicidade causaria instabilidade na Internet e comprometeria sua capacidade de entregar datagramas para as redes. Os endereços IP públicos são exclusivos. Nunca pode haver mais de uma máquina que se conecte a uma rede pública com o mesmo endereço IP, pois os endereços IP públicos são globais e padronizados. Todas as máquinas conectadas à Internet concordam em obedecer a esse sistema. Os endereços IP públicos precisam ser obtidos de um provedor de serviços de Internet ou através de registro a um certo custo. Com o rápido crescimento da Internet, os endereços IP públicos começaram a escassear. Para ajudar a solucionar o problema, foram desenvolvidos novos esquemas de endereçamento, como o CIDR (classless interdomain routing – roteamento sem classes entre domínios) e o IPv6. O CIDR e o IPv6 serão discutidos mais adiante neste curso.
    • Cisco CCNA 3.1 294 Os endereços IP privados são outra solução para o problema da escassez iminente dos endereços IP públicos. Como foi dito, as redes públicas exigem que os hosts tenham endereços IP exclusivos. Entretanto, as redes privadas que não estão conectadas à Internet podem usar quaisquer endereços de host, contanto que cada host dentro da rede privada seja exclusivo. Muitas redes privadas existem em paralelo com as redes públicas. Porém, não é recomendável que uma rede privada use um endereço qualquer, pois essa rede pode ser conectada à Internet algum dia. O RFC 1918 reserva três blocos de endereços IP para uso interno e privado. Esses três blocos consistem de um endereço de classe A, um intervalo de endereços de classe B e um intervalo de endereços de classe C. Os endereços dentro desses intervalos não são roteados no backbone da Internet. Os roteadores da Internet descartam imediatamente os endereços privados. Para endereçar uma intranet não-pública, um laboratório de testes ou uma rede doméstica, pode usar esses endereços privados no lugar dos endereços globalmente exclusivos. Os endereços IP privados podem ser combinados, conforme mostrado no gráfico, com os endereços públicos. Isso poupará a quantidade de endereços usados para as conexões internas. Conectar uma rede que usa endereços privados à Internet exige a conversão dos endereços privados em endereços públicos. Esse processo de conversão é chamado de NAT (Network Address Translation – Conversão de Endereços de Rede). Geralmente, o roteador é o dispositivo que realiza a NAT. A NAT, juntamente com o CIDR e o IPv6, é tratada em maior profundidade mais adiante no curso.
    • Cisco CCNA 3.1 295 9.2.7 Introdução à sub-redes As sub-redes são outro método para gerenciar os endereços IP mostrado na figura abaixo. Endereçamento com sub-redes Esse método de dividir classes inteiras de endereços de redes em pedaços menores impediu o esgotamento completo dos endereços IP. É impossível abordar o TCP/IP sem mencionar as sub-redes. Como administrador de sistemas, é importante compreender a utilização de sub-redes como uma forma de dividir e identificar redes independentes através da LAN. Nem sempre é necessário dividir uma rede pequena em sub-redes. Entretanto, para redes grandes ou extremamente grandes, a divisão em sub-redes é necessária. Endereços de sub-redes
    • Cisco CCNA 3.1 296 Dividir uma rede em sub-redes significa usar a máscara de sub-rede para dividir a rede em segmentos menores, ou sub-redes, mais eficientes e mais fáceis de gerenciar. Um exemplo semelhante seria o sistema telefônico brasileiro, que é dividido em códigos DDD, prefixos e números locais. O administrador do sistema precisa resolver essas questões ao adicionar e expandir a rede. É importante saber quantas sub-redes ou redes são necessárias e quantos hosts serão necessários em cada rede. Com as sub-redes, a rede não fica limitada às máscaras de rede padrão de classes A, B ou C, e há maior flexibilidade no projeto da rede. Os endereços de sub-rede incluem a parte da rede, mais um campo de sub-rede e um campo do host. O campo da sub-rede e o campo do host são criados a partir da parte do host original para toda a rede. A possibilidade de decidir como dibidir a parte reservada originalmente ao endereço de host em novos campos para a identificação de sub-rede e host, provendo para o administrador da rede uma maior flexibilidade no endereçamento. Para criar um endereço de sub-rede, um administrador de rede toma emprestados alguns bits do campo do host e os designa como o campo da sub-rede. Guia de Referência Rápida de Sub-Redes A quantidade mínima de bits que podem ser emprestados é 2. Se criássemos uma sub-rede tomando somente um bit emprestado, o número da rede seria .0. O número de broadcast seria .255. A quantidade máxima de bits que podem ser emprestados é qualquer valor que deixe pelo menos 2 bits sobrando para o número do host.
    • Cisco CCNA 3.1 297 9.2.8 Ipv4 x Ipv6 Quando o TCP/IP foi adotado, na década de 80, ele se baseava em um esquema de endereçamento em dois níveis. Na época, isso oferecia uma escalabilidade adequada. Infelizmente, os idealizadores do TCP/IP não poderiam prever que esse protocolo acabaria sustentando uma rede global de informações, comércio e entretenimento. Há mais de vinte anos, o IP versão 4 (IPv4) ofereceu uma estratégia de endereçamento que, embora fosse escalonável durante certo tempo, resultou em uma alocação ineficiente dos endereços. Os endereços classe A e B representam 75% do espaço de endereços do IPv4, embora menos de 17.000 organizações possam receber um número de rede classes A ou B. Alocação de Ipv4 Os endereços de rede de classe C são muito mais numerosos do que os de classes A e B, embora representem somente 12,5% dos 4 bilhões de possíveis endereços IP. Infelizmente, os endereços de classe C estão limitados a 254 hosts utilizáveis. Isso não atende ás necessidades de organizações maiores, que não podem adquirir um endereço de classes A ou B. Mesmo se houvesse mais endereços classe A, B ou C, um excesso de endereços de rede faria com que os roteadores da Internet viessem a parar sob o peso do enorme tamanho das tabelas de roteamento necessárias para armazenar as rotas para alcançar cada rede. Já em 1992, a IETF (Internet Engineering Task Force – Força-Tarefa de Engenharia da Internet) identificou as duas seguintes preocupações específicas: • Esgotamento dos endereços de rede IPv4 restantes, não atribuídos. Naquela época, o espaço de classe B estava prestes a se esgotar. • Ocorreu um crescimento forte e rápido do tamanho das tabelas de roteamento da Internet quando mais redes de classe C ficaram on-line. A inundação de novas informações de rede daí resultante ameaçou a capacidade dos roteadores de Internet de reagir de maneira eficiente. Durante as duas últimas décadas, foram desenvolvidas diversas extensões do IPv4. Essas extensões foram projetadas especificamente para melhorar a eficiência de utilização do espaço de endereços de 32 bits. Duas das mais importantes extensões são as máscaras de sub-rede e o roteamento interdomínios classes (CIDR), que serão discutidos em maior profundidade em lições posteriores.
    • Cisco CCNA 3.1 298 Nesse meio tempo, foi definida e desenvolvida uma versão ainda mais extensível e escalonável do IP, o IP versão 6 (IPv6). Ipv4 Ipv6 O IPv6 usa 128 bits em vez dos 32 bits usados atualmente no IPv4. O IPv6 usa números hexadecimais para representar os 128 bits. Ele oferece 640 sextilhões de endereços. Essa versão do IP deve oferecer endereços suficientes para as futuras necessidades das comunicações. A figura abaixo mostra um endereço IPv4 e um endereço IPv6.
    • Cisco CCNA 3.1 299 Endereços IPv4 têm 32 bits de comprimento, são escritos em formato decimal e separados por pontos. Endereços IPv6 têm 128 bits de comprimento e são utilizados para identificar interfaces individuais ou conjuntos de interfaces. Endereços IPv6 são atribuídos a interfaces, não aos nós. Uma vez que cada interface pertence a um único nó, qualquer endereço unicast atribuído às interfaces de um nó podem ser utilizadas como um identificador deste nó. Endereços IPv6 são escritos em formato hexadecimal e separados por dois pontos. Os campos do IPv6 têm 16 bits de comprimento. Para facilitar a leitura dos endereços, os zeros à esquerda podem ser omitidos em todos os campos. O campo :0003: é escrito como :3:. A representação abreviada do IPv6 para os 128 bits usa oito números de 16 bits, mostrados como quatro dígitos hexadecimais. Após anos de planejamento e desenvolvimento, o IPv6 está sendo implementado lentamente em algumas redes. No futuro, o IPv6 pode vir a substituir o IPv4 como protocolo Internet dominante.
    • Cisco CCNA 3.1 300 9.3 Obter um endereço IP 9.3.1 Obtendo um endereço da Internet Um host de rede precisa obter um endereço único para operar na Internet. O endereço físico ou MAC de um host só é significativo localmente, identificando o host dentro da rede local. Como esse endereço é de camada 2, o roteador não o utiliza para encaminhamento fora da LAN. Os endereços IP são os endereços mais usados para as comunicações na Internet. Esse protocolo é um esquema de endereçamento hierárquico que permite que os endereços individuais sejam associados entre si e tratados como grupos. Esses grupos de endereços permitem uma transferência eficiente de dados através da Internet. Os administradores de rede usam dois métodos para atribuir endereços IP. Esses métodos são: estático e dinâmico. Mais adiante nesta lição, abordaremos o endereçamento estático e três variações do endereçamento dinâmico. Independentemente do esquema de endereçamento escolhido, duas interfaces não podem ter o mesmo endereço IP. Dois hosts que tenham o mesmo endereço IP poderiam gerar um conflito, fazendo com que os dois hosts envolvidos não funcionassem corretamente. Conforme mostrado na figura abaixo, o host tem endereço físico, atribuído à placa de interface de rede que permite a conexão ao meio físico. Atribuição de Endereços IP
    • Cisco CCNA 3.1 301 9.3.2 Atribuição estática do endereço IP A atribuição estática funciona bem em redes pequenas, que muda pouco. O administrador do sistema atribui e rastreia manualmente os endereços IP de cada computador, impressora ou servidor da intranet. Uma boa manutenção de registros é essencial para evitar problemas relacionados a endereços IP duplicados. Isso só é possível quando há uma quantidade pequena de dispositivos para rastrear. Os servidores devem receber um endereço IP estático, para que as estações de trabalho e os outros dispositivos sempre saibam como acessar os serviços necessários. Imagine a dificuldade que seria telefonar para uma empresa que mudasse de número de telefone todos os dias. Outros dispositivos que devem receber endereços IP estáticos são as impressoras de rede, os servidores de aplicativos e os roteadores.
    • Cisco CCNA 3.1 302 9.3.3 Atribuição de endereço IP utilizando RARP O RARP (Reverse Address Resolution Protocol – Protocolo de Resolução Reversa de Endereços) associa um endereço MAC conhecido a um endereço IP desconhecido. Essa associação permite que os dispositivos de rede encapsulem os dados antes de enviá-los à rede. Um dispositivo de rede, como uma estação de trabalho sem disco, por exemplo, pode conhecer seu endereço MAC, mas não seu endereço IP. O RARP permite que o dispositivo faça uma solicitação para saber seu endereço IP. Os dispositivos que usam o RARP exigem que haja um servidor RARP presente na rede para responder às solicitações RARP. Suponha uma situação em que um dispositivo de origem queira enviar dados a outro dispositivo. Nesse caso, o dispositivo de origem sabe seu próprio endereço MAC, mas não consegue localizar seu endereço IP na tabela ARP. O dispositivo de origem deve incluir tanto seu endereço MAC quanto seu endereço IP para que o dispositivo de destino recupere os dados, passe-os às camadas superiores do modelo OSI e responda ao dispositivo de origem. Assim, a origem inicia um processo chamado de solicitação RARP. Essa solicitação ajuda o dispositivo de origem a detectar seu próprio endereço IP. As solicitações RARP são enviadas por broadcast para a LAN e são respondidas pelo servidor RARP, que geralmente é um roteador. O RARP usa o mesmo formato de pacote do ARP, mas, em uma solicitação RARP, os cabeçalhos MAC e o "código de operação"(operation code) são diferentes dos de uma solicitação ARP. Figuras 1 e 2. Estrutura de Mensagem ARP/RARP
    • Cisco CCNA 3.1 303 Descrição de Campos de Mensagens ARP/RAP O formato do pacote RARP contém espaços para os endereços MAC dos dispositivos de destino e de origem. O campo de endereço IP de origem é vazio. O broadcast vai para todos os dispositivos da rede. Portanto, o endereço MAC de destino será definido como FF:FF:FF:FF:FF:FF. As estações de trabalho que executam o RARP têm códigos na ROM que as instruem a iniciar o processo RARP. As figuras abaixo ilustram o processo RARP em um layout passo a passo. RARP: Segmento de Rede
    • Cisco CCNA 3.1 304 RARP: Geração de solicitação RARP: Transmissão de solicitação
    • Cisco CCNA 3.1 305 RARP: Verificação de solicitação RARP: Geração de Resposta
    • Cisco CCNA 3.1 306 RARP: Transmissão de Resposta RARP: Avaliação de Resposta RARP: Armazenamento de Dados
    • Cisco CCNA 3.1 307 9.3.4 Atribuição de endereço IP BOOTP O protocolo bootstrap (BOOTP) opera em um ambiente cliente-servidor e exige a troca de apenas um pacote para obter informações de IP. Estrutura de mensagens BOOTP Descrição de campos da Estrutura de Mensagens BOOTP Entretanto, diferentemente do RARP, os pacotes BOOTP podem incluir o endereço IP, assim como o endereço de um roteador, de um servidor e informações específicas do fabricante.
    • Cisco CCNA 3.1 308 Um problema do BOOTP, contudo, é não ter sido projetado para fornecer atribuição dinâmica de endereços. Com o BOOTP, um administrador de rede cria um arquivo de configuração que especifica os parâmetros de cada dispositivo. O administrador precisa adicionar hosts e manter o banco de dados do BOOTP. Mesmo que os endereços sejam atribuídos dinamicamente, continua havendo uma relação de um para um entre a quantidade de endereços IP e a quantidade de hosts. Isso significa que para cada host da rede deve haver um perfil BOOTP com uma atribuição de endereço IP dentro dele. Não pode haver dois perfis com o mesmo endereço IP. Esses perfis poderiam ser usados ao mesmo tempo, o que corresponderia a dois hosts com o mesmo endereço IP. Um dispositivo usa o BOOTP para obter um endereço IP durante a inicialização. O BOOTP usa o UDP para transportar as mensagens. A mensagem UDP é encapsulada em um pacote IP. O computador usa o BOOTP para enviar um pacote IP de broadcast usando um endereço IP de destino somente com 1s, equivalente a 255.255.255.255 na notação decimal com pontos. O servidor BOOTP recebe o broadcast e depois o envia de volta. O cliente recebe um quadro e verifica o endereço MAC. Se o cliente encontrar seu próprio endereço MAC no campo do endereço de destino e um broadcast no campo de destino do IP, ele obtém e armazena o endereço IP e as outras informações fornecidas pela mensagem de resposta do BOOTP. As figuras abaixo, mostram esse processo em uma descrição passo a passo. BOOTP: Segmento de Rede
    • Cisco CCNA 3.1 309 BOOTP: Criação de Solicitação Transmissão de Solicitação BOOTP
    • Cisco CCNA 3.1 310 Transmissão de Solicitação BOOTP
    • Cisco CCNA 3.1 311 Criação de Resposta
    • Cisco CCNA 3.1 312 BOOTP: Transmissão de Resposta BOOTP: Resposta Verificada
    • Cisco CCNA 3.1 313 BOOTP: Armazenamento de Dados
    • Cisco CCNA 3.1 314 9.3.5 Gerenciamento de endereços IP com uso de DHCP O DHCP (Dynamic Host Configuration Protocol) é o sucessor do BOOTP. Diferentemente do BOOTP, o DHCP permite que um host obtenha um endereço IP dinamicamente sem que o administrador da rede tenha que configurar um perfil individual para cada dispositivo. Tudo o que é necessário ao usar o DHCP é um intervalo de endereços IP definido IP em um servidor DHCP. À medida que ficam online, os hosts entram em contato com o servidor DHCP e solicitam um endereço. O servidor DHCP escolhe um endereço e o concede a esse host. Com o DHCP, toda a configuração de rede de um computador pode ser obtida em uma única mensagem. Estrutura de Mensagens DHCP Descrição de Campos da Estrutura da Mensagem DHCP
    • Cisco CCNA 3.1 315 Isso inclui todos os dados fornecidos pela mensagem BOOTP mais um endereço IP concedido e uma máscara de sub-rede. A principal vantagem do DHCP em relação ao BOOTP é permitir a mobilidade dos usuários. Essa mobilidade possibilita que os usuários mudem as conexões da rede de um local para outro. Assim, deixa de ser necessário manter um perfil fixo para cada dispositivo conectado à rede, como acontecia com o sistema BOOTP. A importância desse avanço do DHCP é a sua capacidade de conceder um endereço IP a um dispositivo e, em seguida, recuperar esse endereço para outro usuário, depois que o primeiro usuário o tiver liberado. Isso significa que o DHCP oferece uma relação de endereços IP de um para vários e que um endereço está disponível para qualquer um que se conectar à rede. Uma descrição passo-a- passo do processo é apresentado nas figuras abaixo. DHCP: Host Inicializa Descrição de Campos da Estrutura da Mensagem DHCP
    • Cisco CCNA 3.1 316 DHCP: Solicitação Transmitida DHCP: Solicitação Avaliada
    • Cisco CCNA 3.1 317 DHCP: Oferta DHCP Preparada DHCP: Oferta DHCP Transmitida
    • Cisco CCNA 3.1 318 DHCP: Oferta DHCP Avaliada DHCP: Oferta DHCP Transmitida
    • Cisco CCNA 3.1 319 DHCP: Oferta DHCP Avaliada DHCP: Oferta DHCP Gerada
    • Cisco CCNA 3.1 320 DHCP: Oferta DHCP Transmitida DHCP: DHCPACK Criado
    • Cisco CCNA 3.1 321 DHCP: DHCPACK Transmitido DHCP: DHCPACK Avaliado
    • Cisco CCNA 3.1 322 DHCP: DHCPACK Criado
    • Cisco CCNA 3.1 323 9.3.6 Problemas de resolução de endereços Um dos principais problemas dos sistemas em rede é como se comunicar com os outros dispositivos da rede.
    • Cisco CCNA 3.1 324
    • Cisco CCNA 3.1 325 Nas comunicações por TCP/IP, um datagrama em uma rede local deve conter um endereço MAC de destino e um endereço IP de destino. Esses endereços devem estar corretos e coincidir com os endereços MAC e IP de origem do dispositivo host. Se não coincidirem, o datagrama será rejeitado pelo host de destino. As comunicações dentro de um segmento de LAN requerem dois endereços. Deve haver uma maneira de mapear automaticamente os endereços IP para endereços MAC. O usuário gastaria muito tempo se tivesse que criar os mapas manualmente. O TCP/IP tem um protocolo chamado ARP (Address Resolution Protocol – Protocolo de Resolução de Endereços), que pode obter automaticamente os endereços MAC para transmissão local. Surgem outros problemas quando os dados são enviados para fora da rede local.
    • Cisco CCNA 3.1 326 As comunicações entre dois segmentos de LAN têm uma tarefa adicional. Tanto o endereço IP quanto o endereço MAC são necessários para o host de destino e para o dispositivo de roteamento intermediário. O TCP/IP tem uma variação do ARP chamada Proxy ARP, que fornece o endereço MAC de um dispositivo intermediário para transmissão fora da LAN para outro segmento da rede.
    • Cisco CCNA 3.1 327 9.3.7 Protocolo de resolução de endereços (ARP) Em redes TCP/IP , um pacote de dados deve conter tanto um endereço MAC de destino quanto um endereço IP de destino. Se um dos dois estiver faltando, os dados não passarão da camada 3 para as camadas superiores. Dessa forma, os endereços MAC e os endereços IP agem como verificadores e balanceadores entre si. Depois de determinarem os endereços IP dos dispositivos de destino, os dispositivos podem adicionar os endereços MAC de destino aos pacotes de dados. Alguns dispositivos mantêm tabelas que contêm os endereços MAC e os endereços IP de outros dispositivos conectados à mesma LAN. Elas são chamadas de tabelas ARP. As tabelas ARP são armazenadas na memória RAM, onde as informações sobre cada um dos dispositivos são mantidas automaticamente em cache. É muito raro que o usuário tenha que criar uma entrada na tabela ARP manualmente. Cada dispositivo em uma rede mantém sua própria tabela ARP. Quando um dispositivo da rede quer enviar dados através dela, ele usa as informações fornecidas pela tabela ARP. Quando uma origem determina o endereço IP de um destino, ela consulta a tabela ARP a fim de localizar o endereço MAC do destino. Se a origem localizar uma entrada na sua tabela (endereço IP de destino para o endereço MAC de destino), ela associa o endereço IP ao endereço MAC e o utiliza para encapsular os dados. Então, o pacote de dados é enviado pelos meios físicos da rede para ser capturado pelo dispositivo de destino. Os dispositivos podem usar duas formas de obter os endereços MAC que eles precisam para adicionar aos dados encapsulados.
    • Cisco CCNA 3.1 328
    • Cisco CCNA 3.1 329
    • Cisco CCNA 3.1 330 A primeira maneira é monitorar o tráfego que ocorre no segmento local da rede. Todas as estações de uma rede Ethernet analisarão todo o tráfego para determinar se os dados são para elas. Parte desse processo é gravar os endereços IP e MAC de origem do datagrama em uma tabela ARP. Conforme os dados são transmitidos pela rede, os pares de endereços preenchem a tabela ARP. A outra maneira de obter um par de endereços para transmissão dos dados é enviar uma solicitação ARP broadcast. O processo ARP Solicitação ARP
    • Cisco CCNA 3.1 331
    • Cisco CCNA 3.1 332 O computador que requer um par de endereços IP e MAC envia uma solicitação ARP broadcast. Todos os outros dispositivos da rede local analisam essa solicitação. Se um dos dispositivos locais corresponder ao endereço IP da solicitação, ele devolve uma resposta ARP que contém seu par IP-MAC. Se o endereço IP for para a rede local e o computador não existir ou estiver desligado, não haverá resposta à solicitação ARP. Nesta situação, o dispositivo de origem relata um erro. Se a solicitação for para uma rede com outro IP, há outro processo que pode ser usado. Os roteadores não encaminham pacotes de broadcast. Se este recurso estiver ativado, o roteador realiza um Proxy ARP.
    • Cisco CCNA 3.1 333
    • Cisco CCNA 3.1 334 O Proxy ARP é uma variação do protocolo ARP. Nesta variação, um roteador envia ao host solicitante uma resposta ARP com o endereço MAC da interface na qual a solicitação foi recebida. O roteador responde com os endereços MAC às solicitações cujo endereço IP não esteja no intervalo de endereços da sub-rede local. Outro método para enviar dados ao endereço de um dispositivo que está em outro segmento da rede é configurar um gateway padrão.
    • Cisco CCNA 3.1 335 O gateway padrão é uma opção de host em que o endereço IP da interface do roteador é armazenado na configuração de rede do host. O host de origem compara o endereço IP de destino com o seu próprio endereço IP para determinar se os dois endereços IP estão localizados no mesmo segmento. Se o host receptor não estiver no mesmo segmento, o host de origem envia os dados usando o endereço IP real do destino e o endereço MAC do roteador. O endereço MAC do roteador foi obtido da tabela ARP, usando o endereço IP desse roteador. Se o gateway padrão no host e o recurso de Proxy ARP no roteador não estiverem configurados, nenhum tráfego poderá sair da rede local. Um dos dois precisa estar configurado para que haja uma conexão para fora da rede local.
    • Cisco CCNA 3.1 336 Resumo Capítulo 09 Deve ter sido obtido um entendimento dos principais conceitos a seguir: texto • Por que a Internet foi desenvolvida e como o TCP/IP situa-se no projeto da Internet. • As 4 camadas do modelo TCP/IP. • As funções de cada camada do modelo TCP/IP. • O modelo OSI comparado ao modelo TCP/IP. • O endereçamento IP dá a cada dispositivo na Internet um identificador exclusivo. • As classes de endereços IP são divisões lógicas do espaço de endereços usadas para atender às necessidades de vários tamanhos de redes. • As sub-redes são usadas para dividir uma rede em redes menores. • Os endereços reservados desempenham um papel especial no endereçamento IP e não podem ser usados para nenhuma outra finalidade. • Os endereços privados não podem ser roteados na Internet pública. • A função de uma máscara de sub-rede é mapear as partes de um endereço IP que correspondem à rede e ao host. • Algum dia, o IPv4 estará totalmente obsoleto e a versão usada comumente será a IPv6. • Um computador precisa ter um endereço IP para se comunicar na Internet. • Um endereço IP pode ser configurado estaticamente ou dinamicamente. • Um endereço IP dinâmico pode ser alocado usando-se o RARP, BOOTP ou DHCP. • O DHCP fornece mais informações a um cliente do que o BOOTP. • O DHCP permite que os computadores sejam móveis, possibilitando a conexão a várias redes diferentes. • O ARP e o Proxy ARP podem ser usados para solucionar problemas de resolução de endereços.
    • Cisco CCNA 3.1 337 Capítulo 10: Conceitos Básicos de Roteamento e de Sub-redes
    • Cisco CCNA 3.1 338
    • Cisco CCNA 3.1 339 Visão Geral Capítulo 10 Internet Protocol (IP) é o principal protocolo roteado da Internet. O endereçamento IP permite o roteamento de pacotes da origem ao destino usando o melhor caminho disponível. A propagação de pacotes, as alterações de encapsulamento e os protocolos orientados para conexões e sem conexão também são críticos para assegurar a transmissão correta dos dados ao seu destino. Este módulo fornecerá uma visão geral de cada um desses tópicos. A diferença entre protocolos de roteamento e roteados é uma fonte comum de confusão para quem está aprendendo sobre redes. Essas duas palavras são parecidas, mas seu sentido é bastante diferente. Este módulo também apresenta protocolos de roteamento que permitem que os roteadores construam tabelas das quais pode-se determinar o melhor caminho para um host na Internet. Não há duas organizações idênticas no mundo. Na verdade, nem todas as organizações podem enquadrar-se no sistema de três classes de endereços A, B, e C. No entanto, há flexibilidade no sistema de endereçamento por classes e esta flexibilidade chama-se divisão em sub-redes. A divisão em sub-redes permite que os administradores de rede determinem o tamanho dos componentes da rede com a qual trabalharão. Uma vez determinado como segmentar a rede, eles podem usar a máscara de sub-rede para determinar em que parte da rede está cada dispositivo. Ao concluírem este módulo, os alunos deverão ser capazes de: • Descrever protocolos roteados (roteáveis). • Relacionar as etapas do encapsulamento de dados em uma internetwork à medida que esses dados são roteados para um ou mais dispositivos da camada 3. • Descrever os tipos de entrega sem conexão e orientada a conexão. • Citar os campos de pacotes IP. • Descrever o processo de roteamento. • Comparar e diferenciar tipos de protocolos de roteamento. • Relacionar e descrever várias métricas usadas por protocolos de roteamento. • Relacionar várias utilizações para a divisão em sub-redes. • Determinar a máscara de sub-rede para uma determinada situação. • Utilizar uma máscara de sub-rede para determinar a ID da sub-rede.
    • Cisco CCNA 3.1 340 10.1 Protocolo roteado 10.1.1 Protocolos roteáveis e roteados Um protocolo é um conjunto de regras que determina como os computadores comunicam-se uns com os outros através de redes. Os computadores comunicam-se uns com os outros trocando mensagens de dados. Para aceitar e atuar com base nestas mensagens, devem ter definições para sua interpretação. Os exemplos de mensagens incluem aquelas que estabelecem conexão com uma máquina remota, mensagens de e-mail e arquivos transferidos via rede. Um protocolo descreve: • O formato que deve ser adotado por uma mensagem; • O modo como os computadores devem trocar uma mensagem no contexto de uma atividade em particular; Um protocolo roteado permite que o roteador encaminhe dados entre nós de diferentes redes. Endereço IP
    • Cisco CCNA 3.1 341 Para um protocolo ser roteável, ele deve propiciar a capacidade de atribuir um número de rede e um número de host a cada dispositivo individual. Alguns protocolos, como o IPX, exigem apenas um número de rede, porque usam um endereço MAC de host para o número do host. Outros protocolos, como o IP, exigem um endereço completo, que consiste em uma parte da rede e uma parte do host. Esses protocolos também exigem uma máscara de rede para diferenciar os dois números. O endereço de rede é obtido pela operação AND do endereço com a máscara de rede. A razão para a utilização de uma máscara de rede é permitir que grupos de endereços IP seqüenciais sejam tratados como uma única unidade. Agrupamento de Endereços IP Se esse agrupamento não fosse permitido, cada host precisaria ser mapeado individualmente para o roteamento. Isto seria impossível, porque de acordo com o Internet Software Consortium existem atualmente aproximadamente 233.101.500 hosts na Internet.
    • Cisco CCNA 3.1 342 10.1.2 IP como Protocolo roteado O Internet Protocol (IP) é a implementação mais utilizada de um esquema de endereçamento de rede hierárquico. Protocolos roteados O IP é um protocolo sem conexão, de melhor entrega possível e, não confiável. O termo "sem conexão" significa que não há conexão com circuito dedicado estabelecida antes da transmissão, como ocorre quando é feita uma ligação telefônica. O IP determina a rota mais eficiente para os dados com base no protocolo de roteamento. Os termos "não confiável" e "melhor entrega" não implicam que o sistema não seja confiável e que não funcione bem, mas que o IP não verifica se os dados chegaram ao destino. Se necessário, a verificação é controlada pelos protocolos da camada superior. À medida que as informações fluem pelas camadas do modelo OSI, os dados são processados em cada camada. Na camada de rede, os dados são encapsulados em pacotes (também conhecidos como datagramas). Encapsulamento de Dados
    • Cisco CCNA 3.1 343 O IP determina o conteúdo do cabeçalho do pacote IP, que inclui informações sobre endereçamento e outras informações de controle, mas não trata dos dados em si. O IP aceita quaisquer dados que lhe forem passados das camadas superiores. Cabeçalho do Pacote IP
    • Cisco CCNA 3.1 344 10.1.3 Propagação de pacotes e comutação em um roteador À medida que um pacote trafega em uma internetwork até seu destino final, os cabeçalhos e trailers de quadros da camada 2 são removidos e substituídos em cada dispositivo da camada 3. Dispositivos da Camada de Rede no Fluxo de Dados Isso ocorre porque as unidades de dados, da camada 2 (quadros) destinam-se ao endereçamento local. As unidades de dados, da camada 3 (pacotes) destinam-se ao endereçamento fim-a-fim. Descarte do Protocolo do Roteador
    • Cisco CCNA 3.1 345
    • Cisco CCNA 3.1 346
    • Cisco CCNA 3.1 347 Os quadros Ethernet foram criados para operar em um domínio de broadcast usando o endereço MAC incorporado ao dispositivo físico. Outros tipos de quadros da camada 2 incluem links seriais do Point-to-Point Protocol (PPP) e conexões Frame Relay, que usam diferentes esquemas de endereçamento da camada 2. Independentemente do tipo de endereçamento da camada 2 utilizado, os quadros foram criados para operar em um domínio de broadcast da camada 2; à medida que os dados atravessam um dispositivo da camada 3 , as informações da camada 2 mudam. À medida que um quadro é recebido em um roteador ou em uma interface de roteador, o endereço MAC de destino é extraído. O endereço é analisado para verificar se o quadro é endereçado diretamente à interface do roteador ou se é um broadcast. Em qualquer um desses dois casos, o quadro é aceito. Caso contrário, é descartado, já que se destina a outro dispositivo no domínio de colisão. O quadro aceito tem as informações de Cyclic Redundancy Check (CRC) extraídas do trailer do quadro e calculadas, para verificar se os dados do quadro não contêm erro. Se a verificação falhar, o quadro é descartado. Se a verificação for válida, o cabeçalho e o trailer do quadro são removidos e o pacote passa à camada 3. Ele é, então, analisado para verificar se realmente destina-se ao roteador ou se deve ser roteado para outro dispositivo da internetwork. Se o endereço IP de destino coincidir com uma das portas do roteador, o cabeçalho da camada 3 é removido e os dados passam à camada 4. Se o pacote for roteado, o endereço IP de destino será comparado à tabela de roteamento. Se houver coincidência ou se houver uma rota padrão, o pacote será enviado à interface especificada na instrução da tabela de roteamento coincidente. Quando o pacote é comutado para a interface de saída, um novo valor de CRC é adicionado como trailer de quadro e o cabeçalho de quadro correto é adicionado ao pacote. O quadro é, então, transmitido ao próximo domínio de broadcast em seu trajeto até o destino final.
    • Cisco CCNA 3.1 348 10.1.4 Internet Protocol (IP) Dois tipos de serviços de entrega são: sem conexão e orientados a conexões. Esses dois serviços fornecem a entrega real de dados fim-a-fim em uma internetwork. A maioria dos serviços de rede usa um sistema de entrega sem conexão. Serviços de rede sem conexão Pacotes diferentes podem seguir caminhos diferentes para atravessar a rede, mas são reagrupados após chegarem ao destino. Em um sistema sem conexão, o destino não é contatado antes de o pacote ser enviado. Uma boa comparação para um sistema sem conexão é o sistema postal. O destinatário não é contatado antes do envio para verificar se aceitará a carta. Além disso, o remetente nunca sabe se a carta chegou ao destino. Em sistemas orientados a conexão, é estabelecida uma conexão entre o remetente e o destinatário antes que qualquer dado seja transferido. Um exemplo de rede orientada a conexão é o sistema telefônico. O autor da chamada faz uma ligação, é estabelecida uma conexão e ocorre a comunicação. Serviços orientados à conexão
    • Cisco CCNA 3.1 349 Os processos de rede sem conexão são normalmente conhecidos como comutados por pacote. À medida que os pacotes trafegam da origem ao destino, podem ser comutados para caminhos diferentes e, possivelmente, chegar fora de ordem. Os dispositivos determinam os caminhos para cada pacote com base em diversos critérios. Alguns deles, como por exemplo, larguras de banda disponível, podem diferir de pacote para pacote. Os processos de rede orientados a conexão são freqüentemente conhecidos como comutados por circuito. Primeiramente é estabelecida uma conexão com o receptor e, em seguida, começa a transferência de dados. Todos os pacotes trafegam seqüencialmente pelo mesmo circuito físico ou virtual. A Internet é uma gigantesca rede não orientada a conexão (connectionless) em que a maioria dos pacotes enviados são manipulados pelo IP. O TCP adiciona a camada 4, serviços de confiabilidade orientados a conexão, ao IP.
    • Cisco CCNA 3.1 350 10.1.5 Anatomia de um pacote IP Os pacotes IP consistem dos dados das camadas superiores somados a um cabeçalho IP. O cabeçalho IP consiste de: • Versão – Especifica o formato do cabeçalho do pacote IP. O campo versão (4-bits) contém o valor 4 se este for um pacote IPv4 e 6 se este for um pacote IPv6. Entretanto, este campo não é utilizado para distinguir pacotes IPv4 e IPv6. O campo "Tipo de protocolo" no cabeçalho da camada 2 é usado para isto. • Tamanho do cabeçalho IP (HLEN) – Indica o tamanho do cabeçalho do datagrama em palavras de 32 bits. Esse é o tamanho total de todas as informações do cabeçalho, correspondentes aos dois campos de cabeçalho de tamanhos variáveis. • Tipo de serviço(TOS) – Especifica o nível de importância atribuído por um determinado protocolo de camada superior; oito bits. • Extensão total – Especifica o tamanho total do pacote em bytes, inclusive dados e cabeçalho; 16 bits. Para obter o tamanho do payload dos dados, subtraia o HLEN do tamanho total. • Identificação – Contém um número inteiro que identifica o datagrama atual; 16 bits. Esse é o número de seqüência. • Flags – Um campo de três bits em que os dois bits de ordem inferior controlam a fragmentação. Um bit especifica se o pacote pode ser fragmentado; o outro, se este é o último fragmento de uma série de pacotes fragmentados. • Deslocamento de fragmento – Usado para ajudar a juntar fragmentos de datagramas; 13 bits. Este campo permite que o anterior termine em um limite de 16 bits. • Time-to-live (TTL) – Um campo que especifica o número de saltos pelos quais um pacote pode trafegar. Este número diminui em um à medida que o pacote trafega por um roteador. Quando o contador chega a zero, o pacote é descartado. Isso impede que os pacotes permaneçam infinitamente em loop. • Protocol – Indica que protocolo de camada superior, por exemplo, TCP ou UDP, receberá os pacotes de entrada após a conclusão do processamento IP; oito bits. • Checksum do cabeçalho – Ajuda a assegurar a integridade do cabeçalho IP; 16 bits. • Endereço de origem – Especifica o endereço IP do nó de envio; 32 bits. • Endereço de destino – Especifica o endereço IP do nó de recebimento; 32 bits. • Opções – Permite que o IP suporte várias opções, como segurança; tamanho variável. • Enchimento – Zeros adicionais são adicionados a este campo para assegurar que o cabeçalho IP seja sempre um múltiplo de 32 bits. • Dados – Contêm informações da camada superior; tamanho variável, máximo de 64 Kb.
    • Cisco CCNA 3.1 351 Embora os endereços IP de origem e de destino sejam importantes, os outros campos do cabeçalho têm feito do IP um protocolo bastante flexível. Os campos do cabeçalho apresentam informações sobre os endereços da origem e destino do pacote e geralmente indicam o tamanho da mensagem de dados. A informação de roteamento da mensagem também está contida no cabeçalho do IP, a qual pode longa e complexa. Campos da Camada de Rede
    • Cisco CCNA 3.1 352 10.2 Protocolos de roteamento IP 10.2.1 Visão geral do roteamento O roteamento é uma função OSI da camada 3. A camada de Rede Roteamento é um esquema hierárquico de organização que permite o agrupamento de endereços individuais. Esses endereços individuais são tratados como uma única unidade até que o endereço de destino seja necessário para a entrega final dos dados. O roteamento é o processo de localizar o caminho mais eficiente entre dois dispositivos. O dispositivo primário que executa o processo de roteamento é o roteador. Roteamento
    • Cisco CCNA 3.1 353 Veja a seguir as duas funções-chave de um roteador: • Os roteadores devem manter tabelas de roteamento e verificar se os outros roteadores conhecem as alterações na topologia da rede. Esta função é executada com o uso de um protocolo de roteamento para comunicar informações de rede a outros roteadores. • Quando os pacotes chegam a uma interface, o roteador deve usar a tabela de roteamento para determinar para onde enviá-los. O roteador comuta os pacotes para a interface apropriada, adiciona as informações de enquadramento necessárias à interface e transmite o quadro. Um roteador é um dispositivo de camada de rede que usa uma ou mais métricas para determinar o caminho ideal pelo qual o tráfego da rede deve ser encaminhado. Métricas de roteamento são valores usados para determinar a vantagem de uma rota sobre a outra. Os protocolos de roteamento usam várias combinações de métricas para determinar o melhor caminho para os dados. Métrica de Roteamento
    • Cisco CCNA 3.1 354 Os roteadores interconectam segmentos de rede ou redes inteiras. Eles passam quadros de dados entre as redes com base nas informações da camada 3. Os roteadores tomam decisões lógicas relativas ao melhor caminho para a entrega de dados. Em seguida, direcionam os pacotes para a porta de saída apropriada, para que sejam encapsulados para transmissão. O processo de encapsulamento e de desencapsulamento ocorre cada vez que um pacote trafega através de um roteador. O roteador precisa desemcapsular o quadro de camada 2 para ter acesso e examinar os endereços da camada 3. Como mostra a figura abaixo, o processo completo de envio de dados de um dispositivo ao outro envolve o processo de encapsulamento e desencapsulamento em todas as setes camadas OSI. Encapsulamento de Dados
    • Cisco CCNA 3.1 355 Este processo fragmenta o fluxo de dados em segmentos, adiciona os cabeçalhos e trailers apropriados e transmite os dados. O processo de desencapsulamento é o oposto, removendo os cabeçalhos e trailers e recombinando os dados em um fluxo contínuo. Este curso enfoca o protocolo roteável mais comum, o Internet Protocol (IP). Outros exemplos de protocolos roteáveis incluem IPX/SPX e AppleTalk. Esses protocolos fornecem suportem à camada 3. Os protocolos não-roteáveis não fornecem esse suporte. O protocolo não-roteável mais comum é o NetBEUI. O NetBEUI é um protocolo pequeno, rápido e eficiente, cuja entrega de quadros limita-se a um segmento. 10.2.2 Visão geral do roteamento
    • Cisco CCNA 3.1 356 É freqüente a comparação entre roteamento e comutação. Roteamento e comutação podem, aparentemente, aos olhos de um observador inexperiente, executar a mesma função. A principal diferença é que a comutação ocorre na camada 2, a camada de enlace do modelo OSI e o roteamento ocorre na camada 3. Esta distinção significa que roteamento e comutação usam informações diferentes no processo de mover dados da origem até o destino. A relação entre comutação e roteamento é comparável àquela das ligações telefônicas locais e de longa distância. Quando é feita uma ligação telefônica para um número no mesmo código de área, ela é tratada por um comutador local. No entanto, esse comutador pode rastrear apenas seus próprios números locais. Ele não pode lidar com todos os números de telefone do mundo. Quando o comutador recebe uma solicitação de ligação fora do seu código de área, passa essa ligação ao comutador de nível mais alto, que reconhece códigos de área. Esse comutador, em seguida, passa a ligação, de modo que ela chegue ao comutador local relativo ao código de área discado. Comutação e Roteamento da Camada 2 O roteador executa uma função parecida com aquela do comutador de nível mais alto no exemplo do telefone.
    • Cisco CCNA 3.1 357 A figura abaixo mostra as tabelas ARP para o endereços MAC da camada 2 e as tabelas de roteamento para o endereços IP da camada 3. Tabelas ARP e Roteamento Cada interface de computador e de roteador mantém uma tabela ARP para a comunicação da camada 2. A tabela ARP tem efeito somente sobre o domínio de broadcast ao qual está conectada. O roteador também mantém uma tabela de roteamento que lhe permite rotear dados para fora do domínio de broadcast. Cada entrada na tabela ARP contém um par de endereços IP-MAC. As tabelas de roteamento também rastreiam como a rota foi aprendida (nesse caso, conectada diretamente [C] ou aprendida por RIP [R]), o endereço IP da rede para redes alcançáveis, a contagem de saltos ou a distância até essas redes e a interface à qual os dados devem ser enviados para chegar à rede de destino. O switch de camada 2 monta a sua tabela de encaminhamento (forwarding table) utilizando endereços MAC. Quando um host tem dados para um endereço IP não-local, envia o quadro ao roteador mais próximo. O host usa o endereço MAC do roteador como o endereço MAC de destino. Um switch conecta segmentos pertencentes à mesma rede ou sub-rede lógica. Para hosts não locais, o switch encaminha o quadro para o roteador com base no endereço MAC do destino. O roteador examina o endereço de destino da camada 3 do pacote para decidir o
    • Cisco CCNA 3.1 358 encaminhamento. O Host X conhece o endereço IP do roteador porque a configuração IP do host inclui o endereço IP do gateway padrão (default gateway). Assim como o switch mantém uma tabela de endereços MAC conhecidos, o roteador mantém uma tabela de endereços IP conhecida como tabela de roteamento. Há uma diferença entre esses dois tipos de endereços. Os endereços MAC não são organizados logicamente, mas os endereços IP são organizados de forma hierárquica. Um switch pode lidar com um número razoável de endereços MAC não-organizados, pois só precisará pesquisar sua tabela para verificar aqueles endereços contidos no seu segmento. Os roteadores precisam lidar com um volume maior de endereços. Assim, eles precisam de um sistema de endereçamento organizado, capaz de agrupar endereços semelhantes e tratá-los como uma única unidade de rede até que os dados atinjam o segmento de destino. Se os endereços IP não fossem organizados, a Internet simplesmente não funcionaria. Um exemplo seria uma biblioteca com milhões de páginas individuais de material impresso colocadas em uma grande pilha. Esse material é inútil, pois é impossível localizar ali um documento individual. Se as páginas foram organizadas em livros com cada página individualmente identificada e se os livros também forem catalogados, fica muito mais fácil localizar e usar os dados. Outra diferença entre redes comutadas e roteadas é que as redes comutadas não bloqueiam os broadcasts. Comparação dos recursos de roteadores e switches Como resultado, os comutadores podem ficar sobrecarregados por tempestades de broadcast. Os roteadores bloqueiam broadcasts de rede local; assim, uma tempestade de broadcast afeta apenas o domínio de broadcast que a originou. Como os roteadores bloqueiam broadcasts, também fornecem um nível de segurança e de controle de largura de banda superior ao dos comutadores. 10.2.3 Roteado x roteamento
    • Cisco CCNA 3.1 359 Os protocolos usados na camada de rede que transferem dados de um host para outro através de um roteador são chamados protocolos roteados ou roteáveis. Os protocolos roteados transportam dados através de uma rede. Os protocolos de roteamento permitem que os roteadores escolham o melhor caminho para os dados, da origem ao destino. As funções de um protocolo roteado abrangem: • Incluir qualquer conjunto de protocolos de rede que forneça informações suficientes em seu endereço de camada de rede para que um roteador o encaminhe ao próximo dispositivo e, por fim, ao seu destino. • Definir o formato e o uso dos campos em um pacote. Protocolo Roteado O Internet Protocol (IP) e o Internetwork Packet Exchange (IPX) da Novell são exemplos de protocolos roteados. Outros exemplos incluem DECnet, AppleTalk, Banyan VINES e Xerox Network Systems (XNS). Os roteadores usam protocolos de roteamento para trocar tabelas de roteamento e compartilhar informações de roteamento. Em outras palavras, os protocolos de roteamento permitem que os roteadores direcionem protocolos roteados. As funções de um protocolo de roteamento incluem: • Fornecer processos para o compartilhamento de informações de rota. • Permitir que os roteadores comuniquem-se uns com os outros para atualizar e manter as tabelas de roteamento Protocolo de Roteamento Exemplos de protocolos de roteamento que suportam o protocolo roteado IP incluem Routing Information Protocol (RIP), Interior Gateway Routing Protocol (IGRP), Open Shortest Path First (OSPF), Border Gateway Protocol (BGP) e Enhanced IGRP (EIGRP). 10.2.4 Determinação do caminho
    • Cisco CCNA 3.1 360 A determinação do caminho ocorre na camada de rede. A determinação do caminho permite que um roteador compare o endereço de destino às rotas disponíveis em sua tabela de roteamento e selecione o melhor caminho. O roteador aprende essas rotas disponíveis através de roteamento estático ou dinâmico. As rotas configuradas manualmente pelo administrador da rede são estáticas. As rotas aprendidas por outros roteadores com o uso de um protocolo de roteamento são dinâmicas. Determinação do Caminho O roteador usa a determinação do caminho para decidir por que porta um pacote de entrada deve sair para continuar seu tráfego até o destino. Este processo também é conhecido como roteamento do pacote. Cada roteador que o pacote encontra em seu caminho é chamado salto. A contagem de saltos é a distância percorrida. A determinação do caminho pode ser comparada a uma pessoa que dirige um carro de um local a outro em uma cidade. O motorista tem um mapa que mostra as ruas que podem ser percorridas para chegar ao destino, exatamente como um roteador usa uma tabela de roteamento. O motorista trafega de um cruzamento ao outro, como o pacote trafega de um roteador ao outro em cada salto. Em qualquer cruzamento, o motorista pode orientar-se optando por virar à esquerda, à direita ou seguir em frente. Do mesmo modo, um roteador decide a que porta de saída o pacote deve ser enviado. Determinação do Caminho As decisões de um motorista são influenciadas por fatores como o volume de tráfego em uma estrada, seu limite de velocidade e número de pistas, se há pedágio nessa estrada e se ela está sempre aberta ao tráfego. Às vezes, é mais rápido adotar uma rota mais longa,
    • Cisco CCNA 3.1 361 usando uma rua menor, menos movimentada, em vez de uma estrada com tráfego muito intenso. De forma semelhante, os roteadores podem decidir com base em fatores como carga, largura de banda, atraso, custo e confiabilidade de um link de rede. O processo a seguir é usado durante uma determinação do caminho para cada pacote roteado: O Processo de Roteamento • O roteador compara o endereço IP do pacote que ele recebeu com as tabelas IP que tem. • A máscara da primeira entrada da tabela de roteamento é aplicada ao endereço de destino. • O destino com a máscara é comparado à tabela de roteamento. • Se houver correspondência, o pacote é encaminhado à porta associada a essa entrada da tabela. • Caso contrário, é verificada a próxima entrada da tabela. • Se o pacote não corresponder a nenhuma entrada da tabela, o roteador verifica se foi definida uma rota padrão. • Em caso afirmativo, o pacote é encaminhado à porta associada. Uma rota padrão é aquela configurada pelo administrador da rede como a rota a ser usada caso não haja correspondências na tabela de roteamento. • Se não houver rota padrão, o pacote é descartado. Normalmente, uma mensagem é enviada de volta ao dispositivo de envio, com a indicação de que o destino não pôde ser alcançado. 10.2.5 Tabelas de roteamento
    • Cisco CCNA 3.1 362 Os roteadores usam protocolos de roteamento para construir e manter tabelas de roteamento que contêm informações de rota. Isso auxilia o processo de determinação do caminho. Os protocolos de roteamento preenchem tabelas de roteamento com diversas informações de rota. Essas informações variam, dependendo do protocolo de roteamento usado. As tabelas de roteamento contêm as informações necessárias para encaminhar pacotes de dados através de redes conectadas. Os dispositivos de camada 3 interconectam domínios de broadcast ou LANs. É necessário um esquema de endereçamento hierárquico para que ocorra a transferência de dados. Os roteadores rastreiam informações importantes em suas tabelas de roteamento, inclusive: • Tipo de protocolo – O tipo de protocolo de roteamento que criou a entrada da tabela de roteamento. • Associações com destino/próximo salto – Essas associações informam a um roteador se um destino específico está diretamente conectado ao roteador ou se pode ser alcançado com o uso de um outro, chamado "próximo salto" no trajeto até o destino final. Quando um roteador recebe um pacote, verifica o endereço de destino e tenta fazer a correspondência entre esse endereço e uma entrada da tabela de roteamento. • Métrica de roteamento – Protocolos de roteamento diferentes usam métricas de roteamento diferentes. As métricas de roteamento são usadas para determinar se uma rota é interessante. Por exemplo, o Routing Information Protocol (RIP) usa a contagem de saltos como única métrica de roteamento. O Interior Gateway Routing Protocol (IGRP) usa uma combinação de métricas de largura de banda, carga, atraso e confiabilidade para criar um valor de métrica composto. • Interface de saída – A interface na qual os dados devem ser enviados, para que cheguem ao destino final. Os roteadores comunicam-se uns com os outros para manter suas tabelas de roteamento através da transmissão de mensagens de atualização de roteamento. Alguns protocolos de roteamento transmitem mensagens de atualização periodicamente; outros as enviam somente quando há alterações na topologia da rede. Alguns protocolos transmitem toda a tabela de roteamento em cada mensagem de atualização; outros transmitem somente as rotas que sofreram alteração. Analisando as atualizações de roteamento dos roteadores vizinhos, um roteador constrói e mantém sua tabela de roteamento.
    • Cisco CCNA 3.1 363 10.2.6 Algoritmos e métrica de roteamento Um algoritmo é uma solução detalhada para um problema. No caso de pacotes de roteamento, protocolos de roteamento diferentes usam algoritmos diferentes para decidir a que porta um pacote recebido deve ser enviado. Para tomar decisões, os algoritmos de roteamento dependem de métricas. Os protocolos de roteamento freqüentemente têm um ou mais dos objetivos de projeto a seguir: • Otimização – A otimização descreve a capacidade do algoritmo de roteamento de selecionar a melhor rota. A rota dependerá das métricas e dos pesos dessas métricas usados no cálculo. Por exemplo, um algoritmo pode usar métricas de contagem de saltos e de atraso, mas considerar as métricas de atraso mais importantes no cálculo. • Simplicidade e economia – Quanto mais simples o algoritmo, mais eficientemente ele será processado pela CPU e pela memória no roteador. Isso é importante para o dimensionamento da rede em grandes proporções como, por exemplo, a Internet. • Robustez e estabilidade – Um algoritmo de roteamento deve funcionar corretamente caso enfrente circunstâncias incomuns ou imprevistas, como, por exemplo, falhas de hardware, condições de cargas elevadas e erros de implementação. • Flexibilidade – Um algoritmo de roteamento deve adaptar-se rapidamente a diversas alterações da rede. Essas alterações incluem disponibilidade e memória do roteador, alterações na largura de banda e atraso da rede. • Convergência rápida – Convergência é o processo de concordância de todos os roteadores em rotas disponíveis. Quando um evento de rede altera a disponibilidade de um roteador, são necessárias atualizações para restabelecer a conectividade da rede. Algoritmos de roteamento com conversão lenta podem impedir a entrega dos dados. Os algoritmos de roteamento usam diferentes métricas para determinar a melhor rota. Cada algoritmo de roteamento interpreta a melhor opção segundo seu próprio julgamento. O algoritmo de roteamento gera um número, chamado valor de métrica, para cada caminho na rede. Algoritmos de roteamento sofisticados baseiam a seleção de rotas em várias métricas, combinando-as em um único valor composto de métrica. Normalmente, valores de métrica menores indicam caminhos preferidos.
    • Cisco CCNA 3.1 364 As métricas podem basear-se em uma única característica de um caminho ou podem ser calculadas com base em várias características. Veja a seguir as métricas mais comumente usadas por protocolos de roteamento: • Largura de banda – A capacidade de dados de um link. Normalmente, um link Ethernet de 10 Mbps é preferível a uma linha alugada de 64 kbps. • Atraso – O tempo necessário para mover um pacote em cada link da origem até o destino. O atraso depende da largura de banda de links intermediários, do volume de dados que podem ser armazenados temporariamente em cada roteador, do congestionamento na rede e da distância física. • Carga – O volume de atividade em um recurso de rede, como, por exemplo, um roteador ou um link. • Confiabilidade – Normalmente, uma referência à taxa de erros de cada link da rede. • Contagem de saltos – O número de roteadores pelos quais um pacote deve trafegar antes de chegar ao destino. Cada roteador pelo qual os dados devem passar é igual a um salto. Um caminho que tem contagem de saltos quatro indica que os dados que trafegam por esse caminho devem passar por quatro roteadores antes de chegar ao seu destino final. Se vários caminhos estiverem disponíveis para um destino, o preferido será aquele com o menor número de saltos. • Ticks – O atraso em um link de dados que usa clock ticks (pulsos do relógio) do PC IBM. Um tick corresponde a aproximadamente 1/18 de segundo. • Custo – Um valor arbitrário, normalmente baseado em largura de banda, despesa ou em outra medida, atribuído por um administrador de rede.
    • Cisco CCNA 3.1 365 10.2.7 IGP e EGP Um sistema autônomo é uma rede ou um conjunto de redes sob controle administrativo comum, como o domínio cisco.com. Um sistema autônomo consiste de roteadores que apresentam uma visão consistente de roteamento para o mundo exterior. Duas famílias de protocolos de roteamento são Interior Gateway Protocols (IGPs) e Exterior Gateway Protocols (EGPs). Interior Gateway Protocols e Exterior Gateway Protocols Os IGPs roteiam dados em um sistema autônomo. • Routing Information Protocol (RIP) e (RIPv2) • Interior Gateway Routing Protocol (IGRP) • Enhanced Interior Gateway Routing Protocol (EIGRP) • Open Shortest Path First (OSPF) • Protocolo Intermediate System-to-Intermediate System (IS-IS) Os EGPs roteiam dados entre sistemas autônomos. Um exemplo de EGP é o Border Gateway Protocol (BGP).
    • Cisco CCNA 3.1 366 10.2.8 Vetor de estado do link e de distância Os protocolos de roteamento podem ser classificados como IGPs ou EGPs, o que descreve se um grupo de roteadores está ou não sob uma única administração. Os IGPs podem ser mais detalhadamente categorizados como protocolos de vetor de distância ou de estado de link. A abordagem de roteamento pelo vetor de distância determina a distância e a direção (,- vetor), para qualquer link na internetwork. A distância pode ser a contagem de saltos até o link. Os roteadores que usam algoritmos de vetor de distância enviam periodicamente todas ou parte das suas entradas da tabela de roteamento para roteadores adjacentes. Isso acontece mesmo que não haja alterações na rede. Recebendo uma atualização do roteamento, um roteador pode verificar todas as rotas conhecidas e alterar sua tabela de roteamento. Esse processo também é conhecido como roteamento por "rumor". A compreensão que um roteador tem da rede baseia-se na perspectiva do roteador adjacente na topologia da rede. Exemplos de protocolos de vetor de distâncias incluem: • Routing Information Protocol (RIP) – O IGP mais comum na Internet, o RIP usa a contagem de saltos como única métrica de roteamento. • Interior Gateway Routing Protocol (IGRP) – Este IGP foi criado pela Cisco para atacar problemas associados ao roteamento em redes grandes e, heterogêneas. • Enhanced IGRP (EIGRP) – Este IGP exclusivo da Cisco inclui muitos dos recursos de um protocolo de roteamento de estado de link. Por isso, ele recebeu o nome de protocolo híbrido balanceado, mas é, na verdade, um protocolo avançado de roteamento de vetor de distância. Os protocolos de roteamento de estado de link foram criados para superar as limitações dos protocolos de roteamento de vetor de distância. Os protocolos de roteamento de estado de link respondem rapidamente a alterações da rede, enviando atualizações de disparo somente quando ocorre uma dessas alterações. Os protocolos de roteamento de estado de link enviam atualizações periódicas, conhecidas como atualizações de estado de link em intervalos maiores, como, por exemplo, a cada 30 minutos. Quando uma rota ou um link muda, o dispositivo que detectou a alteração cria um link-state advertisement (LSA, anúncio de estado de link) relativo a esse link. O LSA é, então, transmitido a todos os dispositivos vizinhos. Cada dispositivo de roteamento pega uma cópia do LSA, atualiza seu banco de dados de estados de link e encaminha esse LSA a todos os dispositivos vizinhos. Essa inundação de LSAs é necessária para garantir que todos os
    • Cisco CCNA 3.1 367 dispositivos de roteamento criem bancos de dados que reflitam exatamente a topologia da rede antes de atualizar suas tabelas de roteamento. Os algoritmos de estado de link normalmente usam seus bancos de dados para criar entradas de tabelas de roteamento que preferem o caminho mais curto. Exemplos de protocolos de estado de link incluem Open Shortest Path First (OSPF) e Intermediate System-to-Intermediate System (IS-IS). 10.2.9 Protocolos de roteamento O RIP é um protocolo de roteamento de vetor de distância que usa a contagem de saltos como métrica para determinar a direção e a distância até qualquer link na internetwork. Se houver vários caminhos até um destino, o RIP seleciona aquele com o menor número de saltos. No entanto, como a contagem de saltos é a única métrica de roteamento usada pelo RIP, ele nem sempre seleciona o caminho mais rápido até um destino. Além disso, o RIP não pode rotear um pacote além de 15 saltos. O RIP versão 1 (RIPv1) exige que todos os dispositivos na rede usem a mesma máscara de sub-rede, pois ele não inclui informações sobre essas máscaras nas atualizações de roteamento. Esse processo também é conhecido como roteamento classful (por classes). O RIP versão 2 (RIPv2) fornece roteamento de prefixo e envia informações sobre máscaras de sub-rede nas atualizações de roteamento. Esse processo também é conhecido como roteamento classless (sem classes) Com os protocolos de roteamento classless, sub-redes diferentes dentro da mesma rede podem ter máscaras de sub-rede diferentes. O uso de diferentes máscaras de sub-rede na mesma rede é citado como variable-length subnet masking (VLSM - mascaramento de sub-redes com tamanho variável). O IGRP é um protocolo de roteamento de vetor de distância desenvolvido pela Cisco. O IGRP foi criado especificamente para atacar problemas associados ao roteamento em redes de grande porte que estavam além do alcance de protocolos como o RIP. O IGRP pode selecionar o caminho mais rápido disponível com base no atraso, na carga e na confiabilidade. O IGRP também tem um limite máximo para a contagem de saltos mais alto do que o RIP. O IGRP utiliza somente roteamento classful. O OSPF é um protocolo de roteamento de estado de link desenvolvido pela Internet Engineering Task Force (IETF) em 1988. O OSPF foi escrito para atender às necessidades de internetworks de grande porte e, dimensionáveis, o que não podia ser feito pelo RIP. O Intermediate System-to-Intermediate System (IS-IS) é um protocolo de roteamento de estado de link usado para protocolos roteados diferentes do IP. O Integrated IS-IS é uma implementação expandida do IS-IS que suporta vários protocolos roteados, inclusive IP. Como o IGRP, o EIGRP é um protocolo exclusivo da Cisco. O EIGRP é uma versão avançada do IGRP. Especificamente, o EIGRP oferece eficiência operacional superior, como, por exemplo, convergência rápida e baixa largura de banda de overhead (espaço sem dados). O EIGRP é um protocolo avançado de vetor de distância que também usa funções de protocolo de estado de link. Assim, o EIGRP é, às vezes, categorizado como protocolo de roteamento híbrido.
    • Cisco CCNA 3.1 368 Um exemplo de External Gateway Protocol (EGP) é o Border Gateway Protocol (BGP). O BGP troca informações de roteamento entre sistemas autônomos, ao mesmo tempo que garante a seleção de caminhos livre de loops. O BGP é o principal protocolo de anúncio de rota usado pelas maiores empresas e ISPs (provedores de serviços de Internet) na Internet. O BGP4 é a primeira versão do BGP que suporta roteamento entre domínios (CIDR) e agregação de rotas. Ao contrário dos protocolos Internal Gateway Protocols (IGPs) comuns, como o RIP, OSPF e EIGRP, o BGP não usa métricas como a contagem de saltos, largura de banda ou atraso. Em vez disso, o BGP toma decisões de roteamento com base em políticas de rede ou em regras que usam vários atributos de caminhos do BGP. 10.3 As mecânicas da divisão em sub-redes 10.3.1 Classes de Endereços IP de rede As classes de endereços IP oferecem uma faixa de 256 a 16,8 milhões de hosts, conforme já foi discutido anteriormente neste módulo. Para que se gerencie com eficiência um grupo limitado de endereços IP, todas as classes podem ser subdivididas em sub-redes menores. A Figura abaixo fornece uma visão geral da divisão entre redes e hosts. Padrões de Bits do Endereço IP
    • Cisco CCNA 3.1 369 10.3.2 Introdução e razão para a divisão em sub-redes Para criar a estrutura de sub-redes, os bits do host devem ser reatribuídos como bits da sub- rede. Esse processo é freqüentemente chamado “’pedir emprestado”’ bits. No entanto, um termo mais preciso seria “’emprestar”’ bits. O ponto de partida para este processo é sempre o bit do host mais à esquerda, aquele mais próximo ao último octeto da rede. Os endereços de sub-rede incluem a parte da rede de classe A, classe B e classe C, mais um campo de sub-rede e um campo de host. O campo da sub-rede e o campo do host são criados da parte original do host do endereço IP principal. Isso é feito com a atribuição de bits da parte do host à parte de rede original do endereço. Subdividindo os Octetos de um Host de um Endereço Classe C Subdividindo os Octetos de um Host de um Endereço Classe B Subdividindo os Octetos de um Host de um Endereço Classe A
    • Cisco CCNA 3.1 370 A capacidade de dividir a parte do host original do endereço nos novos campos de sub-rede e de host proporciona flexibilidade de endereçamento ao administrador da rede. Além da necessidade de gerenciabilidade, a divisão em sub-redes permite que o administrador da rede ofereça contenção de broadcast e segurança nos níveis inferiores na rede local. Ela proporciona alguma segurança, pois o acesso a outras sub-redes está disponível somente através dos serviços de um roteador. Além disso, a segurança de acesso pode ser proporcionada com o uso de listas de acesso. Essas listas podem permitir ou negar acesso a uma sub-rede com base em diversos critérios, proporcionando, assim, mais segurança. As listas de acesso serão estudadas adiante no curso. Alguns proprietários de redes das classes A e B também descobriram que a divisão em sub- redes cria uma fonte de lucros para a organização através do aluguel ou da venda de endereços IP não usados anteriormente. A divisão em sub-redes é uma função interna à rede. Para fora da rede, uma LAN é vista como uma única rede sem que sejam apresentados detalhes da estrutura da rede interna. Esta visão da rede mantém as tabelas de roteamento pequenas e eficientes. Dado o endereço do nó local 147.10.43.14, pertencente à sub-rede 147.10.43.0, o mundo externo à LAN vê apenas o número anunciado da rede principal 147.10.0.0. A razão para isso é que o endereço da sub-rede 147.10.43.0 é utilizado apenas dentro da LAN à qual a sub-rede pertence.
    • Cisco CCNA 3.1 371 10.3.3 Introdução e razão para a divisão em sub-redes A seleção do número de bits a serem usados no processo de sub-redes dependerá do número máximo de hosts exigido por sub-rede. É necessária alguma compreensão de números binários e de valores de posição dos bits em cada octeto ao calcular o número de sub-redes e de hosts criados quando esse bit foi tomado por empréstimo. Guia de Sub-redes (Posição e Valor de Bits) Os dois últimos bits do último octeto, independentemente da classe de endereço IP, jamais poderão ser atribuídos à sub-rede. Eles são chamados de os últimos dois bits significativos. O uso de todos os bits disponíveis para criar sub-redes, exceto esses dois últimos, resultará em sub-redes com apenas dois hosts utilizáveis. Esse é um método prático de conservação de endereços para o endereçamento de links de roteadores seriais. No entanto, para uma rede local em funcionamento, ele resultaria em custos proibitivos de equipamento. A máscara de sub-rede fornece ao roteador as informações necessárias para determinar em que rede e sub-rede um host específico reside. Guia de Sub-redes (Identificador de Máscara de Sub-redes) A máscara de sub-rede é criada com o uso de 1s binários nas posições dos bits relativos à rede. Os bits da sub-rede são determinados com a adição do valor às posições dos bits tomados por empréstimo. Se tivessem sido tomados três bits, a máscara para um endereço de classe C seria 255.255.255.224.
    • Cisco CCNA 3.1 372 Divisão em Sub-redes Essa máscara também pode ser representada, no formato de barras, como /27. O número após a barra é o total de bits usados para a parte da rede e da sub-rede. Para determinar o número de bits a serem usados, o projetista da rede precisa calcular quantos hosts a maior sub-rede requer e o número necessário de sub-redes. Por exemplo, a rede precisa de 6 sub-redes com 25 hosts cada. Uma maneira de determinar a quantidade de bits que devem ser emprestados é através da tabela de sub-redes. Gráfico de Sub-redes Consultando a linha "Sub-redes Utilizáveis", a tabela indica que para ter seis sub-redes são necessários 3 bits adicionais na máscara de sub-rede. A tabela mostra que desta forma são criados 30 hosts utilizáveis por sub-rede, o que irá satisfazer os requisitos deste esquema. A diferença entre hosts utilizáveis e total de hosts resulta do uso do primeiro endereço disponível como ID e do último endereço disponível como broadcast para cada sub-rede. Tomar emprestado o número apropriado de bits para acomodar o número necessário de sub-redes e de hosts por sub-rede pode ser resultado de um ato de balanceamento, que pode resultar em endereços de host não utilizados em múltiplas sub-redes. A habilidade de usar estes endereços não é provida em roteamento classful. De qualquer maneira, o roteamento classless, que será visto mais tarde no curso, pode recuperar muitos destes endereços desperdiçados. O método usado para criar a tabela de sub-redes pode ser usado para resolver todos os problemas da divisão em sub-redes. Esse método usa a seguinte fórmula:
    • Cisco CCNA 3.1 373 Número de sub-redes utilizáveis= dois elevado ao número de bits de sub-rede atribuídos ou tomados por empréstimo, menos dois. O menos dois é dos endereços reservados para ID da rede e de broadcast da rede. Número de hosts utilizáveis = dois elevado ao número de bits restantes menos dois (endereços reservados para ID da sub-rede e broadcast da sub-rede) 10.3.4 Aplicação da máscara de sub-redes Uma vez estabelecida a máscara de sub-rede, ela pode ser usada para criar o esquema de sub-redes. A tabela mostrada na figura abaixo é um exemplo das sub-redes e endereços criados pela atribuição de três bits ao campo de sub-rede. Esquema de Sub-redes Isso criará oito sub-redes com 32 hosts por sub-rede. Ao numerar sub-redes, comece com zero (0). A primeira sub-rede é sempre chamada sub-rede zero. Quando se preenche a tabela de sub-redes, três dos campos são automáticos; os outros exigem cálculos. A ID da sub-rede zero é igual ao número da rede principal, sendo, neste caso, 192.168.10.0. A ID de broadcast para toda a rede é o maior número possível, sendo, neste caso, 192.168.10.255. O terceiro número fornecido é a ID de sub-rede para a sub-rede número sete. Esse número reflete os três octetos da rede com o número da máscara de rede inserido na quarta posição do octeto. Foram atribuídos três bits ao campo de sub-rede com valor cumulativo 224. Gráfico de Sub-redes
    • Cisco CCNA 3.1 374 A ID para a sub-rede sete é 192.168.10.224. Com a inserção desses números, foram estabelecidos pontos de verificação, que verificarão a precisão quando a tabela for concluída. Consultando-se a tabela de divisão em sub-redes ou utilizando-se a fórmula, os três bits atribuídos ao campo de sub-rede resultarão no total de 32 hosts atribuídos a cada sub-rede. Essas informações fornecem a contagem de etapas para cada ID de sub-rede. Adicionando-se 32 a cada número precedente, começando com a sub-rede zero, é estabelecida a ID para cada sub-rede. Observe que a ID de sub-rede tem todos os 0s binários na parte do host. O campo de broadcast é o último número em cada sub-rede e têm todos os uns binários na parte do host. Esse endereço pode fazer broadcast somente para os membros de uma única sub-rede. Como a ID de sub-rede para a sub-rede zero é 192.168.10.0 e há um total de 32 hosts, a ID de broadcast será 192.168.10.31. Começando em zero, o 32o número seqüencial será 31. É importante lembrar que zero (0) é um número real no mundo das redes. O equilíbrio da coluna de ID de broadcast pode ser obtido com o mesmo processo usado na coluna de ID de sub-rede. Simplesmente, adicione 32 à ID de broadcast precedente da sub- rede. Outra opção é começar na parte inferior e preencher até o alto da coluna, subtraindo um da ID de sub-rede precedente.
    • Cisco CCNA 3.1 375 10.3.5 Divisão de redes das classes A e B em sub-redes O procedimento de divisão em sub-redes das classes A e B é idêntico ao da classe C, exceto que pode envolver um número significativamente maior de bits. O número de bits disponíveis para atribuição ao campo de sub-rede em um endereço de Classe A é 22, enquanto um endereço de classe B tem 14 bits. Subdividindo os Octetos de Host de uma Rede Classe B Subdividindo os Octetos de Host de uma Rede Classe A A atribuição de 12 bits de um endereço de classe B ao campo de sub-rede cria uma máscara de sub-rede 255.255.255.240, ou /28. Todos os oito bits foram atribuídos no terceiro octeto, resultando em 255, valor total dos oito bits. Quatro bits foram atribuídos no quarto octeto, resultando em 240. Lembre-se que, a máscara com barra é a soma total dos bits atribuídos à sub-rede mais os bits fixos da rede.
    • Cisco CCNA 3.1 376 Divisão em Sub-redes A atribuição de 20 de um endereço de classe A ao campo de sub-rede cria uma máscara de sub-rede 255.255.255.240, ou /28. Todos os oito bits dos segundo e terceiro octetos foram atribuídos ao campo de sub-rede e quatro bits do quarto octeto. Hosts Classes A e B Nessa situação, é visível que a máscara de sub-rede para os endereços das classes A e B parece idêntica. A menos que a máscara esteja relacionada a um endereço de rede, não é possível saber quantos bits foram atribuídos ao campo de sub-rede. Qualquer que seja a classe de endereço a ser dividida em sub-redes, as regras a seguir são as mesmas: Total de sub-redes = 2elevado ao número de bits tomados por empréstimo
    • Cisco CCNA 3.1 377 Total de hosts= 2elevado ao número de bits restantes Sub-redes utilizáveis = 2elevado ao número de bits tomados por empréstimo menos 2 Hosts utilizáveis= 2elevado ao número de bits restantes menos 2 10.3.6 Cálculo da sub-rede residente através do ANDing Os roteadores usam máscaras de sub-rede para determinar a sub-rede de origem para nós individuais. Esse processo é chamado ANDing lógico. O ANDing é um processo binário pelo qual o roteador calcula a ID de sub-rede para um pacote enviado. O Processo Lógico AND O ANDing é semelhante à multiplicação. Esse processo é controlado no nível binário. Assim, é necessário visualizar o endereço IP e a máscara em binários. Cálculo do ID da sub-rede
    • Cisco CCNA 3.1 378 Os endereços IP e de sub-rede são ANDed (operação lógica AND) e o resultado é a ID de sub-rede. Em seguida, o roteador usa essas informações para encaminhar o pacote pela interface correta. A divisão em sub-redes é uma habilidade que se aprende. Serão necessárias muitas horas de exercícios práticos para que se domine o desenvolvimento de esquemas flexíveis e funcionais. Diversas calculadoras para sub-redes estão disponíveis na Web. No entanto, um administrador de redes deve saber calcular sub-redes manualmente, para que possa projetar o esquema da rede com eficiência e garantir a validade dos resultados de uma calculadora. A calculadora de sub-redes não fornecerá o esquema inicial, mas apenas o endereçamento final. Além disso, não são permitidas calculadoras, de nenhum tipo, durante a prova de certificação. Resumo Capítulo 10 Devem ter sido compreendidos os importantes conceitos a seguir: • As características de protocolos roteados ou roteáveis. • As etapas do encapsulamento de dados em uma internetwork, à medida que esses dados são roteados para um ou mais dispositivos da camada 3. • AA entrega sem conexão e orientada a conexão. • Os campos do pacote IP. • Os roteadores operam na camada de rede. Inicialmente, o roteador recebe um quadro da camada 2 com um pacote da camada 3 encapsulado. Ele deve desmembrar o quadro da camada 2 e examinar o pacote da camada 3. Quando
    • Cisco CCNA 3.1 379 estiver pronto para transmitir o pacote, deverá encapsular o pacote da camada 3 em um novo quadro da camada 2. • Os protocolos roteados definem o formato e o uso dos campos em um pacote. Os pacotes geralmente são transmitidos de um sistema final a outro. • O LAN switching ocorre na camada 2 do modelo de referência OSI e o roteamento ocorre na camada 3. • Os protocolos de roteamento são usados entre roteadores para determinar caminhos e manter tabelas de roteamento. Os protocolos roteados são usados para direcionar o tráfego do usuário. • O roteamento envolve duas atividades básicas: determinar os melhores caminhos e transportar pacotes em uma internetwork. • Os algoritmos de roteamento processam as atualizações e preenchem a tabela de roteamento com as melhores rotas. • As tabelas de roteamento contêm as melhores rotas para todas as redes conhecidas. Essas rotas podem ser estáticas, que são inseridas manualmente, ou dinâmicas, que são aprendidas via protocolos de roteamento. • A convergência descreve a velocidade com que todos os roteadores decidem sobre uma alteração na rede. • Os protocolos de roteamento interno roteiam dados dentro de sistemas autônomos; os protocolos de roteamento externo roteiam dados entre sistemas autônomos. • Os roteadores que usam protocolos de roteamento de vetor de distância enviam periodicamente atualizações de roteamento, que consistem na sua tabela de roteamento completa ou parcial. Os roteadores que usam protocolos de estado de link usam link-state advertisements (LSAs, anúncios de estado de links) para enviar atualizações somente quando ocorrem mudanças na topologia da rede, e enviam tabelas completas de roteamento com muito menos freqüência. • As utilidades da divisão em sub-redes. • Como determinar a máscara de sub-rede apropriada para uma determinada situação. • Como dividir redes das classes A, B e C em sub-redes. • Como utilizar uma máscara de sub-rede para determinar a ID da sub-rede.
    • Cisco CCNA 3.1 378 Capítulo 11: Camada de Transporte TCP/IP e Aplicação
    • Cisco CCNA 3.1 379 Visão Geral Capítulo 11 Conforme o nome sugere, a camada de transporte TCP/IP transporta dados entre aplicativos em dispositivos de destino. Para a compreensão das redes de dados modernas, é essencial um entendimento completo da operação da camada de transporte. Este módulo descreverá as funções e serviços desta camada crítica do modelo de rede TCP/IP. Muitas das aplicações de rede encontradas na camada de aplicação TCP/IP são familiares até mesmo aos usuários ocasionais de redes. HTTP, FTP e SMTP, por exemplo, são acrônimos comumente vistos por usuários de navegadores Web e clientes de correio eletrônico. Este módulo também descreve a função desses e de outros aplicativos, usando como base o modelo de redes TCP/IP. Ao concluírem este módulo, os alunos deverão ser capazes de: • Descrever as funções da camada de transporte TCP/IP. • Descrever o controle de fluxo. • Descrever os processos de estabelecimento de conexão entre sistemas pares. • Descrever o processo de janelamento. • Descrever o processo de confirmação. • Identificar e descrever protocolos da camada de transporte. • Descrever formatos de cabeçalho TCP e UDP. • Descrever números de porta TCP e UDP. • Relacionar os principais protocolos da camada de aplicação TCP/IP. • Descrever resumidamente os recursos e a operação de aplicações TCP/IP conhecidas.
    • Cisco CCNA 3.1 380 11.1 Camada de Transporte TCP/IP 11.1.1 Introdução à camada de transporte As responsabilidades principais da camada de transporte, camada 4 do modelo OSI, são transportar e regular o fluxo de informações da origem até o destino, de forma confiável e precisa. Controle fim-a fim e confiabilidade são proporcionados por janelas deslizantes, números de seqüência e confirmações. Para compreender a confiabilidade e o controle de fluxo, imagine alguém que estuda um idioma estrangeiro durante um ano e, então, visita o país onde esse idioma é usado. Na conversação, as palavras devem ser repetidas para que haja confiabilidade e deve-se falar lentamente para que o sentido da conversa não se perca; isso é controle de fluxo. A camada de transporte fornece serviços de transporte do host ao host origem de destino. Ela estabelece uma conexão lógica entre as extremidades da rede. Protocolos na camada de transporte segmentam e remontam os dados que são enviados por várias aplicações de camada superior no mesmo fluxo de dados da camada de transporte. Esses dados da camada de transporte fornecem serviços de transporte fim-a- fim. O fluxo de dados da camada de transporte é uma conexão lógica entre as extremidades de uma rede. Suas responsabilidades principais são transportar e regular o fluxo de informações da origem ao destino de forma confiável e precisa. A responsabilidade principal da camada 4 é fornecer controle fim-a-fim usando janelas móveis e oferecer confiabilidade nos números de seqüência e nas confirmações. A camada de transporte define a conectividade fim-a-fim entre aplicações de host. Os serviços de transporte incluem os seguintes serviços básicos:
    • Cisco CCNA 3.1 381 • Segmentação de dados de aplicações de camada superior • Estabelecimento de operações fim-a-fim • Transporte de segmentos de um host final ao outro • Controle de fluxo proporcionado por janelas móveis • Confiabilidade proporcionada por números de seqüência e por confirmações O TCP/IP é uma combinação de dois protocolos individuais. O IP opera na camada 3 e é um protocolo sem conexão, que oferece um serviço de entrega de melhor esforço (best effort) em uma rede. O TCP opera na camada 4 e é um serviço orientada à conexão que oferece controle de fluxo e confiabilidade. Esses protocolos juntos fornecem uma ampla variedade de serviços e é base de todo um conjunto de protocolos, chamado TCP/IP. A Internet foi construída com base nesse conjunto de protocolos.
    • Cisco CCNA 3.1 382 11.1.2 Controle de Fluxo À medida que a camada de transporte envia segmentos de dados, ela procura garantir que eles não sejam perdidos. Um host receptor que não consiga processar dados com a mesma rapidez com que chegam pode causar perda de dados. O host receptor é, então, forçado a descartá-los. O controle de fluxo evita que um host transmissor sobrecarregue os buffers de um host receptor. O TCP fornece o mecanismo para controle de fluxo, permitindo a comunicação entre os hosts de envio e de recepção. Os dois hosts, então, estabelecem uma taxa de transferência de dados satisfatória para ambos.
    • Cisco CCNA 3.1 383 11.1.3 Visão geral de estabelecimento, manutenção e término de sessões Várias aplicações podem compartilhar a mesma conexão de transporte no modelo de referência OSI. Esse processo é chamado de multiplexação de conversas de camada superior. Várias conversas simultâneas da camada superior podem ser multiplexadas sobre uma única conexão. A funcionalidade de transporte é realizada segmento-por- segmento. Em outras palavras, diferentes aplicações podem enviar segmentos de dados de acordo com a política primeiro a chegar, primeiro a ser servido (First-come, first-served). O segmento que chegar primeiro será servido primeiro. Esses segmentos podem então ser roteados para o mesmo destino, ou para diferentes destinos. Uma função da camada de transporte é estabelecer uma sessão orientada à conexão entre dispositivos similares na camada de aplicação. Para que a transferência de dados comece, as aplicações de envio e de recebimento informam aos respectivos sistemas operacionais que será iniciada uma conexão. Um nó inicia uma conexão que deverá ser aceita pelo outro. Os módulos do software de protocolo nos dois sistemas operacionais comunicam-se enviando mensagens pela rede, para verificar se a transferência está autorizada e se ambos os lados estão prontos. A conexão é estabelecida e a transferência de dados começa após ter ocorrido toda a sincronização. Durante a transferência, as duas máquinas continuam a se comunicar com seu software de protocolo, para verificar se os dados estão sendo recebidos corretamente.
    • Cisco CCNA 3.1 384 A Figura abaixo mostra uma conexão típica entre os sistemas de envio e de recebimento. O primeiro handshake solicita sincronização. O segundo e o terceiro confirmam a solicitação de sincronização inicial e também sincronizam os parâmetros de conexão na direção oposta. O segmento de handshake final é uma confirmação usada para informar ao destino que ambos os lados concordam que foi estabelecida uma conexão. Após o estabelecimento da conexão, começa a transferência de dados. Congestionamento durante a transferência de dados podem ocorrer por dois motivos: • Primeiro, um computador com alta velocidade pode gerar tráfego mais rapidamente do que uma rede pode ser capaz de transferir. • Segundo, se muitos computadores precisarem enviar datagramas simultaneamente a um único destino, esse destino pode sofrer congestionamento, embora o problema não tenha uma origem única. Quando os datagramas chegam muito rapidamente para que um host ou gateway os processe, eles são armazenados temporariamente na memória. Se o tráfego prosseguir, o host ou gateway, por fim, esgotará sua memória e deverá descartar os datagramas adicionais que chegarem.
    • Cisco CCNA 3.1 385 Em vez de permitir que os dados sejam perdidos, o processo TCP na máquina que está recebendo os dados pode emitir um indicador de “não-pronto” (not-ready) para o remetente. Atuando como uma placa de “Pare”, esse indicador sinaliza para que o remetente pare de enviar dados. Quando o receptor puder lidar com mais dados, ele enviará um indicador de transporte de “pronto” (Ready). Quando esse indicador é recebido, o remetente retoma a transmissão de segmentos. Ao final da transferência de dados, o host transmissor envia um sinal que indica o final da transmissão. O host receptor na extremidade da seqüência de dados confirma o fim da transmissão e a conexão é encerrada.
    • Cisco CCNA 3.1 386 11.1.4 Handshake triplo O TCP é um protocolo orientado à conexões. Ele requer o estabelecimento de uma conexão antes do começo da transferência de dados. Para que uma conexão seja estabelecida ou inicializada, os dois hosts devem sincronizar seus Initial Sequence Numbers (ISNs). A sincronização é feita através da troca de segmentos de estabelecimento de conexão que transportam um bit de controle chamado SYN, para a sincronização, e os ISNs. Os segmentos que transportam o bit SYN também são chamados "SYNs". Essa solução requer um mecanismo adequado para a obtenção de um número de seqüência inicial e um handshake simples para a troca de ISNs. A sincronização requer que cada lado envie seu próprio número de seqüência inicial e receba uma confirmação (ACK) da troca enviada pelo outro lado. Cada lado também deve receber o ISN do outro lado e enviar um ACK de confirmação. A seqüência é: 1. O host (A) inicia uma conexão enviando um pacote SYN para o host (B) indicando que o seu ISN = X: A —> B SYN, seq de A = X 2. B recebe o pacote, grava que a seq de A = X, responde com um ACK de X + 1, e indica que seu ISN = Y. O ACK de X + 1 significa que o host B já recebeu todos os bytes até ao byte X e que o próximo byte esperado é o X + 1: B —> A ACK, seq de A = X, SYN seq de B = Y, ACK = X + 1 3. A recebe o pacote de B, fica sabendo que a sequência de B = Y, e responde com um ACK de Y + 1, que finaliza o processo de estabelecimento da conexão: A —> B ACK, seq de B = Y, ACK = Y + 1 Essa troca é chamada handshake triplo. Um handshake triplo é necessário porque os números de seqüência não são vinculados a um relógio global na rede e os protocolos TCP podem ter mecanismos diferentes para captar o ISN. O receptor do primeiro SYN não tem meios para saber se
    • Cisco CCNA 3.1 387 este é um segmento antigo atrasado, a menos que tenha registrado o último número de seqüência usado na conexão. Nem sempre é possível lembrar esse número. Assim, o receptor deve pedir ao remetente que verifique esse SYN. 11.1.5 Janelamento Os pacotes de dados devem ser enviados ao receptor na mesma ordem em que foram transmitidos, para que haja uma transferência de dados confiável, orientada à conexão. O protocolo falha se algum pacote for perdido, danificado, duplicado ou recebido em ordem diferente. Uma solução fácil é fazer com que o receptor confirme o recebimento de cada pacote antes do envio do pacote seguinte. JANELA BÁSICA TCP Se o remetente precisar esperar uma confirmação após enviar cada pacote, o throughput será lento. Por isso, a maioria dos protocolos confiáveis, orientados à conexão, permite mais de um pacote trafegando na rede por vez. Como há tempo disponível após o encerramento da transmissão de dados pelo remetente e antes que o receptor termine o processamento de qualquer confirmação recebida, esse intervalo é usado para transmitir mais dados. O número de pacotes de dados restantes que o emissor tem permissão para ter sem ter recebido uma confirmação é conhecido como tamanho da janela ou janela. O TCP usa confirmações esperadas. A expressão "confirmações esperadas" significa que o número da confirmação refere-se ao pacote esperado em seguida. A expressão "janelamento" refere-se ao fato de o tamanho da janela ser negociado dinamicamente durante a sessão do TCP. O janelamento é um mecanismo de controle de fluxo. O janelamento exige que o dispositivo de origem receba uma confirmação do destino depois de transmitir uma determinada quantidade de dados. O processo de recebimento TCP informa uma "janela" ao TCP de envio. Essa janela especifica o número de pacotes, começando com o número da confirmação, que o processo TCP receptor está preparado para receber no momento. Com um tamanho de janela três, o dispositivo de origem pode enviar três bytes ao destino. O dispositivo de origem deve, então, aguardar uma confirmação. Se o destino receber os três bytes, ele enviará uma confirmação ao dispositivo origem, que poderá então transmitir mais três bytes. Se o destino não receber os três bytes, devido a sobrecarga nos buffers, não enviará a confirmação. Por não receber a confirmação, a
    • Cisco CCNA 3.1 388 origem saberá que os bytes deverão ser retransmitidos e que a taxa de transmissão deverá ser diminuída. Os tamanhos de janela do TCP são variáveis durante todo o tempo de vida de uma conexão. Cada confirmação contém um anúncio de janela que indica o número de bytes que o receptor pode aceitar. O TCP também mantém uma janela de controle de congestionamento. Essa janela tem, normalmente, tamanho igual ao da janela do receptor. No entanto, ela é reduzida à metade quando um pacote se perde, talvez como resultado de congestionamento na rede. Essa técnica permite que a janela seja expandida ou reduzida conforme necessário, para gerenciar o espaço no buffer e o processamento. Um tamanho de janela maior permite o processamento de mais dados. Conforme mostra a Figura abaixo, o remetente envia três pacotes antes de esperar por um ACK. Se o receptor puder lidar com um tamanho de janela de dois pacotes apenas, a janela descarta o pacote três, especifica três como o próximo pacote e dois como novo tamanho de janela. O remetente envia os próximos dois pacotes, mas ainda especifica três como tamanho de janela. Isso significa que o remetente ainda esperará uma conformação de três pacotes do receptor. O receptor responde solicitando o pacote cinco, novamente especificando dois como tamanho de janela. JANELA DIMENSIONÁVEL TCP
    • Cisco CCNA 3.1 389 11.1.6 Confirmação A entrega confiável garante que um fluxo de dados enviado de um dispositivo seja, através de um enlace de dados, entregue a outro dispositivo, sem duplicação ou perda de dados. A confirmação positiva com retransmissão é uma técnica que garante a entrega confiável de dados. Ela exige que um receptor se conunique com a origem e retorne uma mensagem de confirmação quando os dados são recebidos. O remetente mantém registro de cada pacote de dados (segmento TCP) enviado e espera uma confirmação. Ele também aciona um timer quando envia um segmento e retransmitirá um segmento se o timer expirar antes que chegue uma confirmação. A Figura abaixo mostra o remetente transmitindo os pacotes de dados 1, 2 e 3. O receptor confirma o recebimento dos pacotes, solicitando o pacote 4. Ao receber a confirmação, o remetente envia os pacotes 4, 5 e 6. Se o pacote 5 não chegar ao destino, o receptor confirma solicitando o reenvio do pacote 5. O remetente reenvia o pacote 5 e recebe uma confirmação para prosseguir com a transmissão do pacote 7. JANELA DIMENSIONÁVEL TCP O TCP fornece a seqüência de segmentos com uma confirmação de referência de encaminhamento. Cada segmento é numerado antes da transmissão. Na estação receptora, o TCP
    • Cisco CCNA 3.1 390 reagrupa os segmentos em uma mensagem completa. Se um número de seqüência estiver faltando na série, aquele segmento será retransmitido. Os segmentos não confirmados dentro de um determinado período serão retransmitidos. 11.1.7 Protocolo de Controle de Transmissão (TCP) O Protocolo de Controle de Transmissão (Transmission Control Protocol TCP) é um protocolo da camada 4 orientado a conexão que fornece transmissão de dados full duplex confiável. O TCP faz parte da pilha de protocolos TCP/IP. Em um ambiente de conexão orientada à conexão, é estabelecida uma conexão entre as extremidades antes do início da transferência de informações. O TCP é responsável por decompor mensagens em segmentos, reagrupá-los na estação de destino, reenviar qualquer item não recebido e reagrupar essas mensagens com base nos segmentos. O TCP proporciona um circuito virtual entre aplicações do usuário final. Os protocolos que usam o TCP incluem: • FTP (File Transfer Protocol) • HTTP (Hypertext Transfer Protocol) • SMTP (Simple Mail Transfer Protocol) • Telnet Veja a seguir as definições dos campos no segmento TCP: • Porta de origem: Número da porta chamadora • Porta de destino: Número da porta chamada • Número de seqüência: Número usado para garantir a seqüência correta dos dados que estão chegando • Número de confirmação: Próximo octeto TCP esperado • HLEN: Número de palavras de 32 bits no cabeçalho • Reservado: Definido como zero • Bits de código: Funções de controle, como a configuração e término de uma sessão • Janela: Número de octetos que o remetente está disposto a aceitar • Checksum: Uma cálculo de verificação (checksum) feito a partir de campos do cabeçalho e dos dados • Urgent Pointer (Ponteiro de Urgência): Indica o final de dados urgentes • Opção: Uma opção atualmente definida, tamanho máximo do segmento TCP • Dados: Dados de protocolo de camada superior
    • Cisco CCNA 3.1 391 11.1.8 Protocolo de Datagrama de Usuário (UDP) O Protocolo de Datagramade Usário (User Datagram Protocol UDP) é o protocolo de transporte sem conexão da pilha de protocolos TCP/IP. O UDP é um protocolo simples que troca datagramas, sem confirmações ou entrega garantida. O processamento de erros e a retransmissão devem ser tratados por protocolos de camada superior. O UDP não usa janelamento nem confirmações; assim, a confiabilidade, se necessária, é fornecida por protocolos da camada de aplicação. O UDP é projetado para aplicações que não precisam juntar seqüências de segmentos. Os protocolos que utilizam o UDP incluem: • TFTP (Trivial File Transfer Protocol) • SNMP (Simple Network Management Protocol) • DHCP (Dynamic Host Control Protocol) • DNS (Sistema de Nomes de Domínio) Veja a seguir as definições dos campos no segmento UDP: • Porta de origem: Número da porta chamadora • Porta de destino: Número da porta chamada • Comprimento: Número de bytes que inclui cabeçalho e dados • Checksum: Um cálculo de verificação (checksum) feito a partir de campos do cabeçalho e dos dados • Dados: Dados de protocolo de camada superior
    • Cisco CCNA 3.1 392 11.1.9 Números de Porta TCP e UDP Tanto o TCP quanto o UDP usam números de porta (soquete) para passar as informações às camadas superiores. Os números de porta são usados para manter registro de diferentes conversações que cruzam a rede ao mesmo tempo. Os desenvolvedores de aplicações de software concordaram em usar números de porta bastante conhecidos, emitidos pelo órgão Internet Assigned Numbers Authority (IANA). Toda conversação destinada à aplicação FTP usa os números de porta padrão 20 e 21. A porta 20 é usada para a parte de dados; a porta 21 é usada para controle. As conversações que não envolvem uma aplicação com número de porta conhecido recebem números de porta aleatórios em um intervalo específico acima de 1023. Algumas portas são reservadas no TCP e no UDP, embora possa haver aplicações que não os suportem.
    • Cisco CCNA 3.1 Os números de portas têm os seguintes intervalos atribuídos: • Números abaixo de 1024 são considerados números de porta conhecidos. • Números acima de 1024 recebem números de porta atribuídos dinamicamente. • Números de porta registrados são aqueles registrados para aplicações específicas de fabricantes. A maioria desses números é superior a 1024. Os sistemas finais usam números de portas para selecionar a aplicação correta. O host origem atribui dinamicamente números de porta de origem gerados na própia origem. Esses números são sempre superiores a 1023. 393
    • Cisco CCNA 3.1 394 11.2 A Camada de Aplicação 11.2.1 Introdução à camada de aplicação TCP/IP Quando o modelo TCP/IP foi criado, as camadas de sessão e de apresentação do modelo OSI foram agrupadas na camada de aplicação do modelo TCP. Isso significa que questões de: representação, codificação e controle de diálogo; serão tratadas na camada de aplicação e não em camadas inferiores separadas, como ocorre no modelo OSI. O projeto garante que o modelo TCP/IP forneça máxima flexibilidade na camada de aplicação para desenvolvedores de software. Os protocolos TCP/IP que suportam transferência de arquivos, e-mail e acesso remoto são, provavelmente, os mais familiares aos usuários da Internet. Esses protocolos incluem as seguintes aplicações: • Sistema de Nomes de Domínios (DNS) • File Transfer Protocol (FTP) • Hypertext Transfer Protocol (HTTP) • Simple Mail Transfer Protocol (SMTP) • Simple Network Management Protocol (SNMP) • Telnet
    • Cisco CCNA 3.1 395 11.2.2 DNS A Internet foi construída com base em um esquema de endereçamento hierárquico. Esse esquema permite que o roteamento tenha por base classes de endereços, e não endereços individuais. O problema que isso cria para o usuário é a associação do endereço correto ao site da Internet. É muito fácil esquecer um endereço IP de um determinado site, porque não há nada que permita a associação do conteúdo do site ao seu endereço. Imagine a dificuldade de lembrar os endereços IP de dezenas, centenas ou até mesmo milhares de sites na Internet. Um sistema de nomes de domínio foi desenvolvido para associar o conteúdo do site ao seu endereço. O Domain Name System (DNS) é um sistema usado na Internet para converter nomes de domínios e seus nós de rede anunciados publicamente em endereços IP. Um domínio é um grupo de computadores associados por sua localização geográfica ou pelo seu tipo de negócio. Um nome de domínio é uma cadeia de caracteres, números ou ambos. Normalmente, um nome ou uma abreviação que represente o endereço numérico de um site na Internet formará o nome do domínio. Existem mais de 200 domínios de nível superior na Internet, cujos exemplos incluem: .us: Estados Unidos .uk: Reino Unido Há também nomes genéricos, cujos exemplos incluem: .edu: sites educacionais .com: sites comerciais .gov: sites governamentais .org: sites não-profissionais .net: serviço de rede
    • Cisco CCNA 3.1 396
    • Cisco CCNA 3.1 397 11.2.3 FTP O FTP é um serviço confiável, orientado a conexão, que usa TCP para transferir arquivos entre sistemas que suportam FTP. A finalidade principal do FTP é transferir arquivos de um computador para outro, copiando e movendo arquivos dos servidores para os clientes e vice-versa. Quando os arquivos são copiados de um servidor, o FTP primeiramente estabelece uma conexão de controle entre o cliente e o servidor. Em seguida, é estabelecida uma segunda conexão, que é um link entre os computadores através dos quais os dados são transferidos. A transferência de dados pode ocorrer em modo ASCII ou binário. Esses modos determinam a codificação usada para arquivos de dados que, no modelo OSI, é uma tarefa da camada de apresentação. Quando a transferência é concluída, a conexão dos dados é finalizada automaticamente. Quando toda a sessão de cópia e movimentação de arquivos é concluída, o link de comandos é fechado quando o usuário efetua logoff e encerra a sessão. O TFTP é um serviço sem conexão que usa o User Dataram Protocol (UDP). O TFTP é usado no roteador para transferir arquivos de configuração e imagens Cisco IOS e para transferir arquivos entre sistemas que suportam TFTP. O TFTP foi criado para ser pequeno e de fácil implementação. Assim, não possui a maioria dos recursos do FTP. O TFTP pode ler ou gravar arquivos de/para um servidor remoto, mas não pode listar diretórios e, atualmente, não tem recursos para autenticação. Ele é útil em algumas LANs porque ele opera mais rápido que o FTP e funciona bem em uma rede estável.
    • Cisco CCNA 3.1 398 11.2.4 HTTP O Hypertext Transfer Protocol (HTTP) opera na World Wide Web, que é parte da Internet que tem crescido mais rapidamente e a mais usada. Uma das razões principais do extraordinário crescimento da Web é a facilidade com que ela permite acesso às informações. Um navegador da Web é uma aplicação cliente, o que significa que, para funcionar, exige um componente de cliente e um componente servidor. Um navegador da Web apresenta os dados em formatos multimídia nas páginas Web que usam texto, figuras, som e vídeo. As páginas Web são criadas com uma linguagem de formato chamada Linguagem de marcação de hipertexto (HTML). A HTML direciona um navegador da Web em uma determinada página da Web a produzir a aparência da página de uma maneira específica. Além disso, a HTML especifica locais para a colocação de textos, arquivos e objetos que serão transferidos do servidor Web para o navegador da Web. Os hiperlinks facilitam a navegação na World Wide Web. Um hiperlink é um objeto, palavra, frase ou figura em uma página da Web. Quando esse hiperlink é clicado, direciona o navegador para uma nova página da Web. A página da Web contém, freqüentemente oculta em sua descrição HTML, um local de endereço conhecido como Localizador Uniforme de Recursos (URL). No URL http://www.cisco.com/edu/, a parte "http://" informa ao navegador que protocolo deve ser usado. A segunda parte, "www", é o nome do host ou o nome de uma máquina específica em um endereço IP específico. A última parte, /edu/, identifica o local específico na pasta do servidor que contém a página da Web padrão. Um navegador da Web normalmente abre uma página inicial ou "home page". O URL da home page já foi armazenado na área de configuração do navegador da Web e pode ser alterado a qualquer momento. Na página inicial pode-se clicar em um dos hiperlinks da página Web ou de digitar uma URL na barra de endereços do navegador. O navegador da Web examina o protocolo para determinar se ele precisa abrir outro programa e determina o endereço IP do servidor Web usando DNS. Em seguida, as camadas de transporte, de rede, de enlace e física trabalham em conjunto para iniciar uma sessão com o servidor Web. Os dados transferidos para o servidor HTTP contêm o nome da pasta do local da página da Web. Os dados também podem conter um nome de arquivo específico de uma página HTML. Se nenhum nome for fornecido, deve ser usado o nome default conforme especificado na configuração do servidor.
    • Cisco CCNA 3.1 399 O servidor responde à solicitação enviando ao cliente da Web todos os arquivos de texto, áudio, vídeo e de figuras especificados nas instruções HTML. O navegador cliente reagrupa todos os arquivos para criar uma visualização da página da Web e, depois, termina a sessão. Se outra página localizada no mesmo servidor ou em outro for clicada, o mesmo processo será executado novamente.
    • Cisco CCNA 3.1 400 11.2.5 SMTP Os servidores de correio eletrônico comunicam-se usando o Simple Mail Transfer Protocol (SMTP) para enviar e receber correspondência. O protocolo SMTP transporta mensagens de e-mail em formato ASCII usando o TCP. Quando um servidor de correio eletrônico recebe uma mensagem destinada a um cliente local, armazena-a e espera que ela seja coletada pelo cliente. CAMINHO DE MENSAGEM DE EMAIL Os clientes podem coletar sua correspondência de várias formas. Podem usar programas que acessam os arquivos do servidor de correio diretamente ou coletar sua correspondência usando um dos muitos protocolos de rede existentes. Os mais populares protocolos de correio para clientes são o POP3 e o IMAP4, que usam o TCP para transportar dados. Embora os clientes de correio usem esses protocolos especiais para coletar correspondência, eles quase sempre usam SMTP para enviá-la. Como são usados dois protocolos diferentes e, possivelmente, dois servidores diferentes, para enviar e receber correspondência, é possível que os clientes de correio possam executar uma tarefa, mas não a outra. Assim, normalmente é uma boa idéia resolver separadamente os problemas de envio e de recepção de e-mail. Ao examinar a configuração de um cliente de correio, verifique se as configurações de SMTP e de POP ou IMAP estão corretas. Um bom modo para testar se um servidor de correio pode ser alcançado é executar o Telnet na porta SMTP (25) ou na porta POP3 (110). O seguinte formato de comando é usado na linha de comando do Windows para testar a capacidade de alcançar o serviço SMTP no servidor de correio no endereço IP 192.168.10.5: C:>telnet 192.168.10.5 25 O protocolo SMTP não oferece muito em termos de segurança e não exige autenticação. Os administradores freqüentemente não permitem que os hosts que não compõem sua rede usem seu servidor SMTP para enviar ou retransmitir correspondência, impedir que usuários não autorizados usem seus servidores como retransmissores de correspondência.
    • Cisco CCNA 3.1 401 11.2.6 SNMP O Protocolo de Gerenciamento de Rede Simples (SNMP) é um protocolo de camada de aplicação que facilita a troca de informações de gerenciamento entre dispositivos de rede. O SNMP permite que os administradores de rede gerenciem o desempenho, encontrem e solucionem problemas e planejem o crescimento de redes. O SNMP usa o UDP como protocolo da camada de transporte. Uma rede administrada SNMP consiste os três componentes a seguir: • Management Protocol (NMS sistema de gerenciamento de rede): O NMS executa aplicações que monitoram e controlam dispositivos gerenciados. O conjunto de recursos de processamento e de memória exigido para o gerenciamento de uma rede é fornecido pelo NMS. Deve haver um ou mais NMSs em qualquer rede administrada. • Dispositivos gerenciados: Dispositivos gerenciados são nós de rede que contêm um agente SNMP e que residem em uma rede administrada. Os dispositivos gerenciados coletam e armazenam informações de gerenciamento, disponibilizando-as para os NMSs que usam o SNMP. Os dispositivos gerenciados às vezes chamados elementos da rede podem ser roteadores, servidores de acesso, comutadores, bridges, hubs, computadores hosts ou impressoras. • Agentes: Agentes são módulos de software de gerenciamento de rede que residem em dispositivos gerenciados. Um agente tem conhecimento local de informações de gerenciamento e as converte para uma forma compatível com o SNMP. REDE GERENCIADA POR SNMP
    • Cisco CCNA 3.1 402 11.2.7 Telnet O software cliente Telnet permite efetuar login em um host remoto da Internet que esteja executando uma aplicação de servidor Telnet e, em seguida, executar comandos usando a linha de comando. Um cliente Telnet é chamado host local. Um servidor Telnet, que usa um software especial chamado daemon, recebe o nome de host remoto. Para fazer conexão usando um cliente Telnet, deve ser selecionada a opção de conexão. Uma caixa de diálogo normalmente solicita um nome de host e um tipo de terminal. O nome de host é o endereço IP ou nome de DNS do computador remoto. O tipo de terminal descreve o tipo de emulação de terminal que o cliente Telnet deverá realizar. O telnet não utiliza qualquer recurso de processamento do computador que está transmitindo. O que ele faz é transmitir as teclas digitadas localmente ao host remoto e enviar a saída na tela de volta ao monitor local. Todo o processamento e o armazenamento ocorrem no computador remoto. O Telnet atua na camada de aplicação do modelo TCP/IP. Assim, ele atua nas três camadas mais altas do modelo OSI. A camada de aplicação lida com comandos. A camada de apresentação lida com formatação, normalmente ASCII. A camada de sessão transmite. No modelo TCP/IP, todas essas funções são consideradas parte da camada de aplicação.
    • Cisco CCNA 3.1 403 Resumo Capítulo 11 Devem ter sido compreendidos os importantes conceitos a seguir: texto • As funções da camada de transporte TCP/IP • Controle de fluxo • Os processos de estabelecimento de conexão entre sistemas pares. • Janelamento • Confirmação • Protocolos da camada de transporte • Formatos de cabeçalho TCP e UDP. • Números de porta TCP e UDP • Os processos e protocolos na camada de aplicação TCP/IP. • Serviços de nome de domínio • Protocolos de transferência de arquivos • Simple Mail Transfer • Protocol Simple Network • Telnet